Noch ein Test zu ChatGPT4o:
https://www.heise.de/news/Ist-GPT-4o-nur...26508.html
Wichtige Aussage:
Mir war vor allem wichtig herauszufinden, ob GPT-4o – wie alle anderen Chatbots auch – halluziniert. Das machen nämlich alle, vor allem in Themenbereichen, wo ihnen Trainingsinhalte fehlen. Anstatt zu melden „Sorry, weiß ich nicht“ fabulieren LLMs munter drauf los. Wir testen zum Beispiel immer gerne mit ungewöhnlichen Touristenattraktionen in Nicht-Metropolen – je kleiner die Stadt, desto größer ist die Wahrscheinlichkeit, auf Halluzinationen zu stoßen. Vor allem, wenn man direkt 10 oder 20 Attraktionen haben will.
Und ja, da halluziniert auch GPT-4o.
Es sind halt die Daten und man muss "richtig" fragen, damit das Ding nicht ins Lügen kommt.
https://www.heise.de/news/Ist-GPT-4o-nur...26508.html
Wichtige Aussage:
Mir war vor allem wichtig herauszufinden, ob GPT-4o – wie alle anderen Chatbots auch – halluziniert. Das machen nämlich alle, vor allem in Themenbereichen, wo ihnen Trainingsinhalte fehlen. Anstatt zu melden „Sorry, weiß ich nicht“ fabulieren LLMs munter drauf los. Wir testen zum Beispiel immer gerne mit ungewöhnlichen Touristenattraktionen in Nicht-Metropolen – je kleiner die Stadt, desto größer ist die Wahrscheinlichkeit, auf Halluzinationen zu stoßen. Vor allem, wenn man direkt 10 oder 20 Attraktionen haben will.
Und ja, da halluziniert auch GPT-4o.
Es sind halt die Daten und man muss "richtig" fragen, damit das Ding nicht ins Lügen kommt.