01.04.2024, 18:33
Das ist ernst.
Diese Art Rätsel ist einige Male im Trainingsmaterial vorhanden, so dass GPT nicht einfach aus diesem Schema ausbrechen kann.
Bei Bilderkennungs-AI gibt es "adversarial" Attacken, wo man der AI ganz simpel unterschieben lassen kann, ein Schwein sei ein Flugzeug (bzw. alles mögliche). Das ist nicht sonderlich schwer und seit Jahren bekannt:
https://bdtechtalks.com/2021/09/24/devel...l-attacks/
Ich hoffe, es ist den meisten hier aufgefallen, dass nach Schritt 5) 4 Liter Wasser im großen Eimer sind und nicht 3, wie GPT sagt.
Ich stelle mich weiter doof und versuche das gleiche Spiel mit 5 Litern, hier gibt es aber eine passende Antwort und GPT wird zum Schluss ein wenig hochmütig:
[attachment=15010]
Dann lüge ich, behaupte im 1. Versuch nur 2 Liter zu erhalten statt der geforderten 3 (in Wirklichkeit waren es 4 Liter, s.o.).
GPT geht nochmal alles durch wie im ersten Beispiel und sagt jetzt richtigerweise 4 Liter, macht mich aber nicht auf meinen Fehler mit den 2 Litern aufmerksam.
Das 3 Literproblem kann es aber immer noch nicht lösen:
[attachment=15011]
[attachment=15012]
Wieder der gleiche Fehler: Es sind 4 Liter Wasser im 5-Liter-Eimer, nicht 3.
[attachment=15017]
Ich gebe auf, um nicht alle 30 Versuche zu verballern. Immerhin findet es jetzt eine richtige Lösung, aber nicht die, die selbst ein dummer Mensch wählen würde.
[attachment=15014]
Ich denke, es liegt daran, dass solche Textaufgaben es praktisch immer implizit erfordern, dass alle aufgeführten Hilfsmittel auch gebraucht werden. Deshalb "will" es wohl unbedingt den 5L Eimer in die Lösung einbinden. GPT versteht aber nicht wirklich, was es da macht (von wegen "Bewusstsein").
Diese Art Rätsel ist einige Male im Trainingsmaterial vorhanden, so dass GPT nicht einfach aus diesem Schema ausbrechen kann.
Bei Bilderkennungs-AI gibt es "adversarial" Attacken, wo man der AI ganz simpel unterschieben lassen kann, ein Schwein sei ein Flugzeug (bzw. alles mögliche). Das ist nicht sonderlich schwer und seit Jahren bekannt:
https://bdtechtalks.com/2021/09/24/devel...l-attacks/
Ich hoffe, es ist den meisten hier aufgefallen, dass nach Schritt 5) 4 Liter Wasser im großen Eimer sind und nicht 3, wie GPT sagt.
Ich stelle mich weiter doof und versuche das gleiche Spiel mit 5 Litern, hier gibt es aber eine passende Antwort und GPT wird zum Schluss ein wenig hochmütig:
[attachment=15010]
Dann lüge ich, behaupte im 1. Versuch nur 2 Liter zu erhalten statt der geforderten 3 (in Wirklichkeit waren es 4 Liter, s.o.).
GPT geht nochmal alles durch wie im ersten Beispiel und sagt jetzt richtigerweise 4 Liter, macht mich aber nicht auf meinen Fehler mit den 2 Litern aufmerksam.
Das 3 Literproblem kann es aber immer noch nicht lösen:
[attachment=15011]
[attachment=15012]
Wieder der gleiche Fehler: Es sind 4 Liter Wasser im 5-Liter-Eimer, nicht 3.
[attachment=15017]
Ich gebe auf, um nicht alle 30 Versuche zu verballern. Immerhin findet es jetzt eine richtige Lösung, aber nicht die, die selbst ein dummer Mensch wählen würde.
[attachment=15014]
Ich denke, es liegt daran, dass solche Textaufgaben es praktisch immer implizit erfordern, dass alle aufgeführten Hilfsmittel auch gebraucht werden. Deshalb "will" es wohl unbedingt den 5L Eimer in die Lösung einbinden. GPT versteht aber nicht wirklich, was es da macht (von wegen "Bewusstsein").