https://www.heise.de/hintergrund/Erschre...85819.html
"Erschreckend, wenn man das sieht": KI-Pionier Geoffrey Hinton über KI-Modelle
Ohne den britisch-kanadischen Forscher hätten sich tiefe neuronale Netze kaum durchgesetzt. Doch nun hinterfragt der Ex-Google-Mitarbeiter Hinton seine Arbeit.
Der Text enthält auch einige Details über die Funktionsweise und erläutert die Fehlerhaftigkeit.
Und was ist mit der Tatsache, dass große Sprachmodelle dazu neigen, manche Dinge einfach zu erfinden? Diese von KI-Forschern als "Halluzinationen" bezeichneten Probleme (Hinton bevorzugt den Begriff "Konfabulationen", da dies der korrekte Begriff in der Psychologie sei) werden oft als fatale Schwachstelle der LLMs angesehen. Die Tendenz, Blödsinn zu erzeugen, der dabei auch noch gut klingt, mache Chatbots unglaubwürdig und zeige, so wird argumentiert, dass diese Modelle nicht wirklich verstünden, was sie sagen.
Auch darauf hat Hinton eine Antwort: Bullshitting sei ein Feature, kein Bug. "Menschen konfabulieren immer", sagt er. Halbwahrheiten und falsch erinnerte Details seien Kennzeichen der menschlichen Konversation: "Konfabulation ist ein Merkmal des menschlichen Gedächtnisses." Diese Modelle machten damit, sagt Hinton, etwas genauso wie Menschen. Der Unterschied bestehe darin, dass Menschen normalerweise mehr oder weniger korrekt konfabulieren. Das Erfinden sei nicht das Problem. Computer brauchen einfach ein bisschen mehr Übung.