Ich will dich ja nicht zu sehr in deiner Begeisterung für LLMs bremsen, aber den Großteil den du hier postest sind leider unsägliche clickbait Hype Artikel.
Ich freue mich über deine Begeisterung. Die Fortschritte sind auch krass. Aber das ist alles nicht so weit, wie du dir das vorstellst und deine Artikel es suggerieren.
Ein Auto-Encoder erklärt gar nix. Er ist ein Mittel zur Dimensionreduktion. Wie eine Prncipal Component Analysis. Das "kann" helfen. Muss aber nicht. Die nodes aus dem latenten Layer sagen erstmal nix aus.
Auch sind die "Haushaltsroboter" nicht "bald da". Nicht die Bohne. Der aktuelle "KI" Hype, ist gerade in diesem Kontext relativ nutzlos. In der Robotik (und generell in der Regelungstechnik) gibt es ein Problem, das nennt sich "Planung". Insbesondere "Motion Planning". Da sind wir kein Stück weiter. Und LLMs können das nicht. "Lost Robot Problem"? Ebenfalls kein Stück weiter.
Es gibt ein Problem in der Robotik, das nennt sich "scene understanding". Hier könnten Deep Transformer Models eventuell was bringen. Aber halt nicht auf Daten aus dem Internet.
Und :
"Das ist keine reine Programmierung. Wie ich es hier schon öfter schrieb, die Forschung weiß gar nicht, warum und wie das Ganze funktioniert. Es ist kein Algo. Wir haben einen Datenberg, auf den wird monströse Datenpower losgelassen und danach kann das Ding „denken“. Warum und wie weiß man nur in groben Ansätzen."
Nein. Einfach nein. Das lernt nicht zu denken. Das lernt die nächsten Wörter zu prognostizieren. Das ist eventuell ein wichtiger Teil vom Denken. Aber eben nicht denken.
Nochmal. Lass den Hype Kram von der "gamestar" einfach mal stecken und lies das hier. Anstrengend und eventuell weniger aufregend. Aber danach weißt du was und hast was verstanden.
https://writings.stephenwolfram.com/2023...s-it-work/
Wenn es von der Aufmerksamkeitsspanne eher was vieluesses sein muss, sehr gut:
https://www.youtube.com/watch?v=zjkBMFhNj_g
und natürlich das hier (die ganze Serie, am Schluß werden Transformer Modelle erklärt)
https://www.youtube.com/watch?v=aircAruv...x_ZCJB-3pi
Ich freue mich über deine Begeisterung. Die Fortschritte sind auch krass. Aber das ist alles nicht so weit, wie du dir das vorstellst und deine Artikel es suggerieren.
Ein Auto-Encoder erklärt gar nix. Er ist ein Mittel zur Dimensionreduktion. Wie eine Prncipal Component Analysis. Das "kann" helfen. Muss aber nicht. Die nodes aus dem latenten Layer sagen erstmal nix aus.
Auch sind die "Haushaltsroboter" nicht "bald da". Nicht die Bohne. Der aktuelle "KI" Hype, ist gerade in diesem Kontext relativ nutzlos. In der Robotik (und generell in der Regelungstechnik) gibt es ein Problem, das nennt sich "Planung". Insbesondere "Motion Planning". Da sind wir kein Stück weiter. Und LLMs können das nicht. "Lost Robot Problem"? Ebenfalls kein Stück weiter.
Es gibt ein Problem in der Robotik, das nennt sich "scene understanding". Hier könnten Deep Transformer Models eventuell was bringen. Aber halt nicht auf Daten aus dem Internet.
Und :
"Das ist keine reine Programmierung. Wie ich es hier schon öfter schrieb, die Forschung weiß gar nicht, warum und wie das Ganze funktioniert. Es ist kein Algo. Wir haben einen Datenberg, auf den wird monströse Datenpower losgelassen und danach kann das Ding „denken“. Warum und wie weiß man nur in groben Ansätzen."
Nein. Einfach nein. Das lernt nicht zu denken. Das lernt die nächsten Wörter zu prognostizieren. Das ist eventuell ein wichtiger Teil vom Denken. Aber eben nicht denken.
Nochmal. Lass den Hype Kram von der "gamestar" einfach mal stecken und lies das hier. Anstrengend und eventuell weniger aufregend. Aber danach weißt du was und hast was verstanden.
https://writings.stephenwolfram.com/2023...s-it-work/
Wenn es von der Aufmerksamkeitsspanne eher was vieluesses sein muss, sehr gut:
https://www.youtube.com/watch?v=zjkBMFhNj_g
und natürlich das hier (die ganze Serie, am Schluß werden Transformer Modelle erklärt)
https://www.youtube.com/watch?v=aircAruv...x_ZCJB-3pi
__________________
Forum-Besserwisser und Wissenschafts-Faschist