Trading-Stocks.de

Normale Version: News und Infos zu KI - Künstliche Intelligenz
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Zitat:Die USA bereiten sich auf einen Kartellkonflikt mit den KI-Schwergewichten Nvidia, OpenAI und Microsoft vor

Alexis Keenan·Senior Legal Reporter
Thu, Jun 6, 2024, 9:01 PM GMT+2


Die größten Kartellbehörden in den USA verstärken ihre Kontrolle über die mächtigsten Entwickler künstlicher Intelligenz im Land.

Laut Berichten der New York Times und des Wall Street Journal haben das Justizministerium und die Federal Trade Commission Ermittlungen gegen Nvidia ( NVDA ), Microsoft ( MSFT ) und OpenAI eingeleitet und aufgeteilt.

Laut der Times wird das Justizministerium eine Untersuchung der Dominanz von Nvidia ( NVDA  ) auf dem Markt für Mikroprozessoren, die KI antreiben, leiten.

Die FTC würde kartellrechtliche Untersuchungen gegen Microsoft und OpenAI leiten.............


https://finance.yahoo.com/news/us-prepar...02310.html



Zitat:Google bringt KI-Notiz-App nach Deutschland

Die Alphabet-Tochter Google hat seinen KI-gestützten Recherche- und Schreibassistenten "NotebookLM" für Anwenderinnen und Anwender in rund 200 Ländern außerhalb der USA freigeschaltet. "NotebookLM" funktioniert ähnliche wie ChatGPT von OpenAI oder Co-Pilot von Microsoft, verwendet für sein Training aber ausschließlich vom User vorgegebene Quellen. "NotebookLM" arbeitet nach Angaben des Tech-Konzerns damit als geschlossenes System, das heißt es analysiert nur die in den hochgeladenen Quellen enthaltenen Informationen und greift nicht auf das Internet zu, um zusätzliche Daten auszuwerten.


https://www.tagesschau.de/wirtschaft/fin...e-100.html



Zitat:Google bringt mächtige Notiz-App mit KI nach Deutschland
06.06.2024, 13:08


MOUNTAIN VIEW (dpa-AFX) - Google hat seinen KI-gestützten Recherche- und Schreibassistenten "NotebookLM" für Anwenderinnen und Anwender in rund 200 Ländern außerhalb der USA freigeschaltet. "NotebookLM" funktioniert ähnliche wie ChatGPT von OpenAI oder Co-Pilot von Microsoft, verwendet für sein Training aber ausschließlich vom User vorgegebene Quellen. "NotebookLM" arbeitet nach Angaben des Tech-Konzerns damit als geschlossenes System, das heißt es analysiert nur die in den hochgeladenen Quellen enthaltenen Informationen und greift nicht auf das Internet zu, um zusätzliche Daten auszuwerten.

Benutzerinnen und Benutzer von "NotebookLM" können als Quellen verschiedene Dateiformate hochladen, darunter Textdateien, PDF-Dokumente und Google Docs. Neu dazugekommen sind Präsentationen (Google Slides) und Website-Adressen, die als Quellen genutzt werden können.

Die Online-Anwendung hatte Google vor einem Jahr auf der Entwicklerkonferenz I/O für User in den USA als "virtueller wissenschaftlicher Mitarbeiter, der komplexe Ideen erklären und neue Zusammenhänge erarbeiten kann", vorgestellt. Seitdem wurde das Tool kontinuierlich erweitert. Inzwischen kann "NotebookLM" bis zu 25 Millionen Wörter pro Notizbuch verarbeiten und ermöglicht es Benutzern, bis zu 100 Notizbücher zu erstellen. Während die Anwendung zu Beginn nur in Englisch verfügbar war, werden nun 100 Sprachen unterstützt, darunter auch Deutsch./chd/DP/men


https://www.t-online.de/finanzen/boerse/...04C0425B3/
Das ist der Link zum Produkt:

https://notebooklm.google/

Ich habe mal den Link zu diesem Thread eingefügt und gefragt:

Fasse in 30 Sätzen die Posts von minenfuchs zusammen.

Ich kann Ihre Anfrage nicht beantworten, da die bereitgestellten Quellen keine Informationen über die Posts von Minenfuchs enthalten. Die Quellen bestehen aus einer Reihe von Forumseinträgen zum Thema KI, die hauptsächlich von einem Benutzer namens "boersenkater" verfasst wurden. Die Beiträge befassen sich mit verschiedenen Aspekten der KI, wie z. B. der Regulierung von KI durch die EU, der Funktionsweise von KI, dem Einfluss von KI auf den Alltag und der Verwendung von KI in der digitalen Mikroskopie.


Wenig überzeugend. Denkbar, dass er nur Seite 1 lesen konnte.
Nix zu machen. Notebooklm nutzt wohl ältere Daten und liest nicht die aktuelle Webseite ein.
Ich will dich ja nicht zu sehr in deiner Begeisterung für LLMs bremsen, aber den Großteil den du hier postest sind leider unsägliche clickbait Hype Artikel.

Ich freue mich über deine Begeisterung. Die Fortschritte sind auch krass. Aber das ist alles nicht so weit, wie du dir das vorstellst und deine Artikel es suggerieren. 

Ein Auto-Encoder erklärt gar nix. Er ist ein Mittel zur Dimensionreduktion. Wie eine Prncipal Component Analysis. Das "kann" helfen. Muss aber nicht. Die nodes aus dem latenten Layer sagen erstmal nix aus.

Auch sind die "Haushaltsroboter" nicht "bald da". Nicht die Bohne. Der aktuelle "KI" Hype, ist gerade in diesem Kontext relativ nutzlos. In der Robotik (und generell in der Regelungstechnik) gibt es ein Problem, das nennt sich "Planung". Insbesondere "Motion Planning". Da sind wir kein Stück weiter.  Und LLMs können das nicht. "Lost Robot Problem"? Ebenfalls kein Stück weiter. 

Es gibt ein Problem in der Robotik, das nennt sich "scene understanding". Hier könnten Deep Transformer Models eventuell was bringen. Aber halt nicht auf Daten aus dem Internet. 

Und :
"Das ist keine reine Programmierung. Wie ich es hier schon öfter schrieb, die Forschung weiß gar nicht, warum und wie das Ganze funktioniert. Es ist kein Algo. Wir haben einen Datenberg, auf den wird monströse Datenpower losgelassen und danach kann das Ding „denken“. Warum und wie weiß man nur in groben Ansätzen."

Nein. Einfach nein. Das lernt nicht zu denken. Das lernt die nächsten Wörter zu prognostizieren. Das ist eventuell ein wichtiger Teil vom Denken. Aber eben nicht denken. 

Nochmal. Lass den Hype Kram von der "gamestar" einfach mal stecken und lies das hier. Anstrengend und eventuell weniger aufregend. Aber danach weißt du was und hast was verstanden. 

https://writings.stephenwolfram.com/2023...s-it-work/

Wenn es von der Aufmerksamkeitsspanne eher was vieluesses sein muss, sehr gut:
https://www.youtube.com/watch?v=zjkBMFhNj_g

und natürlich das hier (die ganze Serie, am Schluß werden Transformer Modelle erklärt)

https://www.youtube.com/watch?v=aircAruv...x_ZCJB-3pi
Es ist auch meine Erfahrung, dass alles viel langsamer geht, als man erhofft. Ist bei KI und Robotik nicht anders. Aber man muss mal 2 Jahre zurück gehen, da war viel weniger.

Das mit dem "Wörter prognostizieren" dachte ich auch mal. Dann wüsste man ja, wie ChatGPT funktioniert. Tatsächlich weiß man so gut wie nix, also natürlich nicht wie ChatGPT "denkt". Man darf das übrigens schon so nennen - wir sollten uns selber nicht überhöhen, wir sind auch nur "Bio-Maschinen".

Interessant ist am Ball zu bleiben, das gefällt mir an dem Thread. Wenn wir nur aufs Ende der Entwicklung warten wollten, bräuchten wir den nicht.

Und ich will selber keinen Roboter bauen oder eine neue KI entwickeln.
Ich fand das c't Sonderheft zu KI nicht schlecht.
(09.06.2024, 00:24)minenfuchs schrieb: [ -> ]Es ist auch meine Erfahrung, dass alles viel langsamer geht, als man erhofft. Ist bei KI und Robotik nicht anders. Aber man muss mal 2 Jahre zurück gehen, da war viel weniger.

Das mit dem "Wörter prognostizieren" dachte ich auch mal. Dann wüsste man ja, wie ChatGPT funktioniert. Tatsächlich weiß man so gut wie nix, also natürlich nicht wie ChatGPT "denkt". Man darf das übrigens schon so nennen - wir sollten uns selber nicht überhöhen, wir sind auch nur "Bio-Maschinen".

Interessant ist am Ball zu bleiben, das gefällt mir an dem Thread. Wenn wir nur aufs Ende der Entwicklung warten wollten, bräuchten wir den nicht.

Und ich will selber keinen Roboter bauen oder eine neue KI entwickeln.
Nein. Das ist kein Geheimnis, das ist exakt so gebaut. Das Ding lernt die nächsten Wörter zu prognostizieren. Das Training des Modells is nix mysteriöses. Das sind am Ende des Tages ein paar Zeilen PyTorch Code. Schau einfach die Videos. Dann musst du nicht spekulieren.

Das es so gut funktioniert ist etwas überraschend. Man rätselt darüber ob es ein emergentes System ist.

Und ich stimme dir zu, dass wir unseren Denkprozess nicht überhöhen sollten. Aber alle biologischen Systeme haben eins gemein: sie können hirachical planning. Das ist Control Theory/Kybernetik aus den 60ern. AlphaGo ist da gut drin. 

LlLMs werden wichtiger Teil von Gesamtsystemen sein, die sprachlichen Input in etwas übersetzen mit dem der Rest des Systems dann was anfangen kann.