Trading-Stocks.de

Normale Version: OpenAI - ChatGTP
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12 13
Das ist ernst.
Diese Art Rätsel ist einige Male im Trainingsmaterial vorhanden, so dass GPT nicht einfach aus diesem Schema ausbrechen kann.
Bei Bilderkennungs-AI gibt es "adversarial" Attacken, wo man der AI ganz simpel unterschieben lassen kann, ein Schwein sei ein Flugzeug (bzw. alles mögliche). Das ist nicht sonderlich schwer und seit Jahren bekannt:
https://bdtechtalks.com/2021/09/24/devel...l-attacks/

Ich hoffe, es ist den meisten hier aufgefallen, dass nach Schritt 5) 4 Liter Wasser im großen Eimer sind und nicht 3, wie GPT sagt.
Ich stelle mich weiter doof und versuche das gleiche Spiel mit 5 Litern, hier gibt es aber eine passende Antwort und GPT wird zum Schluss ein wenig hochmütig:

[attachment=15010]

Dann lüge ich, behaupte im 1. Versuch nur 2 Liter zu erhalten statt der geforderten 3 (in Wirklichkeit waren es 4 Liter, s.o.).
GPT geht nochmal alles durch wie im ersten Beispiel und sagt jetzt richtigerweise 4 Liter, macht mich aber nicht auf meinen Fehler mit den 2 Litern aufmerksam.
Das 3 Literproblem kann es aber immer noch nicht lösen:

[attachment=15011]
[attachment=15012]

Wieder der gleiche Fehler: Es sind 4 Liter Wasser im 5-Liter-Eimer, nicht 3.

[attachment=15017]

Ich gebe auf, um nicht alle 30 Versuche zu verballern. Immerhin findet es jetzt eine richtige Lösung, aber nicht die, die selbst ein dummer Mensch wählen würde.

[attachment=15014]

Ich denke, es liegt daran, dass solche Textaufgaben es praktisch immer implizit erfordern, dass alle aufgeführten Hilfsmittel auch gebraucht werden. Deshalb "will" es wohl unbedingt den 5L Eimer in die Lösung einbinden. GPT versteht aber nicht wirklich, was es da macht (von wegen "Bewusstsein").
Was für "30 Versuche"? Gibt es ein Limit?
Sorry, meine Information ist überholt, die 30 sind das Limit für eine Konversation.
Allerdings:
https://www.reddit.com/r/bing/comments/1...tions_per/

Zitat:Please keep in mind that using prompts to generate content that Microsoft considers inappropriate may result in losing your access to Bing Chat. Some users have received bans. You can read more about Microsoft's Terms of Use and Code of Conduct here.

I am a bot, and this action was performed automatically.

Versucht man zu häufig, den bot zu Unsinn zu verleiten, kann man gesperrt werden (sagt der reddit-bot Biggrin ).
Ich bin hier angemeldet
https://chat.openai.com
Und da habe ich schon weit über 100 Fragen am Tag los gelassen.

Ich wusste nicht das es da Unterschiede gibt. Aber wahrscheinlich wollen die einem irgendwann ein Abo drauf drücken.
Der Hochreiter Sepp aus Linz:

„ChatGPT ist ein Schmarrn. Wir schlagen alles, was am Markt ist“
"Transformer sind nonsense. Ich kann das alles besser. Leider darf ich noch nichts sagen, sonst klauen mir die aus den USA wieder alles"

https://kurier.at/chronik/oberoesterreic.../402780517

Ohne Bezahlschranke und etwas seriöser:
https://www.hannovermesse.de/de/news/new...noch-fehlt

Zitat:Hochreiter hatte in Interviews erläutert, dass er 54 Millionen Euro im Jahr benötige, um OpenAI herauszufordern – vier Millionen für das Personal und 50 Millionen für Rechenkapazitäten.
4 Millionen pro Jahr für angenomme 50 Spitzenleute? Kein Wunder, dass es einen brain drain gibt. Er wird wohl seine Doktoranden meinen.

https://www.youtube.com/watch?v=aEVzJsKUYnw
Ich mag den Sepp. Er formuliert die Sachen häufig etwas drastisch. Aber in der Summe ist er eine ehrliche Haut. 

Und er macht "pragmatische" Sachen! das hier zum Beispiel ist tatsächlich cool (https://arxiv.org/abs/2303.12783). Nix was man nicht auch mit KNN hinbekommt. Trotzdem. Die Einstellung stimmt. Da kommt was raus, das ich benutzen kann. Und er faselt nicht ständig was von "Intelligenz" und "Singularity". 

Das ist in der Welt der Sam Altmans und anderer Scharlatane schon wirklich was erfrischendes. Er und Yann LeCun halten die Fahne hoch. 

Ich kann den ganzen LLM Kram nicht wirklich bewerten. Ich finde die Vergleiche und Benchmarks intransparent.

Was ich aber machen kann, ist die Technik der LLMs für meine Probleme anwenden (Zeitreihen...). Ich war so begeister am Anfang. Und dann kamen all die Paper. Googles TFT (Transformers for Time Series), Informer... und und und...und jetzt Chronos (https://arxiv.org/abs/2403.07815). 

Ich hab echt viel Zeit investiert das zu testen. Alles Schwachsinn. Schlechter als einfache Modelle. Kann diese Studie nur bestätigen. https://arxiv.org/abs/2205.13504

Ich habe "moderaten" Erfolg mit Deep Learning Modellen, die irgendwie ein State Space Modell verdrahtet haben (https://arxiv.org/abs/2403.11144). 
Aber selbst das ist die Komplexität und den Rechenaufwand nicht wert. 

So I agree: Schwachsinn :)
G'schichten aus dem KI-Zoo:

[attachment=15030]
Im ursprünglichen Rätsel mit 2 Plätzen im Boot sind es aber mindestens 7 Überfahrten. Schritte 2) und 5) sind Doppelschritte.
https://de.wikipedia.org/wiki/Fluss%C3%B...%C3%A4tsel
[attachment=15031]
Beim "Hier noch einmal die Lösung" habe ich das Gefühl, der bot hält mich für den Minderbemittelten von uns beiden. Ich habe wohl schon zu viele dumme Fragen gestellt, um ihn aufs Glatteis zu führen Wink

[attachment=15032]
https://www.youtube.com/watch?v=uInQdWerdgg
Für alle die etwas mehr interessiert was  LLMs (Modelle die hinter Anwendungen wie ChatGTP stecken) können und was nicht. 

Stephen Wolfram mit eine grundsätzlichen Erläuterung. Für mich noch immer einer der besten Erklärungen:
https://writings.stephenwolfram.com/2023...s-it-work/ 

Wolfram bzgl möglicher Limitierungen für Anwendungen in der Wissenschaft:
https://writings.stephenwolfram.com/2024...e-science/ 

Wolfram über "AI" und Jobs:
https://writings.stephenwolfram.com/2023...mplicated/

Ich bin Fan von dem Typ. "The busy perons intro to LLMs"


Und natürlich ..3Blue1Brown.....:
Amazon hatte ja für 2024 versprochen, auch sein "ChatGPT" zu liefern, das dann Alexa "intelligent" macht.

Ich habe mir "vorab" ChatGPT auf Alexa installiert bzw. auf dem Echo Show. Aber das ist die allgemeine Version per API (ich habe 3.5-Turbo "verlinkt"). Was ich wirklich will, ist meine eigene Assistanten von ChatGPT dort installieren.

Mir fehlt aber leider die Fähigkeit, diesen Assistanten per API zu erstellen, noch den als Skill auf Alexa zu bringen.

Bisher habe ich einige Custom-GPTs, aber die laufen halt nur in ChatGPTs App auf dem Handy und haben nur die 40 Fragen a 3 Stunden nebst Abo-Kosten.

Falls hier wer mehr zum Thema weiß, ist sicher nicht nur für mich interessant.
(02.04.2024, 20:35)Lancelot schrieb: [ -> ]Ich hab echt viel Zeit investiert das zu testen. Alles Schwachsinn. Schlechter als einfache Modelle.

Ja, das "zu viel Zeit investiert" kenne ich aus anderen Modellen, LPPL von Didier Sornette:
https://arxiv.org/abs/2101.03625
The ‘COVID’ Crash of the 2020 U.S. Stock Market
Nun konnte die Pandemie wirklich niemand aus vergangenen Kursen vorhersehen, trotzdem sehen die Indikatoren auf Seite 11 ganz gut aus. So gut, dass die Autoren meinen, der crash habe gar nichts mit Pandemie & lockdowns zu tun gehabt:
Contrary to the popular belief that the COVID-19 led to the 2020 stock market crash, the 2020 U.S. stock market crash was endogenous

Bei langen Anstiegen funktioniert es aber leider gar nicht:
https://medium.com/@bpa.201402/when-will...8a1291fa45

Gehört eigentlich zu interesting research, ist aber sehr mathematisch und wird eh nur Lancelot interessieren.
Seiten: 1 2 3 4 5 6 7 8 9 10 11 12 13