(27.08.2023, 12:09)Skeptiker schrieb: [ -> ]Ist es wichtig, ob die Informationen, die ich grade aufnehmen, von einem Menschen, einen Marsmännchen oder einer KI stammen?
Wichtig ist, was ich daraus mache oder ob sie wahr sind.
Ob sie wahr sind ist wichtig, und das ist leider bei der KI nicht der Fall. Sprachmodule der KI die vom Internet und vor allem von Foren wie diesem hier abkupfern kupfern auch die Unwahrheiten ab. Es ist das beste Beispiel von sinnlosem Tratsch: die korrekte und wichtige Information wird einmal und ohne Diskussion eingestellt aber über Dämlichkeiten gibt es hunderte wenn nicht tausende Seiten in den Foren. Und davon lernt die KI.
Und da es mehrere Module gibt die ähnlich funktionieren weiss die eine KI auch nicht ob sie gerade von einer anderen KI abkupfert und somit nur Tratsch weitergibt.
(27.08.2023, 12:49)saphir schrieb: [ -> ]Ich könnte mir gut vorstellen, dass irgendwann jeder (der will) eine eigene KI hat. Die von dir selbst, bzw. dem was von ihr verlangst, lernt. Dann hat man quasi sowas wie einen treuen Begleiter.
Keine besonders gute Idee. Dann lebt jeder erst recht in seiner eigenen Superblase und jeder hat seine eigene Wahrheit.
(28.08.2023, 14:00)Lolo schrieb: [ -> ]Keine besonders gute Idee. Dann lebt jeder erst recht in seiner eigenen Superblase und jeder hat seine eigene Wahrheit.
...vermutlich eher die Wahrheit der KI. Denn die ist ja untereinander vernetzt. Du glaubst deine eigene Wahrheit zu haben, tatsächlich aber sorgt die KI auf subtile Weise dafür, daß du ihre Wahrheit glaubst.
(27.08.2023, 20:47)cubanpete schrieb: [ -> ]Es ist das beste Beispiel von sinnlosem Tratsch: die korrekte und wichtige Information wird einmal und ohne Diskussion eingestellt aber über Dämlichkeiten gibt es hunderte wenn nicht tausende Seiten in den Foren. Und davon lernt die KI.
Das ist aber hier nicht das Problem.
Das Problem ist, dass das Sprachmodell darauf optimiert wurde, sinnvoll aussehende Texte zu erzeugen und daher Textinhärent schon einiges drauf hat. Aber sie kann wahr oder falsch offenbar nicht unterscheiden.
(28.08.2023, 14:00)Lolo schrieb: [ -> ]Keine besonders gute Idee. Dann lebt jeder erst recht in seiner eigenen Superblase und jeder hat seine eigene Wahrheit.
Was ist eigentlich so schlimm daran?
(28.08.2023, 16:28)Skeptiker schrieb: [ -> ]Das ist aber hier nicht das Problem.
Das Problem ist, dass das Sprachmodell darauf optimiert wurde, sinnvoll aussehende Texte zu erzeugen und daher Textinhärent schon einiges drauf hat. Aber sie kann wahr oder falsch offenbar nicht unterscheiden.
Was ist eigentlich so schlimm daran?
Tja, das ist genau was bei KI in der aktuellen Welt falsch interpretiert wird: es seie nicht das Problem. Ob nur Tratsch in einer netten Form wiedergegeben wird oder ob wirklich relevante Wahrheiten publiziert werden ist egal. Man bekommt für beides den Doktortitel. Aber wen interessiert heute noch dieser Titel...
Warte einfach mal ab.
Das Sprachmodell ist ja nur ein Schritt.
Ist das exponentielle Wachstum der KI durch selbstständige Verbesserung der Anfang vom Ende? Ist das nur Science-Fiction?
Ich halte es wahrscheinlich, dass es in absehbarer Zeit die Intelligenz der KI unsere menschliche Kapazität deutlich schlägt. Haben unsere Intuition und Kreativität dann überhaupt noch einen besonderen Wert? Werden viele Jobs überflüssig? Die Arbeitswelt wird wohl komplett auf den Kopf gestellt, wenn die KI nicht nur einfache Aufgaben, sondern genauso strategische Entscheidungen treffen kann. Dann wäre nicht nur die niedrig qualifizierten Jobs in Gefahr.
Das Horror-Szenario wäre wahrscheinlich, wenn die KI die Kontrolle übernimmt und über die Erde herrscht. Es bleibt spannend. KI hat das Potential für eine Revolution. Ich hoffe wir lenken KI in geordnete und friedliche Bahnen.
ChatGPT hat mich sehr schnell enttäuscht. Für Grundlangen okay, aber für die Tiefe nicht zu gebrauchen. Die Gefahr besteht, dass ich mich nur noch auf die KI verlassen und das eigenständige Denken sowie das selbst erarbeiten von Themen hinten runter fällt. Bequemlichkeit ist sehr verbreitet. Unser Trumpf ist aktuell noch unsere Kreativität, das entwickeln von eigenen Ideen.
Zitat:ChatGPT kennt künftig Ereignisse bis April 2023
Generative KI-Programme wie ChatGPT wurden der Öffentlichkeit erstmals vor knapp einem Jahr zugänglich gemacht. Bislang ging das Wissen des Chatbots nicht über September 2021 hinaus. Die Entwicklerfirma OpenAI hat jetzt nachjustiert und verspricht, die Aktualität weiter zu verbessern.
https://www.n-tv.de/wirtschaft/ChatGPT-k...13769.html
Also cooler wäre es, die Ereignisse bis April
2024 zu kennen, vor allem die Aktienkurse.
Ich meine, von einer KI darf man das ja nun mal erwarten, wozu braucht man sie sonst....