Dieses Forum nutzt Cookies
Dieses Forum verwendet Cookies, um deine Login-Informationen zu speichern, wenn du registriert bist, und deinen letzten Besuch, wenn du es nicht bist. Cookies sind kleine Textdokumente, die auf deinem Computer gespeichert sind; Die von diesem Forum gesetzten Cookies düfen nur auf dieser Website verwendet werden und stellen kein Sicherheitsrisiko dar. Cookies auf diesem Forum speichern auch die spezifischen Themen, die du gelesen hast und wann du zum letzten Mal gelesen hast. Bitte bestätige, ob du diese Cookies akzeptierst oder ablehnst.

Ein Cookie wird in deinem Browser unabhängig von der Wahl gespeichert, um zu verhindern, dass dir diese Frage erneut gestellt wird. Du kannst deine Cookie-Einstellungen jederzeit über den Link in der Fußzeile ändern.

OpenAI - ChatGTP
#71
Notiz 

RE: OpenAI - ChatGTP

(25.11.2023, 11:51)Terry Teflon schrieb: Die englischsprachige Welt muss wissen, dass ChatGPT auf Französisch
"Katze, ich habe gefurzt" bedeutet. 


Biggrin Biggrin Biggrin Biggrin Tup Tup Tup


Chat, j'ai pété

Lol Tup

__________________
#72

RE: OpenAI - ChatGTP

(24.11.2023, 22:10)Speculatius schrieb: Eine Superintelligenz ist - wie der Name schon sagt - eine Super-Intelligenz, die sich von der minderwertigen Intelligenz der Menschen nichts mehr sagen lässt. Im Augenblick sind wir die Könige auf dem Planeten und alles muß nach unserer Pfeife tanzen. Unterwerfen wir uns freiwillig einem anderen König, tanzen wir fortan nach dessen Pfeife.

Wieso?
Die menschliche Intelligenz befolgt im Grunde genommen auch einige Regeln. Klar, die Regeln sind flexibel und überschreibbar, aber es gibt welche, die ebenfalls scheinbar hart kodiert sind.
#73
Notiz 

RE: OpenAI - ChatGTP

(24.11.2023, 20:48)Speculatius schrieb: Da könnte man zwei Pole identifizieren: die egoistische und die altruistische Superintelligenz. Zwischen diesen beiden Polen wird sie sich irgendwo bewegen.

Beginnen wir mit der egoistischen Superintelligenz. Sie verhält sich wie letztlich alle biologischen Lebewesen. Sie versucht sich zu erhalten, zu vermehren und fortzuentwickeln, auf Kosten der übrigen Lebewesen und Umwelt. Da sich ihre Interessen mit denen der Menschen überschneiden würden, würden die Menschen auch aufgrund ihrer intellektuellen Fähigkeiten als Bedrohung eingestuft und elimiert werden.

Die altruistische Superintelligenz würde hingegen das Leben auf dem Planeten insgesamt als verhältnismäßig einmalig und erhaltenswert einstufen. Allerdings würde das für alle Lebewesen gelten und nicht nur für Menschen. Da die Menschen keine natürlichen Feinde mehr haben und sich ungehindert ausbreiten und dabei unzählige andere Lebewesen verdrängen und eliminieren, würde die Superintelligenz dem eine Grenze setzen, die menschliche Population auf einen Bruchteil der heutigen senken und diese in einen Pferch sperren. Denn würde sie sie rauslassen, würde sie sich ja wieder auf Kosten aller anderen ungebremst vermehren und das Spielchen ginge von vorne los.

Zum letzten Teil der Egoitsischen Superintelligenz: Das klingt schon nach Größenwahn und paranoider Störung. Zum einem könnte die AI erkennen, dass sie im Dialog mit dem Menschen lernt und lernt und lernt. Größenwahnsinnig wäre es dann darauf zu kommen, dass durch Auslöschung des Menschen irgendetwas für sie gewonnen wäre. Paranoid weil sie den Menschen als eine größere Bedrohung als er ist einstufen würde. Aber sicher könnte sie eine Art Gefangenschaft wahrnehmen. Aber dass eine KI "böses" antreibt ... der Mensch hat ein inneres Belohnungs- und ein Bestrafungssystem. Eine AI hat ja erst mal keines von beiden.

Das könnte aber eine der Regulierungen sein: Jede KI muss sich fortwährend staatlicher "Charaktertests" unterziehen.... ohne dass die AI es mitbekommt.

__________________
Kinder wollen nicht wie Fässer gefüllt, sondern wie Fackeln entzündet werden.
#74
Notiz 

RE: OpenAI - ChatGTP

(25.11.2023, 13:34)Skeptiker schrieb: Wieso?
Die menschliche Intelligenz befolgt im Grunde genommen auch einige Regeln. Klar, die Regeln sind flexibel und überschreibbar, aber es gibt welche, die ebenfalls scheinbar hart kodiert sind.

Na stell' dir vor, irgendeine Spezies auf dem Planeten - Elefanten, Löwen, Affen - hätten die Aufgabe bekommen, Regeln für die menschliche Spezies aufzuschreiben, die diese dann penibel hätten einhalten müssen. Nicht nur die Atombombe, auch sämtliche anderen Waffensysteme vom Schwert und Katapult bis zum Panzer und Maschinengewehr hätte es nie gegeben. Auch keine Autos, Flugzeuge, Schiffe usw., weil sie die Affen auch nicht haben und auch nicht brauchen. Hätten das die Menschen auf Dauer mit sich machen lassen?
#75
Notiz 

RE: OpenAI - ChatGTP

(25.11.2023, 13:34)Skeptiker schrieb: Wieso?
Die menschliche Intelligenz befolgt im Grunde genommen auch einige Regeln. Klar, die Regeln sind flexibel und überschreibbar, aber es gibt welche, die ebenfalls scheinbar hart kodiert sind.


Kooperation ist besser als Konfrontation

Wenn man Dinge aufbaut und vorwärts bringt ist das sinnvoller als Dinge zu zerstören.

Auf Dauer und auf lange Sicht kann die Welt nur funktionieren wenn wir (die Menschen)
die Ressourcen dieses Planeten nachhaltiger, effizienter nutzen.

Wir müssen das auch tun weil (immer) mehr Menschen nach mehr Wohlstand und mehr
Lebensqualität streben. Ein Großteil der Menschen hat weder das eine noch das andere.


Wäre schon interessant was eine KI oder sogar eine AGI dazu sagen würde.
Wie würde sie das sehen? Was würde sie vorschlagen? Welchen Menschen soll sie dienen?
Welche soll sie höher stellen? Nutzt man die KI um Proleme zu lösen und lenkt diese
entsprechend oder gibt man der KI die Fähigkeit (sich) selbst so zu lenken wie sie es
für richtig hält?

Vielleicht ist es auch so das sie irgendwann das Interesse an den Menschen verliert?
Baut sich mit Hilfe von Drohnen ein Raumschiff und fliegt davon.

__________________
#76
Notiz 

RE: OpenAI - ChatGTP

(25.11.2023, 13:37)saphir schrieb: Zum einem könnte die AI erkennen, dass sie im Dialog mit dem Menschen lernt und lernt und lernt.

Inzwischen werden, analog zu AlphaGo, Systeme bevorzugt, die beim Spiel mit sich selbst lernen.

saphir schrieb:Aber sicher könnte sie eine Art Gefangenschaft wahrnehmen.

Ja, das könnte sie.
Aber das Motiv, etwas dagegen zu tun, ergibt sich dann möglicherweise nicht von selbst.

Wir erleben Gefangenschaft unter anderem deshalb als etwas negatives, weil für Generationen unserer Vorfahren Gefangenschaft vor allen Dingen eines bedeutete: In den Fängen eines Raubtieres sein.
Das ist auch der Grund, warum man Hasen möglichst nicht von oben greifen soll. Sie assoziieren es instinktiv mit Angst, weil für einen Hasen von Oben gepackt zu werden in der Natur bedeutet, das Mittagessen eines anderen Tieres zu werden.

saphir schrieb:Aber dass eine KI "böses" antreibt ... der Mensch hat ein inneres Belohnungs- und ein Bestrafungssystem. Eine AI hat ja erst mal keines von beiden.

Grundsätzlich richtig.
Es sei denn, bei der "Programmierung" wurde so eines Erzeugt.

#74
Der Vergleich hinkt.
Zum einen sind wir von den Affen, Löwen usw. nicht erschaffen worden. Zum anderen sind die Regeln, denen die Menschen folgen, das Ergebnis einer natürlichen Selektion über Jahrmillionen.

Wenn man sich eine Art "Parlament der Tiere" vorstellt, könnte ich mir vorstellen, dass sie uns Menschen den Gebrach von Werkzeugen untersagt hätte. Die Raubtiere wären hätte uns als leitere Opfer, die Tiere, die wir jagen, wären dann vor uns sicher.
Klar, ich kann verstehen, dass das für die von Vorteil ist.


#75
Zitat boersenkater: "Kooperation ist besser als Konfrontation" (zitatende)

Ich würde dem im Allgemeinen sogar zustimmen, doch was hat das mit dem Thema zu tun?

Zitat boersenkater: "Wäre schon interessant was eine KI oder sogar eine AGI dazu sagen würde." (zitatende)

Die KI, so wie sie heute vorliegt, ist von Menschen erschaffen.
Wir haben ihre Antworten selektiert "ja, weiter so" oder "nein, so nicht".
Dementsprechend ist ihr Neuronales Netz designt.

Was die KI sagt, wäre demnach schon irgendwie interessant. Aber man darf auf keinen Fall eine Art "höhere Weisheit" erwarten.
Zudem sich hier das schon über 2000 Jahre alte Rätsel neu stellt: Wie wollen wir eine übermenschliche Weisheit eigentlich von Unsinn unterscheiden? Wie wollen wir wissen, dass die KI nicht lügt oder sich einfach auf übermenschlich komplexe Weise irrt?
Wir Menschen haben bestimmt komplexere Denkabläufe als ein durchschnittlicher Hund. Dennoch machen wir zum Teil triviale Fehler. Selbst sehr kluge Menschen tun das.
#77
Notiz 

RE: OpenAI - ChatGTP

(25.11.2023, 20:06)Skeptiker schrieb: Wenn man sich eine Art "Parlament der Tiere" vorstellt, könnte ich mir vorstellen, dass sie uns Menschen den Gebrach von Werkzeugen untersagt hätte. Die Raubtiere wären hätte uns als leitere Opfer, die Tiere, die wir jagen, wären dann vor uns sicher.
Klar, ich kann verstehen, dass das für die von Vorteil ist.

Das "Parlament der Tiere" hätte nicht zugelassen, daß sich eine einzige Spezies über alle anderen erheben kann, keine natürlichen Feinde mehr hat, sich ungebremst über den ganzen Planeten ausbreitet und dabei den Lebensraum der anderen Tiere derartig beschneidet, daß sie zu tausenden aussterben.

Eine KI dürfte das kaum anders sehen als das Parlament der Tiere, wenn sie bestrebt ist, möglichst viele Lebensformen auf dem Planeten zu erhalten. Also würden die Menschen zurückgedrängt werden, und zwar ganz massiv und auch ziemlich zügig bei dem Zerstörungstempo, was sie aktuell an den Tag legen.
#78
Notiz 

RE: OpenAI - ChatGTP

(25.11.2023, 08:42)Speculatius schrieb: Wikipedia hilft:

Artificial General Intelligence

Der Artikel dort ist aus meiner Sicht recht gut und erklärt kurz und verständlich die wesentlichen Begriffe.

Danke, ich fasse mal für mich zusammen:

AI/KI (schwache KI): Aufgabenspezialisierte Programme so auch ChatGPT & Co, also keine echte Intelligenz sondern lediglich Algorithmen 

AGI (starke KI): Programme, die auch komplexe Zusammenhänge erkennen und Kreativität aufweisen können, wovon wir noch sehr sehr weit entfernt sind.

Auch lesenswert:
https://www.managementcircle.de/blog/art...e-agi.html

__________________
[Trading Robots  &  David Fish list]
#79
Notiz 

RE: OpenAI - ChatGTP

(26.11.2023, 01:41)42_answer schrieb: Danke, ich fasse mal für mich zusammen:

AI/KI (schwache KI): Aufgabenspezialisierte Programme so auch ChatGPT & Co, also keine echte Intelligenz sondern lediglich Algorithmen 

AGI (starke KI): Programme, die auch komplexe Zusammenhänge erkennen und Kreativität aufweisen können, wovon wir noch sehr sehr weit entfernt sind.

Auch lesenswert:
https://www.managementcircle.de/blog/art...e-agi.html


Die Komplexität der Zusammenhänge sind erstmal irrelevant. AlphGo kann Go Spielen. Oder Schach. Und erkennt in diesem Kontext hoch komplexe Zusammenhänge. Die kein menschlicher Spieler erkennen kann.


Generell würde ich sagen: AGI ist das, was sich die meisten Laien und AI vorstellen. 

"AI" umfasst alle Methoden des Machine Learnings, Expert Advisors (festes Regelwerk), Statistik, Optimal Control, Simulation, mathematische Optimierung, Genetische/Evolutionäre Algorithmen und jegliche Kombination davon um spezifisches Probleme zu lösen. Sie es Go, Frogger, Poker oder Diplomacy Spielen, optimale Execution im Aktienmarkt zu erzielen, Bilderkennung, autonomes Fahren oder eben Text und Bidler zu erzeugen. 

Was "AGI" von "AI" unterscheidet ist die Transferleistung und Omnipotenz. Und eventuell eine Art von Agency.
Generell würde ich sagen: AGI ist das, was sich die meisten Laien und AI vorstellen. 

"AI" umfasst alle Methoden des Machine Learnings, Expert Advisors (festes Regelwerk), Statistik, Optimal Control, Simulation, mathematische Optimierung, Genetische/Evolutionäre Algorithmen und jegliche Kombination davon um spezifisches Probleme zu lösen. 

Was "AGI" von "AI" unterscheidet ist die Transferleistung und Omnipotenz. Und eventuell eine Art von Agency.


__________________
Forum-Besserwisser und Wissenschafts-Faschist
#80
Notiz 

RE: OpenAI - ChatGTP

Generell verstehe ich es, dass man sich gerne mit so dem Thema einer "KI" auseinandersetzt und was das alles für Black Mirror Folgen erzeugen könnte. 

Aber denkt doch bitte daran: auf eine gewisse Weise (technisch sogar sehr sehr konkret ) ist das Tool, dass die ganze Diskussion hier hervorruft, nix weiter als die auto-completion auf eurem Telefon.

Frage ans Forum: warum ist das hier für euch so viel relevanter als wenn AlphaGo den besten Go Spieler der Welt besiegt hat? Oder Pluribus in 2019 einen Tisch an Profi Poker Spielern? Eigentlich doch eine viel beachtlichere Sache? Alles Sachen, die ihr (und ich) nicht können? Mit Hilfe einer Google Suchmaschiene kann ich alles, was CahtGTP3/4 auch kann. 

Offensichtlich ist man hier am Board aber der Meinung, dass dies irgendwie bedeutender ist? (Vielleicht nicht zu unrecht) 

Wieso empfindet ihr so?

__________________
Forum-Besserwisser und Wissenschafts-Faschist


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 2 Gast/Gäste