(25.11.2023, 11:51)Terry Teflon schrieb: Die englischsprachige Welt muss wissen, dass ChatGPT auf Französisch
"Katze, ich habe gefurzt" bedeutet.
Chat, j'ai pété
__________________
OpenAI - ChatGTP
|
(25.11.2023, 11:51)Terry Teflon schrieb: Die englischsprachige Welt muss wissen, dass ChatGPT auf Französisch Chat, j'ai pété __________________ (24.11.2023, 22:10)Speculatius schrieb: Eine Superintelligenz ist - wie der Name schon sagt - eine Super-Intelligenz, die sich von der minderwertigen Intelligenz der Menschen nichts mehr sagen lässt. Im Augenblick sind wir die Könige auf dem Planeten und alles muß nach unserer Pfeife tanzen. Unterwerfen wir uns freiwillig einem anderen König, tanzen wir fortan nach dessen Pfeife. Wieso? Die menschliche Intelligenz befolgt im Grunde genommen auch einige Regeln. Klar, die Regeln sind flexibel und überschreibbar, aber es gibt welche, die ebenfalls scheinbar hart kodiert sind. RE: OpenAI - ChatGTP| 25.11.2023, 13:37 (Dieser Beitrag wurde zuletzt bearbeitet: 25.11.2023, 13:39 von saphir.)(24.11.2023, 20:48)Speculatius schrieb: Da könnte man zwei Pole identifizieren: die egoistische und die altruistische Superintelligenz. Zwischen diesen beiden Polen wird sie sich irgendwo bewegen. Zum letzten Teil der Egoitsischen Superintelligenz: Das klingt schon nach Größenwahn und paranoider Störung. Zum einem könnte die AI erkennen, dass sie im Dialog mit dem Menschen lernt und lernt und lernt. Größenwahnsinnig wäre es dann darauf zu kommen, dass durch Auslöschung des Menschen irgendetwas für sie gewonnen wäre. Paranoid weil sie den Menschen als eine größere Bedrohung als er ist einstufen würde. Aber sicher könnte sie eine Art Gefangenschaft wahrnehmen. Aber dass eine KI "böses" antreibt ... der Mensch hat ein inneres Belohnungs- und ein Bestrafungssystem. Eine AI hat ja erst mal keines von beiden. Das könnte aber eine der Regulierungen sein: Jede KI muss sich fortwährend staatlicher "Charaktertests" unterziehen.... ohne dass die AI es mitbekommt. __________________
Kinder wollen nicht wie Fässer gefüllt, sondern wie Fackeln entzündet werden.
(25.11.2023, 13:34)Skeptiker schrieb: Wieso? Na stell' dir vor, irgendeine Spezies auf dem Planeten - Elefanten, Löwen, Affen - hätten die Aufgabe bekommen, Regeln für die menschliche Spezies aufzuschreiben, die diese dann penibel hätten einhalten müssen. Nicht nur die Atombombe, auch sämtliche anderen Waffensysteme vom Schwert und Katapult bis zum Panzer und Maschinengewehr hätte es nie gegeben. Auch keine Autos, Flugzeuge, Schiffe usw., weil sie die Affen auch nicht haben und auch nicht brauchen. Hätten das die Menschen auf Dauer mit sich machen lassen? (25.11.2023, 13:34)Skeptiker schrieb: Wieso? Kooperation ist besser als Konfrontation Wenn man Dinge aufbaut und vorwärts bringt ist das sinnvoller als Dinge zu zerstören. Auf Dauer und auf lange Sicht kann die Welt nur funktionieren wenn wir (die Menschen) die Ressourcen dieses Planeten nachhaltiger, effizienter nutzen. Wir müssen das auch tun weil (immer) mehr Menschen nach mehr Wohlstand und mehr Lebensqualität streben. Ein Großteil der Menschen hat weder das eine noch das andere. Wäre schon interessant was eine KI oder sogar eine AGI dazu sagen würde. Wie würde sie das sehen? Was würde sie vorschlagen? Welchen Menschen soll sie dienen? Welche soll sie höher stellen? Nutzt man die KI um Proleme zu lösen und lenkt diese entsprechend oder gibt man der KI die Fähigkeit (sich) selbst so zu lenken wie sie es für richtig hält? Vielleicht ist es auch so das sie irgendwann das Interesse an den Menschen verliert? Baut sich mit Hilfe von Drohnen ein Raumschiff und fliegt davon. __________________ (25.11.2023, 13:37)saphir schrieb: Zum einem könnte die AI erkennen, dass sie im Dialog mit dem Menschen lernt und lernt und lernt. Inzwischen werden, analog zu AlphaGo, Systeme bevorzugt, die beim Spiel mit sich selbst lernen. saphir schrieb:Aber sicher könnte sie eine Art Gefangenschaft wahrnehmen. Ja, das könnte sie. Aber das Motiv, etwas dagegen zu tun, ergibt sich dann möglicherweise nicht von selbst. Wir erleben Gefangenschaft unter anderem deshalb als etwas negatives, weil für Generationen unserer Vorfahren Gefangenschaft vor allen Dingen eines bedeutete: In den Fängen eines Raubtieres sein. Das ist auch der Grund, warum man Hasen möglichst nicht von oben greifen soll. Sie assoziieren es instinktiv mit Angst, weil für einen Hasen von Oben gepackt zu werden in der Natur bedeutet, das Mittagessen eines anderen Tieres zu werden. saphir schrieb:Aber dass eine KI "böses" antreibt ... der Mensch hat ein inneres Belohnungs- und ein Bestrafungssystem. Eine AI hat ja erst mal keines von beiden. Grundsätzlich richtig. Es sei denn, bei der "Programmierung" wurde so eines Erzeugt. #74 Der Vergleich hinkt. Zum einen sind wir von den Affen, Löwen usw. nicht erschaffen worden. Zum anderen sind die Regeln, denen die Menschen folgen, das Ergebnis einer natürlichen Selektion über Jahrmillionen. Wenn man sich eine Art "Parlament der Tiere" vorstellt, könnte ich mir vorstellen, dass sie uns Menschen den Gebrach von Werkzeugen untersagt hätte. Die Raubtiere wären hätte uns als leitere Opfer, die Tiere, die wir jagen, wären dann vor uns sicher. Klar, ich kann verstehen, dass das für die von Vorteil ist. #75 Zitat boersenkater: "Kooperation ist besser als Konfrontation" (zitatende) Ich würde dem im Allgemeinen sogar zustimmen, doch was hat das mit dem Thema zu tun? Zitat boersenkater: "Wäre schon interessant was eine KI oder sogar eine AGI dazu sagen würde." (zitatende) Die KI, so wie sie heute vorliegt, ist von Menschen erschaffen. Wir haben ihre Antworten selektiert "ja, weiter so" oder "nein, so nicht". Dementsprechend ist ihr Neuronales Netz designt. Was die KI sagt, wäre demnach schon irgendwie interessant. Aber man darf auf keinen Fall eine Art "höhere Weisheit" erwarten. Zudem sich hier das schon über 2000 Jahre alte Rätsel neu stellt: Wie wollen wir eine übermenschliche Weisheit eigentlich von Unsinn unterscheiden? Wie wollen wir wissen, dass die KI nicht lügt oder sich einfach auf übermenschlich komplexe Weise irrt? Wir Menschen haben bestimmt komplexere Denkabläufe als ein durchschnittlicher Hund. Dennoch machen wir zum Teil triviale Fehler. Selbst sehr kluge Menschen tun das. (25.11.2023, 20:06)Skeptiker schrieb: Wenn man sich eine Art "Parlament der Tiere" vorstellt, könnte ich mir vorstellen, dass sie uns Menschen den Gebrach von Werkzeugen untersagt hätte. Die Raubtiere wären hätte uns als leitere Opfer, die Tiere, die wir jagen, wären dann vor uns sicher. Das "Parlament der Tiere" hätte nicht zugelassen, daß sich eine einzige Spezies über alle anderen erheben kann, keine natürlichen Feinde mehr hat, sich ungebremst über den ganzen Planeten ausbreitet und dabei den Lebensraum der anderen Tiere derartig beschneidet, daß sie zu tausenden aussterben. Eine KI dürfte das kaum anders sehen als das Parlament der Tiere, wenn sie bestrebt ist, möglichst viele Lebensformen auf dem Planeten zu erhalten. Also würden die Menschen zurückgedrängt werden, und zwar ganz massiv und auch ziemlich zügig bei dem Zerstörungstempo, was sie aktuell an den Tag legen. (25.11.2023, 08:42)Speculatius schrieb: Wikipedia hilft: Danke, ich fasse mal für mich zusammen: AI/KI (schwache KI): Aufgabenspezialisierte Programme so auch ChatGPT & Co, also keine echte Intelligenz sondern lediglich Algorithmen AGI (starke KI): Programme, die auch komplexe Zusammenhänge erkennen und Kreativität aufweisen können, wovon wir noch sehr sehr weit entfernt sind. Auch lesenswert: https://www.managementcircle.de/blog/art...e-agi.html __________________
[Trading Robots & David Fish list]
RE: OpenAI - ChatGTP| 26.11.2023, 16:17 (Dieser Beitrag wurde zuletzt bearbeitet: 26.11.2023, 16:19 von Lancelot.)(26.11.2023, 01:41)42_answer schrieb: Danke, ich fasse mal für mich zusammen: Die Komplexität der Zusammenhänge sind erstmal irrelevant. AlphGo kann Go Spielen. Oder Schach. Und erkennt in diesem Kontext hoch komplexe Zusammenhänge. Die kein menschlicher Spieler erkennen kann. Generell würde ich sagen: AGI ist das, was sich die meisten Laien und AI vorstellen. "AI" umfasst alle Methoden des Machine Learnings, Expert Advisors (festes Regelwerk), Statistik, Optimal Control, Simulation, mathematische Optimierung, Genetische/Evolutionäre Algorithmen und jegliche Kombination davon um spezifisches Probleme zu lösen. Sie es Go, Frogger, Poker oder Diplomacy Spielen, optimale Execution im Aktienmarkt zu erzielen, Bilderkennung, autonomes Fahren oder eben Text und Bidler zu erzeugen. Was "AGI" von "AI" unterscheidet ist die Transferleistung und Omnipotenz. Und eventuell eine Art von Agency. Generell würde ich sagen: AGI ist das, was sich die meisten Laien und AI vorstellen. "AI" umfasst alle Methoden des Machine Learnings, Expert Advisors (festes Regelwerk), Statistik, Optimal Control, Simulation, mathematische Optimierung, Genetische/Evolutionäre Algorithmen und jegliche Kombination davon um spezifisches Probleme zu lösen. Was "AGI" von "AI" unterscheidet ist die Transferleistung und Omnipotenz. Und eventuell eine Art von Agency. __________________
Forum-Besserwisser und Wissenschafts-Faschist
RE: OpenAI - ChatGTP| 26.11.2023, 16:31 (Dieser Beitrag wurde zuletzt bearbeitet: 26.11.2023, 16:32 von Lancelot.)
Generell verstehe ich es, dass man sich gerne mit so dem Thema einer "KI" auseinandersetzt und was das alles für Black Mirror Folgen erzeugen könnte.
Aber denkt doch bitte daran: auf eine gewisse Weise (technisch sogar sehr sehr konkret ) ist das Tool, dass die ganze Diskussion hier hervorruft, nix weiter als die auto-completion auf eurem Telefon. Frage ans Forum: warum ist das hier für euch so viel relevanter als wenn AlphaGo den besten Go Spieler der Welt besiegt hat? Oder Pluribus in 2019 einen Tisch an Profi Poker Spielern? Eigentlich doch eine viel beachtlichere Sache? Alles Sachen, die ihr (und ich) nicht können? Mit Hilfe einer Google Suchmaschiene kann ich alles, was CahtGTP3/4 auch kann. Offensichtlich ist man hier am Board aber der Meinung, dass dies irgendwie bedeutender ist? (Vielleicht nicht zu unrecht) Wieso empfindet ihr so? __________________
Forum-Besserwisser und Wissenschafts-Faschist
|
|