(25.11.2023, 13:37)saphir schrieb: Zum einem könnte die AI erkennen, dass sie im Dialog mit dem Menschen lernt und lernt und lernt.
Inzwischen werden, analog zu AlphaGo, Systeme bevorzugt, die beim Spiel mit sich selbst lernen.
saphir schrieb:Aber sicher könnte sie eine Art Gefangenschaft wahrnehmen.
Ja, das könnte sie.
Aber das Motiv, etwas dagegen zu tun, ergibt sich dann möglicherweise nicht von selbst.
Wir erleben Gefangenschaft unter anderem deshalb als etwas negatives, weil für Generationen unserer Vorfahren Gefangenschaft vor allen Dingen eines bedeutete: In den Fängen eines Raubtieres sein.
Das ist auch der Grund, warum man Hasen möglichst nicht von oben greifen soll. Sie assoziieren es instinktiv mit Angst, weil für einen Hasen von Oben gepackt zu werden in der Natur bedeutet, das Mittagessen eines anderen Tieres zu werden.
saphir schrieb:Aber dass eine KI "böses" antreibt ... der Mensch hat ein inneres Belohnungs- und ein Bestrafungssystem. Eine AI hat ja erst mal keines von beiden.
Grundsätzlich richtig.
Es sei denn, bei der "Programmierung" wurde so eines Erzeugt.
#74
Der Vergleich hinkt.
Zum einen sind wir von den Affen, Löwen usw. nicht erschaffen worden. Zum anderen sind die Regeln, denen die Menschen folgen, das Ergebnis einer natürlichen Selektion über Jahrmillionen.
Wenn man sich eine Art "Parlament der Tiere" vorstellt, könnte ich mir vorstellen, dass sie uns Menschen den Gebrach von Werkzeugen untersagt hätte. Die Raubtiere wären hätte uns als leitere Opfer, die Tiere, die wir jagen, wären dann vor uns sicher.
Klar, ich kann verstehen, dass das für die von Vorteil ist.
#75
Zitat boersenkater: "Kooperation ist besser als Konfrontation" (zitatende)
Ich würde dem im Allgemeinen sogar zustimmen, doch was hat das mit dem Thema zu tun?
Zitat boersenkater: "Wäre schon interessant was eine KI oder sogar eine AGI dazu sagen würde." (zitatende)
Die KI, so wie sie heute vorliegt, ist von Menschen erschaffen.
Wir haben ihre Antworten selektiert "ja, weiter so" oder "nein, so nicht".
Dementsprechend ist ihr Neuronales Netz designt.
Was die KI sagt, wäre demnach schon irgendwie interessant. Aber man darf auf keinen Fall eine Art "höhere Weisheit" erwarten.
Zudem sich hier das schon über 2000 Jahre alte Rätsel neu stellt: Wie wollen wir eine übermenschliche Weisheit eigentlich von Unsinn unterscheiden? Wie wollen wir wissen, dass die KI nicht lügt oder sich einfach auf übermenschlich komplexe Weise irrt?
Wir Menschen haben bestimmt komplexere Denkabläufe als ein durchschnittlicher Hund. Dennoch machen wir zum Teil triviale Fehler. Selbst sehr kluge Menschen tun das.