#52
Ich erkenne in vielen Ängsten im Zusammenhang mit KI einfach den Nachklang von vielen Science-Fiction-Filmen.
Eine Superintelligenz? Bisher ist das nur im Bereich Spekulation.
Außerdem denke ich nicht, dass eine Superintelligenz die Intention hätte, uns zu töten.
#55
Das ist zurzeit auch superspannend, was da passiert.
#56
Zitat Lancelot: "Andere Leute wie Yann LeCun sehen das anders (und ich auch). Sie denken dass AGI wie ein biologisches System ein physisches "World Model" haben muss und irgendwie eine Hirarchie haben muss. Bisher ist Ilya schon deutlich weiter, als ich jemals dachte das es möglich gewesen wäre." (zitatende)
Das ist tatsächlich sehr überraschend, aber anscheinend ist diese Ansicht unter KI-Forschern nicht völlig unbekannt. Angeblich soll u. a. Terry Winograd zu dieser Auffassung gekommen sein.
Ich erkenne in vielen Ängsten im Zusammenhang mit KI einfach den Nachklang von vielen Science-Fiction-Filmen.
Eine Superintelligenz? Bisher ist das nur im Bereich Spekulation.
Außerdem denke ich nicht, dass eine Superintelligenz die Intention hätte, uns zu töten.
#55
Das ist zurzeit auch superspannend, was da passiert.
#56
Zitat Lancelot: "Andere Leute wie Yann LeCun sehen das anders (und ich auch). Sie denken dass AGI wie ein biologisches System ein physisches "World Model" haben muss und irgendwie eine Hirarchie haben muss. Bisher ist Ilya schon deutlich weiter, als ich jemals dachte das es möglich gewesen wäre." (zitatende)
Das ist tatsächlich sehr überraschend, aber anscheinend ist diese Ansicht unter KI-Forschern nicht völlig unbekannt. Angeblich soll u. a. Terry Winograd zu dieser Auffassung gekommen sein.