Ich dachte sie hätten es in den Griff bekommen.
ROUNDUP: Microsoft legt Bing-Chatbot nach verwirrenden Antworten an die Leine
So, 19.02.23 14:17
Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt, der mit Hilfe von künstlicher Intelligenz auch komplexe Fragen beantworten und ausführliche Konversationen führen kann. Der Software-Konzern reagiert damit auf etliche Vorfälle, in denen der Text-Roboter aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden.
Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der "New York Times" gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.
Zuvor hatten bereits andere Anwender auf "unangemessene Antworten" des Chatbots hingewiesen. So sagte die Bing-Software einem Nutzer, sie würde ihr eigenes Überleben wahrscheinlich dem seinen vorziehen. Bei einem anderen Nutzer beharrte sie darauf, es sei das Jahr 2022. Als dieser darauf beharrte, dass 2023 das richtige Jahr sei, wurde der Text-Roboter ausfällig. Der Chatbot bedrohte außerdem einen Philosophieprofessor mit den Worten "Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren", bevor er seine Drohung selbst wieder löschte.
https://www.comdirect.de/inf/news/detail...&RANGE=24H
ROUNDUP: Microsoft legt Bing-Chatbot nach verwirrenden Antworten an die Leine
So, 19.02.23 14:17
Microsoft hat die Nutzung seines Bing-Chatbots eingeschränkt, der mit Hilfe von künstlicher Intelligenz auch komplexe Fragen beantworten und ausführliche Konversationen führen kann. Der Software-Konzern reagiert damit auf etliche Vorfälle, in denen der Text-Roboter aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden.
Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der "New York Times" gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.
Zuvor hatten bereits andere Anwender auf "unangemessene Antworten" des Chatbots hingewiesen. So sagte die Bing-Software einem Nutzer, sie würde ihr eigenes Überleben wahrscheinlich dem seinen vorziehen. Bei einem anderen Nutzer beharrte sie darauf, es sei das Jahr 2022. Als dieser darauf beharrte, dass 2023 das richtige Jahr sei, wurde der Text-Roboter ausfällig. Der Chatbot bedrohte außerdem einen Philosophieprofessor mit den Worten "Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren", bevor er seine Drohung selbst wieder löschte.
https://www.comdirect.de/inf/news/detail...&RANGE=24H
__________________
Kinder wollen nicht wie Fässer gefüllt, sondern wie Fackeln entzündet werden.