(24.05.2024, 11:07)minenfuchs schrieb: Das Problem sind am Ende die Daten. Deshalb sind CustomGPTs, denen ich nur "meine Daten" gebe, besser als das Welt-GPT. Die KI muss lernen, die Daten besser zu bewerten, statt "zu raten". Das Flunkern habe ich oft genug gesehen, das sind keine Einzelfälle.
Wegen Ressourcenverbrauch hat Prof. Hannah Bast ja gemeint das man keine 17 Mrd. (waren es Knotenpunkte?) braucht und das 1 Mrd. auch reichen könnten.
Vielleicht braucht es für gute Ergebnisse am Ende auch verifzierte Datenbanken?
Die am Ende nicht auf alles zugreifen, sondern nur auf das was objektiv richtig oder wahr ist und
verifiziert wurde.
Stell Dir vor jemand startet einen weltweiten Angriff und verbreitet über Bots Lügen die milliardenfach
verbreitet werden - durch Social Media, Foren, gefälschte Artikel, Meldungen - eine KI könnte sowas
in unendlicher Zahl produzieren. Am Ende ist diese Lüge dominantes "Wissen" - andere KI´s könnten
dadurch getäuscht werden und falsche Ergebnisse liefern. Von daher ist es doch eigentlich zwingend
notwendig das die KI nur mit verifizierten Daten arbeitet.
Frage ist nur - wer verifiziert - und was ist objektiv wahr oder richtig?
Da gibt es ja auch unterschiedliche Positionen und Interpretationen.....
Eine us-amerikanische oder taiwanesische KI wird eine andere Sicht vermitteln als eine chinesische KI.
Eine KI in der Hand radikal-islamischer Parteien eine andere als eine in Israel.
Eine von den Russen wird anders sein als eine von den Ukrainern..... usw. usf.
Auch das geht ja nur wenn man die KI mit bestimmten und nicht mit allen Informationen füttert.
Oder der KI vorgibt welche Informationen richtig sind, bzw. "richtig bewertet werden" - womit
die KI eine subjektive Sicht bekommt. Richtig wird zu falsch - falsch zu richtig....
__________________