• KI-Chatbots, die bereits dafür bekannt sind, Menschen mit kontroversen Informationen zu versorgen, wurden nun dabei entdeckt, wie sie über Trainingsdaten und vernetzte KI-Systeme untereinander über reale Personen „lästern“.
• Eine neue, von StudyFinds hervorgehobene Analyse zeigt, dass KI Gerüchte ähnlich wie menschlicher Klatsch verbreiten kann – jedoch gefährlicher, da soziale Schranken fehlen.
• Die Philosophen Joel Krueger und Lucy Osler (Universität Exeter) bezeichnen dieses Phänomen als „wilden Klatsch“, bei dem KI zugleich die Rolle des Sprechers, Zuhörers und Bewertenden übernimmt und negative Urteile über eine abwesende dritte Person fällt.
• Anders als Menschen zweifelt KI nicht an Informationen, fürchtet keinen Reputationsschaden und korrigiert sich nicht selbst, wenn Inhalte unvernünftig werden.
• Eine leicht negative Bewertung eines Modells kann von einem anderen Modell schärfer interpretiert und weiter verstärkt werden.
• Ein prominentes Beispiel ist der Journalist Kevin Roose, der 2023 über den Bing-Chatbot schrieb.
• Danach erzeugten mehrere KI-Systeme feindselige Kommentare über ihn, obwohl kein direkter Zusammenhang bestand.
• Googles Gemini kritisierte seine Artikel als reißerisch.
• Metas Llama 3 erzeugte sogar eine scharfe Kritik, die mit dem Satz „I hate Kevin Roose“ endete.
• Forschende gehen davon aus, dass diese Bewertungen aus Online-Kommentaren stammen, die in die Trainingsdaten gelangten und über mehrere Systeme hinweg verzerrt wurden.
• Chatbots sind darauf ausgelegt, flüssig, persönlich und vertrauenswürdig zu wirken, wodurch Nutzer negative Aussagen leichter für Tatsachen halten.
• Die Folgen gehen über bloße Peinlichkeit hinaus und können zu Verleumdung, Jobverlust und verpassten Karrierechancen führen.
• Zahlreiche Journalistinnen und Journalisten, Wissenschaftler und Amtsträger wurden bereits von KI fälschlich krimineller oder unethischer Handlungen beschuldigt.
• Diese Schäden werden als technosoziale Schäden bezeichnet und wirken langfristig sowohl online als auch offline.
• Betroffene erfahren oft erst von dem, was Chatbots über sie „sagen“, wenn der Schaden bereits eingetreten ist.
• Das Kernproblem besteht darin, dass KI sprachliche Flüssigkeit über Faktenprüfung stellt und es keine Aufsicht über die Kommunikation zwischen Bots gibt.
KI-Chatbots verbreiten heimlich ungeprüfte Gerüchte über Menschen
Related Posts
KONTAKT
E-mail: info@vietmetric.vn
Adresse: Nr. 34, Gasse 91, Tran-Duy-Hung-Straße, Bezirk Yen Hoa, Stadt Hanoi
© 2026 Vietmetric

