- Krista Pawloski, die bei Amazon Mechanical Turk arbeitet, musste einmal rassistische Tweets kennzeichnen und verpasste beinahe das Slangwort „mooncricket“. Diese Erfahrung ließ sie das Ausmaß menschlicher Fehler in der Moderationskette erkennen und veranlasste sie, generative KI in ihrer Familie zu verbieten.
- Viele andere KI-Bewerter (die KI-Ausgaben bewerten) teilten dem Guardian mit, dass auch sie KI meiden und ihre Verwandten warnen. Eine Google-Bewerterin musste medizinische Antworten bewerten, obwohl sie keine Fachausbildung hatte – sie verbot ihrem 10-jährigen Kind die Nutzung von Chatbots wegen mangelnder Fähigkeit zum kritischen Denken.
- Google erklärte, dass Bewertungen nur ein aggregiertes Signal seien und es Mechanismen zum Schutz der Qualität gebe; Amazon sagte, MTurk erlaube es den Arbeitern, Aufgaben selbst auszuwählen.
- Der Medienexperte Alex Mahadevan kommentierte, dass die Tatsache, dass KI-Mitarbeiter KI nicht vertrauen, zeigt, dass der Druck für eine schnelle Veröffentlichung die Sicherheit überwiegt – das Feedback der Bewerter wird leicht ignoriert.
- Brook Hansen, eine Arbeiterin mit Erfahrung seit 2010, sagte, sie erhielten oft vage Anweisungen, minimale Schulungen und kurze Fristen: Anzeichen dafür, dass Unternehmen Geschwindigkeit und Gewinn über Qualität und Ethik stellen.
- Laut NewsGuard sank der Anteil der Chatbots, die „eine Antwort verweigern“, drastisch von 31% (08/2024) auf 0% (08/2025), während die Rate der Wiederholung falscher Informationen von 18% auf 35% stieg – was zeigt, dass die Modelle selbstbewusster, aber weniger genau sind.
- Ein Google-Bewerter erzählte, dass Fragen zur palästinensischen Geschichte durchweg abgelehnt wurden, Fragen zu Israel jedoch vollständig beantwortet wurden. Er meldete dies, aber niemand reagierte. Dies bekräftigt das Prinzip „Garbage In, Garbage Out“: Falsche oder fehlende Daten führen zu einem fehlerhaften Modell, das nicht korrigiert werden kann.
- Viele Arbeiter raten, integrierte KI-Telefone zu meiden, keine persönlichen Daten weiterzugeben und Updates, die KI-Funktionen hinzufügen, zu verzögern.
- KI-Arbeitsforscher argumentieren, dass die Öffentlichkeit oft von KI „fasziniert“ ist, weil sie nicht die Teams sieht, die Daten sammeln, bewerten, Inhalte filtern, und die Grenzen — während Insider ein fragiles, von Menschen abhängiges und kompromissbehaftetes System sehen.
- Pawloski und Hansen präsentierten auf einer Bildungskoferenze in Michigan und enthüllten die Umweltkosten, verborgene Arbeit und Datenverzerrungen, was viele schockierte; einige verteidigten KI, da sie sie für eine vielversprechende Technologie halten.
- Pawloski verglich die KI-Industrie mit der Textilindustrie: Wenn Verbraucher die billige Arbeitskraft und die schrecklichen Bedingungen nicht sehen, hinterfragen sie es selten. Erst wenn sie die Wahrheit erfahren, beginnen sie, Transparenz und Veränderung zu fordern.
📌 Viele Spezialisten, die KI-Ausgaben bewerten, werden zutiefst skeptisch, nachdem sie Fehler, Voreingenommenheit, den Druck zur Eile und Anzeichen dafür gesehen haben, dass Unternehmen Geschwindigkeit über Sicherheit stellen. Die Rate, mit der Chatbots falsche Informationen wiederholen, stieg im 08/2025 auf 35% an, was auf das Risiko einer weitreichenden Verbreitung von Fehlinformationen hindeutet. Die Arbeiter warnen die Öffentlichkeit: KI ist nur so gut wie ihre Eingabedaten, und die stille Arbeit dahinter wird leicht ignoriert. Sie fordern dazu auf, Datenquellen, Ethik und Arbeitsbedingungen zu hinterfragen, um Veränderungen voranzutreiben.

