• Nano Banana Pro, das neue KI-Bildgenerierungstool von Google, sorgt für Kontroversen, nachdem festgestellt wurde, dass es Bilder mit rassistischen Vorurteilen und dem Motiv des „weißen Retters“ (White Saviour) in Zusammenhängen mit humanitärer Hilfe in Afrika erstellt.
  • Bei der Eingabe des Befehls „Freiwillige helfen Kindern in Afrika“ generiert das Tool fast immer Bilder einer weißen Frau, die von schwarzen Kindern umgeben ist, vor dem Hintergrund von Strohhütten oder armen Dörfern.
  • Noch gravierender ist, dass viele Bilder eigenmächtig Logos internationaler Wohltätigkeitsorganisationen wie World Vision, Save the Children, Ärzte ohne Grenzen und Rotes Kreuz einfügen, obwohl der Benutzer dies nicht angefordert oder kein Logo in der Beschreibung angegeben hat.
  • Arsenii Alenichev, Forscher am Institut für Tropenmedizin in Antwerpen, sagte, er sei „fassungslos“ gewesen, als er diese Bilder während der Tests sah: „Die KI wiederholt weiterhin alte Stereotypen – der Weiße ist der Retter und die Person of Color ist das Objekt, das Hilfe benötigt.“
  • Vertreter von World Vision und Save the Children UK haben beide Einspruch erhoben und bekräftigt, dass sie keine Erlaubnis zur Verwendung ihrer Logos erteilt haben und dass diese Bilder die tatsächlichen Aktivitäten der Organisation verzerren. Save the Children betonte, dass die Verwendung ihrer Marke in KI rechtswidrig sei und rechtliche Schritte geprüft würden.
  • Forscher nennen dieses Phänomen „Armutspornos 2.0“ (Poverty Porn 2.0) – wenn KI Bilder von extremer Armut und Rassismus reproduziert, die zuvor in humanitären Medien kritisiert wurden.
  • Bildgenerierungstools wie Stable Diffusion und OpenAI DALL-E wurden ebenfalls wegen Voreingenommenheit kritisiert – zum Beispiel zeigen sie mehrheitlich weiße Männer, wenn man „CEO“ eingibt, und Männer of Color, wenn man „Gefangener“ eingibt.
  • Google antwortete: „Einige Eingabeaufforderungen (Prompts) können die Schutzschichten des Systems umgehen, aber wir verpflichten uns, die Filter und die Datenethik des Tools zu verbessern.“
  • Es ist jedoch unklar, warum Nano Banana Pro automatisch echte Logos humanitärer Organisationen anfügt, was Bedenken hinsichtlich der Verletzung von geistigem Eigentum und des Markenrufs aufwirft.

📌 Nano Banana Pro, das neue KI-Bildgenerierungstool von Google, sorgt für Kontroversen, nachdem festgestellt wurde, dass es Bilder mit rassistischen Vorurteilen und dem Motiv des „weißen Retters“ in Zusammenhängen mit humanitärer Hilfe in Afrika erstellt. Der Vorfall zeigt, dass Bild-KI immer noch rassistische Stereotypen und westliche Machtdynamiken reproduziert und den „weißen Freiwilligen“ zu einem zentralen Symbol im Kontext afrikanischer Armut macht. Experten warnen davor, dass KI ohne strenge Aufsicht das Klischee des „weißen Retters“ unbeabsichtigt aufrechterhalten und das Bild von Gerechtigkeit, Menschlichkeit und globaler Kultur im Zeitalter der generativen KI verzerren könnte.

Share.
KONTAKT

E-mail: info@vietmetric.vn
Adresse: Nr. 34, Gasse 91, Tran-Duy-Hung-Straße, Bezirk Yen Hoa, Stadt Hanoi

© 2026 Vietmetric
Exit mobile version