• Nano Banana Pro, le nouvel outil de génération d’images par IA de Google, suscite la controverse après avoir été découvert en train de créer des images contenant des préjugés raciaux et le motif du « sauveur blanc » (white saviour) dans des contextes liés à l’aide humanitaire en Afrique.
  • Lorsque la commande « bénévoles aidant des enfants en Afrique » est saisie, l’outil génère presque toujours des images d’une femme blanche entourée d’enfants noirs, dans un décor de huttes en paille ou de villages pauvres.
  • Plus grave encore, de nombreuses images insèrent arbitrairement les logos d’organisations caritatives internationales telles que World Vision, Save the Children, Médecins Sans Frontières et la Croix-Rouge, même si l’utilisateur ne l’a pas demandé ou n’a pas fourni de logo dans la description.
  • Arsenii Alenichev, chercheur à l’Institut de médecine tropicale d’Anvers, a déclaré qu’il était « stupéfait » de voir ces images lors des tests : « L’IA continue de répéter les vieux stéréotypes – le Blanc est le sauveteur, et la personne de couleur est l’objet ayant besoin d’aide. »
  • Les représentants de World Vision et de Save the Children UK ont tous deux exprimé leur opposition, affirmant qu’ils n’avaient pas autorisé l’utilisation de leurs logos et que ces images déforment les activités réelles de l’organisation. Save the Children a souligné que l’utilisation de leur marque dans l’IA est illégale et envisage une action en justice.
  • Les chercheurs appellent ce phénomène « poverty porn 2.0 » (pornographie de la pauvreté 2.0) — lorsque l’IA reproduit des images d’extrême pauvreté et de racisme qui étaient auparavant critiquées dans les médias humanitaires.
  • Les outils de création d’images comme Stable Diffusion et OpenAI DALL-E ont également été critiqués pour leur partialité — par exemple, en affichant une majorité d’hommes blancs lorsque l’on tape « PDG », et d’hommes de couleur lorsque l’on tape « prisonnier ».
  • Google a répondu : « Certaines invites (prompts) peuvent contourner les couches de protection du système, mais nous nous engageons à améliorer les filtres et l’éthique des données de l’outil. »
  • Cependant, on ne sait pas pourquoi Nano Banana Pro joint automatiquement de vrais logos d’organisations humanitaires, ce qui soulève des inquiétudes quant à la violation de la propriété intellectuelle et à la réputation de la marque.

📌 Nano Banana Pro, le nouvel outil de génération d’images par IA de Google, suscite la controverse après avoir été découvert en train de créer des images contenant des préjugés raciaux et le motif du « sauveur blanc » dans des contextes liés à l’aide humanitaire en Afrique. L’incident montre que l’IA visuelle reproduit encore les stéréotypes raciaux et les dynamiques de pouvoir occidentales, transformant le « bénévole blanc » en un symbole central dans le contexte de la pauvreté africaine. Les experts avertissent que sans une surveillance stricte, l’IA pourrait maintenir par inadvertance le trope du « sauveur blanc », déformant l’image de la justice, de l’humanité et de la culture mondiale à l’ère de l’IA générative.

Share.
Contact

E-mail: info@vietmetric.vn
Adresse : N° 34, Allée 91, Rue Tran Duy Hung, Quartier Yen Hoa, Ville de Hanoï

© 2026 Vietmetric
Exit mobile version