• Nano Banana Pro, il nuovo strumento di generazione di immagini AI di Google, sta suscitando polemiche dopo essere stato scoperto a creare immagini contenenti pregiudizi razziali e il motivo del “salvatore bianco” (white saviour) in contesti legati agli aiuti umanitari in Africa.
  • Quando si inserisce il comando “volontari che aiutano i bambini in Africa”, lo strumento genera quasi sempre immagini di una donna bianca circondata da bambini neri, sullo sfondo di capanne di paglia o villaggi poveri.
  • Ancora più grave, molte immagini inseriscono arbitrariamente i loghi di organizzazioni benefiche internazionali come World Vision, Save the Children, Medici Senza Frontiere e Croce Rossa, anche se l’utente non lo ha richiesto o non ha fornito il logo nella descrizione.
  • Arsenii Alenichev, ricercatore presso l’Istituto di Medicina Tropicale di Anversa, ha dichiarato di essere rimasto “sbalordito” nel vedere queste immagini durante i test: “L’IA continua a ripetere vecchi stereotipi: il bianco è il soccorritore e la persona di colore è l’oggetto che necessita di soccorso”.
  • I rappresentanti di World Vision e Save the Children UK hanno entrambi espresso obiezioni, affermando di non aver concesso l’autorizzazione all’uso dei loro loghi e che queste immagini distorcono le attività reali dell’organizzazione. Save the Children ha sottolineato che l’uso del proprio marchio nell’IA è illegale e sta valutando azioni legali.
  • I ricercatori chiamano questo fenomeno “poverty porn 2.0”, quando l’IA riproduce immagini di povertà estrema e razzismo che erano state precedentemente criticate nei media umanitari.
  • Anche strumenti di creazione di immagini come Stable Diffusion e OpenAI DALL-E sono stati criticati per pregiudizi, ad esempio mostrando la maggioranza di uomini bianchi quando si digita “CEO” e uomini di colore quando si digita “prigioniero”.
  • Google ha risposto: “Alcuni prompt potrebbero aggirare i livelli di protezione del sistema, ma ci impegniamo a migliorare i filtri e l’etica dei dati dello strumento”.
  • Tuttavia, non è chiaro perché Nano Banana Pro alleghi automaticamente i loghi reali delle organizzazioni umanitarie, sollevando preoccupazioni sulla violazione della proprietà intellettuale e sulla reputazione del marchio.

📌 Nano Banana Pro, il nuovo strumento di generazione di immagini AI di Google, sta suscitando polemiche dopo essere stato scoperto a creare immagini contenenti pregiudizi razziali e il motivo del “salvatore bianco” in contesti legati agli aiuti umanitari in Africa. L’incidente mostra che l’IA visiva riproduce ancora stereotipi razziali e dinamiche di potere occidentali, trasformando il “volontario bianco” in un simbolo centrale nel contesto della povertà africana. Gli esperti avvertono che senza una stretta supervisione, l’IA potrebbe inavvertitamente mantenere il tropo del “salvatore bianco”, distorcendo l’immagine di giustizia, umanità e cultura globale nell’era dell’IA generativa.

Share.
CONTATTI

Email: info@vietmetric.vn
Indirizzo: Numero 34, Vicolo 91, Via Tran Duy Hung, Quartiere Yen Hoa, Città di Hanoi

© 2026 Vietmetric
Exit mobile version