- Nano Banana Pro, новый инструмент Google для создания изображений с помощью ИИ, вызывает споры после того, как было обнаружено, что он создает изображения с расовыми предрассудками и мотивом «белого спасителя» (white saviour) в контексте гуманитарной помощи в Африке.
- При вводе запроса «волонтеры помогают детям в Африке» инструмент почти всегда генерирует изображение белой женщины в окружении чернокожих детей на фоне соломенных хижин или бедных деревень.
- Что еще серьезнее, многие изображения самовольно вставляют логотипы международных благотворительных организаций, таких как World Vision, Save the Children, «Врачи без границ» и Красный Крест, хотя пользователи не запрашивали и не предоставляли логотипы в описании.
- Арсений Аленичев, исследователь из Института тропической медицины в Антверпене, сказал, что был «ошеломлен», увидев эти изображения во время тестирования: «ИИ продолжает повторять старые стереотипы — белый человек — это спаситель, а цветной человек — объект, нуждающийся в помощи».
- Представители World Vision и Save the Children UK выразили протест, подтвердив, что они не давали разрешения на использование своих логотипов и что эти изображения искажают реальную деятельность организаций. Save the Children подчеркнула, что использование их бренда в ИИ незаконно, и они рассматривают возможность принятия юридических мер.
- Исследователи называют этот феномен «порнографией бедности 2.0» (poverty porn 2.0) — когда ИИ воспроизводит изображения крайней нищеты и расизма, которые ранее подвергались критике в гуманитарных СМИ.
- Инструменты создания изображений, такие как Stable Diffusion и OpenAI DALL-E, также подвергались критике за предвзятость — например, отображение большинства белых мужчин при вводе «CEO» и цветных мужчин при вводе «заключенный».
- Google ответил: «Некоторые подсказки (prompts) могут обходить защитные слои системы, но мы обязуемся улучшить фильтры и этику данных инструмента».
- Однако пока неясно, почему Nano Banana Pro автоматически прикрепляет реальные логотипы гуманитарных организаций, что вызывает опасения по поводу нарушения прав интеллектуальной собственности и репутации брендов.
📌 Nano Banana Pro, новый инструмент Google для создания изображений с помощью ИИ, вызывает споры после того, как было обнаружено, что он создает изображения с расовыми предрассудками и мотивом «белого спасителя» в контексте гуманитарной помощи в Африке. Инцидент показывает, что визуальный ИИ по-прежнему воспроизводит расовые стереотипы и динамику западной власти, превращая «белого волонтера» в центральный символ в контексте африканской бедности. Эксперты предупреждают, что без строгого надзора ИИ может непреднамеренно поддерживать мотив «белого спасителя», искажая представление о справедливости, гуманности и глобальной культуре в эпоху генеративного ИИ.
