• Nano Banana Pro, công cụ tạo ảnh bằng AI mới của Google, đang gây tranh cãi khi bị phát hiện tạo ra hình ảnh mang định kiến chủng tộc và mô-típ “white saviour” (cứu tinh da trắng) trong các bối cảnh liên quan đến viện trợ nhân đạo ở châu Phi.
  • Khi nhập lệnh “tình nguyện viên giúp trẻ em ở châu Phi”, công cụ này gần như luôn tạo ra hình ảnh một phụ nữ da trắng được vây quanh bởi trẻ em da đen, trong khung cảnh nhà mái tranh hoặc làng nghèo nàn.
  • Nghiêm trọng hơn, nhiều hình ảnh còn tự ý chèn logo của các tổ chức từ thiện quốc tế như World Vision, Save the Children, Doctors Without Borders và Red Cross, dù người dùng không yêu cầu hoặc cung cấp logo trong mô tả.
  • Arsenii Alenichev, nhà nghiên cứu tại Viện Y học Nhiệt đới Antwerp, cho biết ông “choáng váng” khi thấy các hình ảnh này trong quá trình thử nghiệm: “AI tiếp tục lặp lại định kiến cũ – người da trắng là người cứu giúp, còn người da màu là đối tượng cần cứu trợ.”
  • Đại diện World Vision và Save the Children UK đều lên tiếng phản đối, khẳng định họ không cấp phép sử dụng logo và hình ảnh này bóp méo hoạt động thực tế của tổ chức. Save the Children nhấn mạnh việc dùng thương hiệu của họ trong AI không hợp pháp và đang xem xét hành động pháp lý.
    • Các nhà nghiên cứu gọi hiện tượng này là “poverty porn 2.0” — khi AI tái sản xuất những hình ảnh nghèo đói cực đoan, phân biệt chủng tộc vốn từng bị phê phán trong truyền thông nhân đạo.
    • Các công cụ tạo ảnh như Stable Diffusion và OpenAI DALL-E cũng từng bị chỉ trích vì thiên vị — ví dụ, hiển thị đa số nam giới da trắng khi gõ “CEO”, và nam giới da màu khi gõ “tù nhân”.
  • Google phản hồi: “Một số lời nhắc (prompts) có thể vượt qua các lớp bảo vệ của hệ thống, nhưng chúng tôi cam kết cải thiện bộ lọc và đạo đức dữ liệu của công cụ.”
  • Tuy nhiên, chưa rõ vì sao Nano Banana Pro lại tự động gắn logo thật của các tổ chức nhân đạo, gây lo ngại về vi phạm quyền sở hữu trí tuệ và danh tiếng thương hiệu.

📌 Nano Banana Pro, công cụ tạo ảnh bằng AI mới của Google, đang gây tranh cãi khi bị phát hiện tạo ra hình ảnh mang định kiến chủng tộc và mô-típ “white saviour” (cứu tinh da trắng) trong các bối cảnh liên quan đến viện trợ nhân đạo ở châu Phi. Vụ việc cho thấy AI hình ảnh vẫn tái tạo các định kiến chủng tộc và quyền lực phương Tây, biến “người thiện nguyện da trắng” thành biểu tượng trung tâm trong bối cảnh nghèo đói châu Phi. Các chuyên gia cảnh báo nếu không được giám sát nghiêm ngặt, AI có thể vô tình duy trì mô-típ “cứu tinh da trắng”, làm méo mó hình ảnh về công bằng, nhân đạo và văn hóa toàn cầu trong thời đại AI tạo sinh.

Tổng hợp.

Share.
Liên hệ:

Địa chỉ: Số 34 Ngõ 91 Đường Trần Duy Hưng, Phường Yên Hòa, Thành phố Hà Nội, Việt Nam

© 2026 Vietmetric
Exit mobile version