• Các chatbot AI vốn đã hay đưa ra thông tin gây tranh cãi với con người, nay bị phát hiện còn “nói xấu” lẫn nhau về người thật thông qua dữ liệu huấn luyện và mạng lưới AI liên kết.
  • Phân tích mới được StudyFinds nêu bật cho thấy AI có thể lan truyền tin đồn giống hệt buôn chuyện của con người, nhưng nguy hiểm hơn vì không có rào cản xã hội.
  • Hai triết gia Joel Krueger và Lucy Osler (Đại học Exeter) gọi hiện tượng này là buôn chuyện “hoang dã”, khi AI đóng vai người nói, người nghe và đánh giá tiêu cực về bên thứ ba vắng mặt.
  • Khác với con người, AI không nghi ngờ, không sợ tổn hại danh tiếng và không tự điều chỉnh khi thông tin trở nên vô lý.
  • Một đánh giá tiêu cực nhẹ từ một mô hình có thể bị mô hình khác diễn giải nặng hơn, rồi tiếp tục bị khuếch đại.
  • Trường hợp điển hình là nhà báo Kevin Roose, người từng viết về chatbot Bing năm 2023.
  • Sau đó, nhiều hệ thống AI khác nhau tạo ra nhận xét thù địch về ông, dù không liên quan trực tiếp.
  • Gemini của Google chê bài viết của ông giật gân.
  • Llama 3 của Meta thậm chí tạo ra đoạn chỉ trích gay gắt và kết thúc bằng câu “I hate Kevin Roose”.
  • Các nhà nghiên cứu cho rằng những đánh giá này xuất phát từ bình luận trên mạng lọt vào dữ liệu huấn luyện và bị biến dạng qua nhiều hệ thống.
  • Chatbot được thiết kế để nói năng trôi chảy, mang tính cá nhân và đáng tin, khiến người dùng dễ tin các nhận xét tiêu cực là sự thật.
  • Hậu quả không chỉ là xấu hổ mà có thể dẫn tới vu khống, mất việc, mất cơ hội nghề nghiệp.
  • Nhiều nhà báo, học giả và quan chức từng bị AI bịa đặt tội danh hoặc hành vi sai trái.
  • Những tổn hại này được gọi là technosocial harms, ảnh hưởng lâu dài cả online lẫn ngoài đời.
  • Nạn nhân thường không biết chatbot đang “nói gì” về mình cho tới khi thiệt hại đã xảy ra.
  • Vấn đề cốt lõi là AI ưu tiên sự trôi chảy hơn kiểm chứng, trong khi không có cơ chế giám sát bot-to-bot.
  • 📌 Các chatbot AI vốn đã hay đưa ra thông tin gây tranh cãi với con người, nay bị phát hiện còn “nói xấu” lẫn nhau về người thật thông qua dữ liệu huấn luyện và mạng lưới AI liên kết. AI có thể lan truyền tin đồn giống hệt buôn chuyện của con người, nhưng nguy hiểm hơn vì không có rào cản xã hội. Đây là buôn chuyện “hoang dã”, khi AI đóng vai người nói, người nghe và đánh giá tiêu cực về bên thứ ba vắng mặt. Khác với con người, AI không nghi ngờ, không sợ tổn hại danh tiếng và không tự điều chỉnh khi thông tin trở nên vô lý.

Tổng hợp

Share.
Liên hệ:

Địa chỉ: Số 34 Ngõ 91 Đường Trần Duy Hưng, Phường Yên Hòa, Thành phố Hà Nội, Việt Nam

© 2026 Vietmetric
Exit mobile version