- Sự yêu – ghét với AI không đến từ công nghệ, mà từ cách con người cảm nhận rủi ro và kiểm soát. Chúng ta tin vào thứ mình hiểu, nhưng AI lại là “hộp đen” – nhập câu lệnh, kết quả xuất hiện mà không thấy quá trình. Sự mơ hồ đó khiến người dùng cảm thấy mất quyền chủ động.
- Hiện tượng “algorithm aversion” (dị ứng thuật toán) cho thấy con người thường chọn sai lầm của con người hơn là lỗi của máy móc. Chỉ cần thấy AI sai một lần, niềm tin sẽ sụp đổ nhanh hơn nhiều so với khi con người sai.
- Khi AI quá “lịch sự” hay “đoán đúng” sở thích, người dùng dễ thấy lạnh sống lưng vì hiện tượng “anthropomorphism” – gán cảm xúc hoặc ý định con người cho máy.
- Ngược lại, khi AI mắc lỗi hoặc thể hiện thiên vị, phản ứng tiêu cực càng mạnh do vi phạm kỳ vọng về tính khách quan. Con người tha thứ cho lỗi người, nhưng ít khoan dung với lỗi của máy.
- Trong nghề giáo, viết, luật hay thiết kế, AI khơi dậy “đe dọa bản sắc” – cảm giác rằng giá trị nghề nghiệp và bản thân bị thay thế. Sự nghi ngờ trở thành cơ chế tự vệ tâm lý.
- Thiếu tín hiệu cảm xúc như giọng, ánh mắt hay ngập ngừng khiến giao tiếp với AI trở nên “vô hồn”, gợi cảm giác “uncanny valley” – gần giống con người nhưng sai lệch khó chịu.
- Không phải ai nghi ngờ AI đều phi lý: thiên vị thuật toán trong tuyển dụng, tín dụng hay an ninh là thực tế. Những người từng bị hệ thống làm tổn thương hình thành “learned distrust” – bất tín có cơ sở bảo vệ.
- Muốn con người tin AI, cần minh bạch, có thể truy vấn, có trách nhiệm và cho người dùng cảm giác đồng hành, chứ không bị thao túng.
📌 Sự chấp nhận hay sợ hãi AI bắt nguồn từ tâm lý kiểm soát, bản sắc và trải nghiệm niềm tin. Khi AI vẫn là “hộp đen”, con người sẽ dè dặt. Chỉ khi công nghệ trở nên minh bạch, có thể hỏi – hiểu – can thiệp, AI mới được xem như đối tác đáng tin, chứ không phải mối đe dọa lạnh lùng.
Tổng hợp.

