- Nghiên cứu cho thấy người dùng có xu hướng tin tưởng AI như ChatGPT, Gemini hay Claude ngay cả khi thông tin sai
- Theo một nghiên cứu trước đó của BBC, chatbot AI đưa ra câu trả lời sai tới 45% trường hợp
- Trong thí nghiệm, hơn 50% người tham gia chọn sử dụng ChatGPT dù không bắt buộc
- Hiện tượng “cognitive surrender” (buông bỏ tư duy) xảy ra khi người dùng để AI quyết định thay mình
- Trong nhóm 359 người, họ làm theo AI đúng 92.7% thời gian
- Đáng lo ngại, họ vẫn làm theo AI sai tới 79.8% thời gian
- Người dùng không chỉ làm theo mà còn tự tin hơn vào câu trả lời do AI cung cấp
- AI đang khiến con người “outsourcing thinking” – chuyển giao việc suy nghĩ cho máy
- Điều này làm suy giảm khả năng tư duy phản biện và kiểm chứng thông tin
- Khi AI tích hợp sâu hơn vào đời sống, mức độ phụ thuộc sẽ ngày càng tăng
- Nguy cơ không chỉ đến từ AI thông minh hơn mà từ việc con người phụ thuộc hơn
- So sánh với công nghệ khác: giống như điều hòa hay xe cộ làm giảm vận động, AI có thể làm giảm tư duy
📌 Nghiên cứu cho thấy một thực tế đáng lo: gần 80% người vẫn tin và làm theo AI ngay cả khi nó sai, phản ánh hiện tượng “buông bỏ tư duy”. Với tỷ lệ sai lên tới 45%, AI vẫn chưa đáng tin tuyệt đối nhưng đang dần thay thế quá trình suy nghĩ của con người. Nếu xu hướng này tiếp diễn, con người có thể mất đi năng lực tư duy phản biện – một kỹ năng cốt lõi cho việc ra quyết định và tồn tại trong kỷ nguyên AI.
Tổng hợp

