- Deloitte vừa phải hoàn trả 291.000 USD cho chính phủ Úc sau khi bị phát hiện dùng ChatGPT để viết báo cáo tuân thủ chứa trích dẫn và vụ án giả. AI không “sai” — nó chỉ thực hiện yêu cầu. Sai lầm thuộc về con người, những người ngừng tư duy và giao phó trí tuệ cho máy.
- Vấn đề không nằm ở công nghệ mà ở cách con người sử dụng nó. Giống như khái niệm “ngân hàng giáo dục” của Paulo Freire, nơi người học chỉ “gửi câu hỏi – rút câu trả lời”, các chuyên gia Deloitte đã nộp yêu cầu và rút rác được gói bằng định dạng chuyên nghiệp.
- Sự đạo đức giả trong giáo dục: Báo cáo 2025 của Anthropic cho thấy 48,9% giáo sư tự động hóa chấm điểm bằng AI, dù họ chấm điểm thấp sinh viên làm điều tương tự. Giáo viên dùng AI để soạn giáo án, sinh viên dùng để viết luận – nhưng chỉ bên thứ hai bị coi là gian lận. Kết quả: sinh viên học cách giấu việc dùng AI, chứ không học cách dùng AI có trách nhiệm.
- Nợ nhận thức (cognitive debt): Nghiên cứu MIT chỉ ra người dùng LLM thường xuyên có liên kết thần kinh yếu hơn, quên nội dung mình viết, cảm thấy ít sở hữu trí tuệ hơn. Não họ học được rằng không cần tư duy, vì “AI đã làm hộ rồi”. Sau bốn tháng, nhóm này giảm hiệu suất ngôn ngữ, tư duy và hành vi.
- Hệ quả: sinh viên không giải thích được lựa chọn của mình, phản ứng phòng thủ khi bị hỏi lý do, và mất kết nối với quá trình học tập. Bề ngoài bài viết trau chuốt, nhưng bên trong trống rỗng.
- Giải pháp đối thoại (dialogic prompting): Khi học sinh coi AI như “đối tác đối thoại”, mọi thứ thay đổi. Họ đặt câu hỏi phản biện, tự kiểm chứng bằng bằng chứng cá nhân, tranh luận với nhau, nhận ra giới hạn của chính mình.
- Ví dụ: thay vì yêu cầu “Phân tích biểu tượng trong The Great Gatsby”, hãy yêu cầu “Hãy để AI phân tích trước, sau đó phản biện và sửa sai phân tích đó. AI giả định điều gì? Ở đâu nó có thể nhầm? Liên hệ điều đó với trải nghiệm thật của bạn.”
- Quá trình này tốn thời gian hơn, nhưng rèn kỹ năng tư duy bậc cao: đặt câu hỏi, kiểm chứng, tổng hợp và diễn giải.
- Vai trò của giáo viên: Không thể giảng đạo đức AI trong khi bí mật tự động chấm bài. Cần minh bạch – cho sinh viên thấy cách giáo viên dùng AI, lý do từ chối đầu ra, cách thêm yếu tố con người. Mục tiêu không phải là giấu công nghệ, mà là biểu diễn tư duy phê phán khi sử dụng nó.
📌 Sai lầm 291.000 USD của Deloitte không phải tai nạn, mà là lời cảnh tỉnh: khi con người ngừng nghĩ và chỉ nhờ AI nghĩ thay, ta tạo ra thế hệ chuyên gia “rác dữ liệu”. Dạy tư duy phản biện hôm nay không còn là dạy “chống AI”, mà là dạy đối thoại, kiểm chứng và ra quyết định cùng AI — để thế hệ sau vẫn biết nghĩ, thay vì chỉ biết gõ lệnh.
Tổng hợp.

