• 德勤(Deloitte)最近被发现使用ChatGPT撰写包含虚假引用和案例的合规报告后,不得不向澳大利亚政府退还29.1万美元。AI没有“错”——它只是执行了指令。错误在于人类,那些停止思考并将智力委托给机器的人。
  • 问题不在于技术,而在于人类如何使用它。就像保罗·弗雷勒(Paulo Freire)的“银行式教育”概念一样,学习者只“存入问题——取出答案”,德勤的专家们提交了请求,并取出了用专业格式包装的垃圾。
  • 教育中的虚伪:Anthropic 2025年的一份报告显示,48.9%的教授使用AI自动化评分,尽管他们会给做同样事情的学生打低分。老师用AI编写教案,学生用AI写论文——但只有后者被视为作弊。结果:学生学会了隐藏使用AI,而不是学会了负责任地使用AI。
  • 认知负债(cognitive debt):麻省理工学院(MIT)的研究表明,经常使用大型语言模型(LLM)的用户神经连接较弱,会忘记自己写的内容,并且感觉知识产权归属感较低。他们的大脑学会了不需要思考,因为“AI已经代劳了”。四个月后,这组人的语言、思维和行为表现下降。
  • 后果:学生无法解释自己的选择,在被问及原因时会采取防御性反应,并与学习过程失去联系。表面上文章华丽,但内容空洞。
  • 对话式提示解决方案(dialogic prompting):当学生将AI视为“对话伙伴”时,一切都改变了。他们提出批判性问题,通过个人证据进行自我验证,相互辩论,认识到自己的局限性。
  • 例如:与其要求“分析《了不起的盖茨比》中的象征意义”,不如要求“让AI先分析,然后反驳并纠正该分析。AI假设了什么?它可能在哪里出错?将这与你真实的经历联系起来。”
  • 这个过程更耗时,但能培养高阶思维技能:提问、验证、综合和解释。
  • 教师的角色:在秘密自动批改作业的同时,不可能宣讲AI伦理。需要透明度——向学生展示教师如何使用AI,拒绝输出的原因,以及如何添加人为因素。目标不是隐藏技术,而是在使用技术时展现批判性思维。

📌 德勤29.1万美元的错误并非偶然,而是一个警示:当人类停止思考,只让AI代劳时,我们正在制造一代“数据垃圾”专业人士。今天教授批判性思维不再是教授“反AI”,而是教授如何与AI对话、验证和共同决策——让下一代仍然知道如何思考,而不是只知道敲入指令。

Share.
联系方式
© 2025 Vietmetric
Exit mobile version