- デロイトは最近、ChatGPTを使用して虚偽の引用や事例を含むコンプライアンスレポートを作成したことが発覚し、オーストラリア政府に29万1000ドルを返還しなければなりませんでした。AIは「間違っている」わけではありません—単に要求を実行するだけです。間違いは人間、つまり思考を停止し、知性を機械に委ねた人間にあります。
- 問題はテクノロジーにあるのではなく、人間がそれを使用する方法にあります。パウロ・フレイレの「銀行型教育」の概念と同様に、学習者がただ「質問を預けて—答えを引き出す」ように、デロイトの専門家は要求を提出し、専門的な形式で包まれたゴミを引き出したのです。
- 教育における偽善:Anthropicの2025年のレポートによると、48.9%の教授がAIを使って採点を自動化していますが、同じことをする学生には低い点数をつけています。教師はAIを授業計画作成に使い、学生は論文執筆に使いますが、後者だけが不正行為とみなされます。結果として、学生はAIの使用を隠すことを学び、AIを責任を持って使う方法を学びません。
- 認知的負債(cognitive debt):MITの研究によると、LLMの頻繁な利用者は神経結合が弱く、書いた内容を忘れ、知的財産権の所有意識が低いと感じています。彼らの脳は、「AIがすでにやってくれたから」考える必要がないと学習します。4ヶ月後、このグループは言語、思考、行動のパフォーマンスが低下しました。
- 結果:学生は自分の選択を説明できず、理由を尋ねられると防御的な反応を示し、学習プロセスとのつながりを失います。文章は表面上洗練されていますが、内側は空虚です。
- 対話型プロンプト(dialogic prompting)解決策:学生がAIを「対話パートナー」と見なすとき、すべてが変わります。彼らは批判的な質問をし、個人的な証拠で自己検証し、互いに議論し、自分の限界を認識します。
- 例:「グレート・ギャツビーの象徴性を分析せよ」と要求する代わりに、「AIにまず分析させ、その後その分析を批判し修正せよ。AIは何を仮定しているか?どこで間違っている可能性があるか?それをあなたの実体験と関連付けなさい。」と要求します。
- このプロセスは時間がかかりますが、質問、検証、統合、解釈といった高次思考スキルを鍛えます。
- 教師の役割:密かに自動採点をしながらAI倫理を説くことはできません。透明性が必要です—教師がAIをどのように使用しているか、出力が拒否される理由、人間的要素を追加する方法を学生に示すべきです。目標は技術を隠すことではなく、それを使用する際に批判的思考を示すことです。
📌 デロイトの29万1000ドルの過ちは偶発的なものではなく、警告です。人間が思考を停止し、AIに代わりに考えさせるだけでは、私たちは「データゴミ」専門家世代を生み出すことになります。今日、批判的思考を教えることは、「AIに対抗する」ことではなく、AIとの対話、検証、意思決定を教えることです。そうすることで、次世代は単にコマンドを入力するだけでなく、思考する方法を知り続けるでしょう。

