- 研究によれば、ユーザーは情報が間違っていても、ChatGPT、Gemini、ClaudeなどのAIを信頼する傾向がある。
- BBCの以前の研究によると、AIチャットボットは最大45%のケースで誤った回答を出す。
- 実験では、50%以上の参加者が義務ではないにもかかわらずChatGPTの使用を選択した。
- ユーザーがAIに自分の代わりの決定を委ねる際、「認知の降伏(cognitive surrender)」という現象が起こる。
- 359人のグループにおいて、AIが正しい場合には92.7%の確率でその指示に従った。
- 懸念すべきは、AIが間違っている場合でも79.8%の確率でその指示に従い続けたことである。
- ユーザーは単に従うだけでなく、AIが提供する回答に対してより自信を持つようになる。
- AIは人間に「思考の外注(outsourcing thinking)」をさせており、考える行為を機械に委ねている。
- これにより、批判的思考力や情報の検証能力が低下している。
- AIが生活に深く浸透するにつれ、依存度はますます高まっていく。
- リスクはAIが賢くなることだけでなく、人間がより依存することからも生じている。
- 他の技術との比較:エアコンや自動車が身体活動を減らすように、AIは思考活動を減らす可能性がある。
📌 結論: AIが間違っていても約80%の人が信じて従うという、「認知の降伏」を反映した憂慮すべき現実が研究で明らかになった。エラー率が最大45%に達するAIはまだ絶対的に信頼できるものではないが、人間の思考プロセスを徐々に置き換えつつある。この傾向が続けば、人間は意思決定やAI時代を生き抜くための核心的なスキルである批判的思考力を失う恐れがある。
