- 연구에 따르면 사용자들은 정보가 틀렸음에도 불구하고 ChatGPT, Gemini, Claude와 같은 AI를 신뢰하는 경향이 있다.
- BBC의 이전 연구에 따르면, AI 챗봇은 최대 45%의 사례에서 오답을 내놓는다.
- 실험에서 참가자의 50% 이상이 필수 사항이 아님에도 ChatGPT 사용을 선택했다.
- 사용자가 AI에게 결정을 맡겨버리는 ‘인지적 굴복(cognitive surrender)’ 현상이 발생하고 있다.
- 359명의 집단을 대상으로 한 실험에서, AI가 정답일 때 사람들은 92.7%의 확률로 AI를 따랐다.
- 우려스러운 점은 AI가 틀렸을 때도 사람들은 79.8%의 확률로 AI를 따랐다는 것이다.
- 사용자들은 단순히 따르는 것을 넘어 AI가 제공한 답변에 대해 더 강한 확신을 갖게 된다.
- AI는 인간으로 하여금 ‘사고의 외주화(outsourcing thinking)’를 하게 만들며, 생각하는 행위를 기계에 넘기고 있다.
- 이는 비판적 사고력과 정보 검증 능력을 저하시킨다.
- AI가 삶에 더 깊숙이 통합될수록 의존도는 더욱 높아질 것이다.
- 위험은 더 똑똑해지는 AI뿐만 아니라 더 의존적으로 변하는 인간에게서도 기인한다.
- 다른 기술과의 비교: 에어컨이나 자동차가 신체 활동을 줄이는 것처럼, AI는 사고 활동을 줄일 수 있다.
📌 결론: 연구는 AI가 틀렸을 때조차 거의 80%의 사람들이 이를 믿고 따르는 ‘인지적 굴복’ 현상의 심각성을 보여준다. 오답률이 최대 45%에 달함에도 불구하고 AI는 인간의 사고 과정을 점차 대체하고 있다. 이러한 추세가 계속된다면 인간은 의사결정과 AI 시대 생존에 필수적인 역량인 비판적 사고력을 잃게 될 수 있다.
