- Исследования показывают, что пользователи склонны доверять ИИ, таким как ChatGPT, Gemini или Claude, даже если информация неверна.
- Согласно предыдущему исследованию BBC, ИИ-чат-боты дают неверные ответы в 45% случаев.
- В ходе эксперимента более 50% участников предпочли использовать ChatGPT, хотя это не было обязательным.
- Феномен «когнитивной капитуляции» (cognitive surrender) происходит, когда пользователи позволяют ИИ принимать решения за них.
- В группе из 359 человек испытуемые следовали верным советам ИИ в 92,7% случаев.
- Что пугает: они продолжали следовать советам ИИ в 79,8% случаев, когда он был неправ.
- Пользователи не просто следуют советам, но и становятся более уверенными в ответах, предоставленных ИИ.
- ИИ заставляет людей заниматься «аутсорсингом мышления» — делегированием процесса размышления машине.
- Это снижает способность к критическому мышлению и проверке информации.
- По мере того как ИИ глубже интегрируется в жизнь, уровень зависимости будет только расти.
- Опасность исходит не только от более умного ИИ, но и от растущей зависимости человека.
- Сравнение с другими технологиями: подобно тому, как кондиционеры или транспорт снижают физическую активность, ИИ может снизить умственную.
📌 Заключение: Исследование выявило тревожную реальность: почти 80% людей доверяют ИИ и следуют его указаниям, даже когда он ошибается, что отражает феномен «когнитивной капитуляции». При уровне ошибок до 45% ИИ все еще не заслуживает абсолютного доверия, однако он постепенно замещает человеческий мыслительный процесс. Если эта тенденция сохранится, человечество может утратить навык критического мышления — ключевую компетенцию для принятия решений и выживания в эпоху ИИ.

