- Компания Deloitte недавно была вынуждена вернуть правительству Австралии 291 000 долларов США после того, как было обнаружено, что она использовала ChatGPT для написания отчетов о соответствии, содержащих сфабрикованные цитаты и дела. ИИ не «ошибается» — он просто выполняет запросы. Ошибка принадлежит людям, которые перестают думать и делегируют свой интеллект машинам.
- Проблема не в технологии, а в том, как люди ее используют. Подобно концепции «банковского образования» Пауло Фрейре, где учащиеся только «вносят вопросы — снимают ответы», эксперты Deloitte подавали запросы и получали мусор, упакованный в профессиональный формат.
- Лицемерие в образовании: Отчет Anthropic за 2025 год показывает, что 48,9% профессоров автоматизируют проверку работ с помощью ИИ, хотя они ставят низкие оценки студентам, которые делают то же самое. Учителя используют ИИ для подготовки планов уроков, студенты используют его для написания эссе — но только последние считаются мошенничеством. Результат: студенты учатся скрывать использование ИИ, а не ответственно использовать ИИ.
- Когнитивный долг (cognitive debt): Исследования Массачусетского технологического института показывают, что частые пользователи LLM имеют более слабые нейронные связи, забывают написанное ими содержимое и чувствуют меньшую интеллектуальную собственность. Их мозг учится, что думать не нужно, потому что «ИИ уже все сделал». Через четыре месяца у этой группы снизилась языковая, мыслительная и поведенческая производительность.
- Последствия: студенты не могут объяснить свой выбор, реагируют оборонительно, когда их спрашивают о причинах, и теряют связь с процессом обучения. Снаружи текст отшлифован, но внутри он пуст.
- Решение с помощью диалоговых подсказок (dialogic prompting): Когда учащиеся рассматривают ИИ как «партнера по диалогу», все меняется. Они задают критические вопросы, самостоятельно проверяют их с помощью личных доказательств, спорят друг с другом, осознают свои собственные ограничения.
- Пример: вместо того, чтобы просить «Проанализируйте символику в «Великом Гэтсби»», попросите «Пусть ИИ сначала проанализирует, затем опровергните и исправьте этот анализ. Какие предположения делает ИИ? Где оно может ошибаться? Свяжите это со своим реальным опытом».
- Этот процесс занимает больше времени, но развивает навыки мышления более высокого порядка: постановку вопросов, проверку, синтез и интерпретацию.
- Роль учителей: Невозможно проповедовать этику ИИ, тайно автоматизируя проверку работ. Необходима прозрачность — показывать студентам, как учителя используют ИИ, причины отказа от вывода, как добавить человеческие элементы. Цель состоит не в том, чтобы скрывать технологию, а в том, чтобы демонстрировать критическое мышление при ее использовании.
📌 Ошибка Deloitte на 291 000 долларов была не случайностью, а тревожным звонком: когда люди перестают думать и позволяют ИИ думать за них, мы создаем поколение профессионалов «мусорных данных». Обучение критическому мышлению сегодня — это уже не «борьба с ИИ», а обучение диалогу, проверке и принятию решений с ИИ — чтобы следующее поколение по-прежнему умело думать, а не просто вводить команды.

