• Криста Павлоски, работающая на Amazon Mechanical Turk, однажды должна была маркировать расистские твиты и едва не пропустила сленговое выражение «mooncricket». Этот опыт заставил ее осознать степень человеческой ошибки в цепочке модерации, что привело ее к запрету генеративного ИИ в своей семье.
  • Многие другие оценщики ИИ (AI rater, оценивающие выходные данные ИИ) сообщили Guardian, что они также избегают использования ИИ и предупреждают своих родственников. Оценщик Google однажды должен был оценивать медицинские ответы, не имея специальной подготовки — она запретила своему 10-летнему ребенку использовать чат-бота из-за отсутствия навыков критического мышления.
  • Google заявил, что оценка является лишь одним агрегированным сигналом и существуют механизмы для защиты качества; Amazon сказал, что MTurk позволяет работникам самостоятельно выбирать задания.
  • Медиа-эксперт Алекс Махадеван прокомментировал, что тот факт, что работники ИИ не доверяют ИИ, показывает, что давление быстрой разработки преобладает над безопасностью — обратная связь оценщиков легко игнорируется.
  • Брук Хансен, работник с опытом с 2010 года, сказала, что они часто получают расплывчатые инструкции, минимальное обучение и сжатые сроки: признаки того, что бизнес отдает приоритет скорости и прибыли над качеством и этикой.
  • По данным NewsGuard, доля чат-ботов, «отказывающихся отвечать», резко упала с 31% (08/2024) до 0% (08/2025), в то время как доля повторения ложной информации выросла с 18% до 35% — это показывает, что модели более уверены, но менее точны.
  • Оценщик Google рассказал, что вопросы об истории Палестины постоянно отклонялись, но вопросы об Израиле получали полный ответ. Он сообщил об этом, но никто не принял меры. Это укрепляет принцип «мусор на входе, мусор на выходе» (garbage in, garbage out): неверные или недостающие данные приводят к ошибочной модели, которую невозможно исправить.
  • Многие работники советуют избегать телефонов со встроенным ИИ, не делиться личными данными и откладывать обновления, которые добавляют функции ИИ.
  • Исследователи труда в сфере ИИ утверждают, что общественность часто «очарована» ИИ, потому что не видит команды, собирающей данные, оценивающей, фильтрующей контент, и ограничений — в то время как инсайдеры видят хрупкую систему, зависящую от человека и полную компромиссов.
  • Павлоски и Хансен выступили на образовательной конференции в Мичигане, где раскрыли экологические издержки, скрытый труд и предвзятость данных, что шокировало многих; некоторые защищали ИИ, считая его многообещающей технологией.
  • Павлоски сравнила индустрию ИИ с текстильной промышленностью: когда потребители не видят дешевого труда и ужасных условий, они редко задают вопросы. Только когда они узнают правду, они начинают требовать прозрачности и перемен.

📌 Многие специалисты по оценке выходных данных ИИ становятся глубоко скептичными, увидев ошибки, предвзятость, спешку и признаки того, что бизнес отдает приоритет скорости над безопасностью. Доля чат-ботов, повторяющих ложную информацию, увеличилась до 35% в 08/2025, что указывает на риск широкомасштабного распространения дезинформации. Работники предупреждают общественность: ИИ так же хорош, как и его входные данные, а скрытый труд за ним легко игнорируется. Они призывают задавать вопросы об источниках данных, этике и условиях труда, чтобы стимулировать изменения.

Share.
© 2025 Vietmetric
Exit mobile version