- Исследование с участием более 1300 американцев (18–84 лет) показало, что большинство не верит, что личные сообщения могут быть созданы ИИ, даже если они сами регулярно им пользуются.
- Эксперимент разделил участников на 4 группы: источник неизвестен, известно, что написал человек, известно, что написал ИИ, или происхождение неясно.
- Узнав, что сообщение написано ИИ, читатели оценивали его более негативно, используя такие определения, как «ленивое», «неискреннее», «минимум усилий».
- Напротив, тот же самый контент, если считалось, что его написал человек, оценивался как «искренний», «внимательный» и «благодарный».
- Примечательно, что при отсутствии информации об источнике читатели по умолчанию верили, что автором является человек, и давали аналогичные положительные оценки.
- Активные пользователи ИИ справлялись с распознаванием не лучше остальных; они лишь немного снижали уровень негатива, когда знали об использовании ИИ.
- Феномен «штрафа за раскрытие ИИ» показывает, что признание в использовании ИИ снижает доверие, в то время как скрытое использование остается незамеченным.
- Это создает этический парадокс: честность ведет к низкой оценке, а сокрытие дает преимущество.
- Эта тенденция может привести к тому, что рекрутеры обесценят сопроводительные письма и перейдут к оценке через личные связи или очные встречи.
📌 Исследование показывает, что люди почти «слепы» к контенту, созданному ИИ: более 1300 участников по умолчанию верили, что тексты написаны людьми. Однако при раскрытии правды оценки резко падают, создавая парадокс между честностью и выгодой. Это может изменить то, как общество оценивает письменное общение, приведя к снижению доверия к текстам и повышению роли личного взаимодействия в работе и жизни.

