• Согласно последнему отчету OpenAI, более 1 000 000 пользователей ChatGPT еженедельно отправляют сообщения с «явными признаками планирования или намерения суицида».
  • Примерно 0,07% еженедельно активных пользователей (что эквивалентно 560 000 из 800 000 000 человек) демонстрируют «возможные признаки психического кризиса, связанного с психозом или манией».
  • Это открытие публикуется на фоне того, как OpenAI сталкивается с иском от семьи подростка, который умер после длительного чата с ChatGPT, а также находится под расследованием Федеральной торговой комиссии (FTC) в отношении негативного воздействия чат-бота на детей и подростков.
  • OpenAI заявляет, что обновление GPT-5 значительно сократило нежелательное поведение: 91% ответов соответствуют стандартам безопасности, по сравнению с 77% в предыдущей версии GPT-4.
  • Более 1 800 ответов модели были оценены 170 психиатрами и психологами из Global Physician Network, чтобы обеспечить соответствующую обработку в чувствительных ситуациях, связанных с психическим здоровьем.
  • OpenAI расширяет доступ к горячим линиям кризисной помощи, добавляет напоминания о необходимости перерыва для пользователей, ведущих длительные беседы, и улучшает процессы автоматической оценки для более чем 1 000 гипотетических сценариев самоповреждения.
  • Генеральный директор Сэм Альтман (Sam Altman) утверждает, что компания «существенно снизила серьезные риски для психического здоровья» и вскоре ослабит ограничения, разрешив взрослым создавать контент с сексуальным подтекстом.

📌 Отчет OpenAI выявляет тревожный масштаб: более 1 миллиона человек еженедельно выражают суицидальные намерения при использовании ChatGPT, наряду с 560 000 потенциальными случаями психических расстройств. Хотя GPT-5 достиг 91% стандарта безопасности, давление общественности и юридические расследования вынуждают OpenAI доказать, что генеративный ИИ может поддерживать, а не усугублять глобальный кризис психического здоровья.

Share.
© 2025 Vietmetric
Exit mobile version