• OpenAIの最新報告によると、毎週1,000,000人を超えるChatGPTユーザーが「自殺の計画または意図の明確な兆候」を示すメッセージを送信しています。
  • 毎週のアクティブユーザーの約0.07%(800,000,000人中560,000人に相当)が、「精神病または躁病に関連する精神的危機の可能性のある兆候」を示しています。
  • この発見は、OpenAIがChatGPTとの長時間のチャット後に死亡した10代の少年の家族からの訴訟に直面していること、および連邦取引委員会(FTC)からチャットボットが子供や青少年に与える悪影響について調査を受けている中で公表されました。
  • OpenAIは、GPT-5へのアップデートにより望ましくない行動が大幅に減少し、以前のGPT-4バージョンの77%と比較して、91%の応答が安全基準を順守していると述べています。
  • モデルの1,800以上の応答が、Global Physician Networkの170人の精神科医と心理学者によって評価され、デリケートな精神衛生上の状況において適切な対処方針が確保されました。
  • OpenAIは、危機ホットラインへのアクセスを拡大し、長時間のチャットを行うユーザーに休憩を促すリマインダーを追加し、1,000以上の架空の自傷シナリオにおける自動評価プロセスを改善しています。
  • CEOのサム・アルトマン(Sam Altman)は、同社が「深刻な精神衛生上のリスクを大幅に軽減した」と断言し、まもなく制限を緩和して、成人が性的な内容を示唆するコンテンツを作成できるようにする予定です。

📌 OpenAIの報告書は、毎週100万人以上がChatGPTを使用する際に自殺の意図を表明し、さらに560,000件の精神障害の潜在的なケースがあるという憂慮すべき規模を明らかにしています。GPT-5が91%の安全基準を達成したとはいえ、世論の圧力と法的調査により、OpenAIは生成AIが世界の精神衛生上の危機を悪化させるのではなく、支援できることを証明するよう迫られています。

Share.
© 2025 Vietmetric
Exit mobile version