- Laut dem neuesten Bericht von OpenAI senden über 1.000.000 ChatGPT-Nutzer pro Woche Nachrichten mit „klaren Anzeichen für Suizidplanung oder -absicht“.
- Etwa 0,07 % der wöchentlich aktiven Nutzer (entspricht 560.000 von 800.000.000 Menschen) zeigen „mögliche Anzeichen einer psychischen Krise im Zusammenhang mit Psychose oder Manie“.
- Diese Feststellung wird veröffentlicht, während OpenAI mit einer Klage der Familie eines Teenagers konfrontiert ist, der nach einem langen Chat mit ChatGPT starb, und gleichzeitig von der Federal Trade Commission (FTC) wegen der negativen Auswirkungen des Chatbots auf Kinder und Jugendliche untersucht wird.
- OpenAI gibt an, dass das GPT-5-Update unerwünschte Verhaltensweisen deutlich reduziert hat, wobei 91 % der Antworten den Sicherheitsstandards entsprechen, verglichen mit 77 % in der vorherigen GPT-4-Version.
- Über 1.800 Modellantworten wurden von 170 Psychiatern und Psychologen des Global Physician Network bewertet, um einen angemessenen Umgang in sensiblen Situationen der psychischen Gesundheit zu gewährleisten.
- OpenAI erweitert den Zugang zu Krisen-Hotlines, fügt Erinnerungen für längere Chat-Nutzer hinzu, Pausen einzulegen, und verbessert die automatischen Bewertungsprozesse für über 1.000 hypothetische Szenarien der Selbstverletzung.
- CEO Sam Altman bekräftigt, dass das Unternehmen „schwerwiegende psychische Gesundheitsrisiken reduziert hat“ und bald Beschränkungen lockern wird, um Erwachsenen das Erstellen von anzüglichen Inhalten zu ermöglichen.
📌 Der Bericht von OpenAI legt ein alarmierendes Ausmaß offen: Über 1 Million Menschen pro Woche äußern Suizidabsichten bei der Nutzung von ChatGPT, zusammen mit 560.000 potenziellen Fällen psychischer Störungen. Obwohl GPT-5 einen Sicherheitsstandard von 91 % erreicht hat, zwingen öffentlicher Druck und rechtliche Untersuchungen OpenAI dazu, zu beweisen, dass generative KI die globale psychische Gesundheitskrise unterstützen und nicht verschlimmern kann.

