Die Europäische Union (EU) ist sich noch nicht einig, wie das Gesetz über digitale Dienste (DSA) auf ChatGPT angewendet werden soll, obwohl der Chatbot in Europa die Marke von 120 Millionen monatlichen Nutzern überschritten hat. Eine offizielle Entscheidung wird erst Mitte 2026 erwartet.

ChatGPT fällt bereits seit August 2025 unter den Geltungsbereich des KI-Gesetzes (AI Act), was OpenAI dazu zwingt, Risiken zu bewerten und zu mindern, andernfalls drohen Strafen von bis zu 15 Millionen Euro (≈ 16,1 Millionen US-Dollar).

Mit einer Nutzerbasis von über 45 Millionen pro Monat gehört ChatGPT laut DSA auch zur Gruppe der sehr großen Online-Plattformen (VLOPs/VLOSEs) – das bedeutet, dass bei Verstößen Geldstrafen von bis zu 6 % des weltweiten Umsatzes verhängt werden könnten.

Das zentrale Thema ist der Umfang der Einstufung: Wird die EU ChatGPT nur als Suchmaschine oder als umfassende KI-Plattform einstufen? Je breiter der Anwendungsbereich, desto größer sind die Compliance- und Risikoberichtspflichten von OpenAI.

Zu den Risiken, über die ChatGPT berichten muss, gehören: Auswirkungen auf Wahlen, die öffentliche Gesundheit, Grundrechte und das Design von Empfehlungssystemen.

OpenAI räumte ein, dass 1,2 Millionen Nutzer pro Woche ChatGPT im Kontext von „Selbstmordgedanken“ nutzen und dass „das Modell in einigen seltenen Fällen möglicherweise nicht angemessen reagiert“.

Rechtsexperten wie Mathias Vermeulen (AWO Agency) warnen, dass OpenAI seine Risikokontrollprozesse „umfassend aufrüsten“ müsse, da der DSA den bisherigen „freiwilligen“ Ansatz nicht akzeptiere.

Bei einer umfassenden Einstufung müsste OpenAI möglicherweise einen „Notice-and-Action“-Mechanismus (Melde- und Abhilfeverfahren) implementieren, ähnlich wie große soziale Netzwerke.

Es besteht die Gefahr einer Überschneidung von DSA und AI Act: Der AI Act klassifiziert nach Risikostufen (hoch, begrenzt, minimal), während der DSA eine Bewertung „systemischer“ Risiken (Wahlen, Gesundheit, individuelle Rechte) fordert.

Einige Forscher wie João Pedro Quintais warnen, dass die mangelnde Abstimmung zwischen den beiden Gesetzen „Regulierungslücken“ schaffen könnte, die es KI-Unternehmen wie OpenAI ermöglichen, von „Safe Harbor“-Bestimmungen (Haftungsprivilegierung) zu profitieren.

📌 Die EU steht vor einer großen Herausforderung: Wie soll ChatGPT kontrolliert werden, wenn die aktuellen Gesetze nicht mit der Entwicklungsgeschwindigkeit der generativen KI Schritt halten? Mit 120 Millionen monatlichen Nutzern und einer potenziellen Geldstrafe von 6 % des weltweiten Umsatzes wird OpenAI zum ersten Testfall für die KI-Governance-Fähigkeiten Europas – aber auf eine Antwort müssen wir mindestens bis zur zweiten Hälfte des Jahres 2026 warten.


Share.
© 2025 Vietmetric
Exit mobile version