チャットボット「ChatGPT」の欧州における月間ユーザー数が1億2000万人を超えたにもかかわらず、欧州連合(EU)はデジタルサービス法(DSA)をどのように適用するかについて、まだ合意に至っていません。公式な決定は2026年半ばになる見込みです。

ChatGPTは2025年8月からAI法(AI Act)の適用範囲内にあり、OpenAIはリスクを評価し軽減することが義務付けられています。違反した場合、最大1500万ユーロ(約1610万米ドル)の罰金が科される可能性があります。

月間ユーザー数が4500万人を超えるChatGPTは、DSAの下で超大規模オンラインプラットフォーム(VLOP/VLOSE)にも分類されます。これは、違反した場合、全世界の売上高の最大6%の罰金を科される可能性があることを意味します。

中心的な問題は指定の範囲です。EUがChatGPTを単なる検索エンジンとみなすのか、それとも包括的なAIプラットフォームとみなすのか。範囲が広ければ広いほど、OpenAIのコンプライアンス義務とリスク報告義務は大きくなります。

ChatGPTが報告すべきリスクには、選挙への影響、公衆衛生、基本的権利、そして推薦システムの設計が含まれます。

OpenAIは、週に120万人のユーザーが「自殺念慮」の文脈でChatGPTを使用していること、そして「稀なケースでは、モデルが適切に反応しない可能性がある」ことを認めました。

マティアス・フェルミューレン氏(AWO Agency)のような法務専門家は、DSAはこれまでの「自主的な」アプローチを受け入れないため、OpenAIはリスク管理プロセスを「全面的にアップグレード」する必要があると警告しています。

もし包括的なプラットフォームとして分類された場合、OpenAIは大手ソーシャルネットワークと同様の「通知・措置」(notice-and-action)メカニズムの導入を迫られる可能性があります。

DSAとAI法が重複するリスクがあります。AI法がリスクレベル(高、限定的、最小限)に基づいて分類するのに対し、DSAは「システミック」なリスク(選挙、健康、個人の権利)の評価を要求します。

ジョアン・ペドロ・キンタイス氏のような一部の研究者は、両法律間の不整合が「規制の空白」を生み出し、OpenAIのようなAI企業が「セーフハーバー」規定から利益を得ることを可能にするかもしれないと警告しています。

📌 EUは大きな課題に直面しています:生成AIの発展速度に現行法が追いついていない中、ChatGPTをどう規制するか。月間1億2000万人のユーザーと全世界売上の6%の罰金リスクを抱えるOpenAIは、欧州のAIガバナンス能力にとって最初の試金石となりますが、その答えが出るのは少なくとも2026年後半まで待たなければなりません。

Share.
© 2025 Vietmetric
Exit mobile version