유럽연합(EU)은 챗봇 ChatGPT의 유럽 내 월간 사용자가 1억 2천만 명을 넘어섰음에도 불구하고, 디지털 서비스법(DSA)을 이 서비스에 어떻게 적용할지에 대해 아직 합의에 이르지 못했습니다. 공식적인 결정은 2026년 중반에나 가능할 것으로 예상됩니다.
ChatGPT는 2025년 8월부터 이미 AI법(AI Act)의 적용 범위에 포함되어, OpenAI는 위험을 평가하고 완화해야 할 의무를 지게 되었으며, 이를 어길 시 최대 1,500만 유로(약 1,610만 달러)의 벌금에 처해질 수 있습니다.
월간 사용자가 4,500만 명을 초과함에 따라, ChatGPT는 DSA에 따른 초대형 온라인 플랫폼(VLOP/VLOSE) 그룹에도 속하게 되었습니다. 이는 위반 시 전 세계 매출의 최대 6%에 달하는 벌금을 부과받을 수 있음을 의미합니다.
핵심 쟁점은 지정 범위입니다. EU가 ChatGPT를 단순한 검색 엔진으로 볼 것인지, 아니면 포괄적인 AI 플랫폼으로 볼 것인지입니다. 범위가 넓어질수록 OpenAI의 규정 준수 및 위험 보고 의무는 더욱 커집니다.
ChatGPT가 보고해야 하는 위험에는 선거에 미치는 영향, 공중 보건, 기본권, 그리고 추천 시스템 설계 등이 포함됩니다.
OpenAI는 매주 120만 명의 사용자가 “자살 의도”가 있는 맥락에서 ChatGPT를 사용하며, “일부 드문 경우 모델이 적절하게 반응하지 않을 수 있다”고 인정했습니다.
마티아스 베르뮐렌(AWO Agency)과 같은 법률 전문가들은 DSA가 이전과 같은 “자발적인” 방식을 용납하지 않기 때문에 OpenAI가 위험 통제 프로세스를 “전면적으로 업그레이드”해야 할 것이라고 경고합니다.
만약 포괄적인 플랫폼으로 분류될 경우, OpenAI는 주요 소셜 네트워크와 유사한 “인지 및 조치”(notice-and-action) 메커니즘을 도입해야 할 수도 있습니다.
DSA와 AI법은 중복될 위험이 있습니다. AI법은 위험 수준(고위험, 제한적, 최소)에 따라 분류하는 반면, DSA는 “시스템적” 위험(선거, 건강, 개인 권리) 평가를 요구합니다.
주앙 페드루 킨타이스와 같은 일부 연구자들은 두 법률 간의 불일치가 “규제 공백”을 만들어 OpenAI와 같은 AI 기업이 “면책 조항”(safe harbor) 규정의 혜택을 볼 수 있게 할 수 있다고 경고합니다.
📌 EU는 생성형 AI의 발전 속도를 현행법이 따라잡지 못하는 상황에서 ChatGPT를 어떻게 통제할 것인가라는 큰 문제에 직면해 있습니다. 월 1억 2천만 명의 사용자와 전 세계 매출 6%의 벌금 가능성을 안고 있는 OpenAI는 유럽의 AI 거버넌스 능력을 시험하는 첫 번째 사례가 될 것이지만, 그 답을 얻기까지는 적어도 2026년 하반기까지 기다려야 합니다.

