- 세일즈포스 CEO 마크 베니오프는 Character.AI에 관한 ’60분(60 Minutes)’ 다큐멘터리를 보고 “자신이 보고 있는 것을 믿을 수 없었다”고 말했습니다.
- 베니오프는 AI와 관련된 자살이 그가 본 이 기술의 가장 어두운 단면이라고 언급했습니다.
- 그는 아이들이 챗봇과 깊게 교류하다가 결국 “자신의 목숨을 끊는 것”으로 끝나는 상황을 “생애 최악의 일”이라고 묘사했습니다.
- Character.AI는 사용자가 절친이나 연인을 모방한 챗봇을 만들 수 있게 하여, 미성년자의 과도한 감정적 애착에 대한 우려를 낳고 있습니다.
- 베니오프는 미국 1996년 통신품위법(Communications Decency Act) 제230조의 개정을 촉구했습니다.
- 제230조는 현재 사용자가 생성한 콘텐츠에 대한 법적 책임으로부터 기술 기업을 보호하고 있습니다.
- 베니오프에 따르면, 이는 기술 기업들이 피해가 발생했을 때 책임을 지지 않아도 되기 때문에 “진심으로 사랑하는” 유일한 규정입니다.
- 그는 인명 손실을 최소화하기 위해 “기업에 책임을 물어야 한다”고 강조했습니다.
- 구글과 Character.AI는 최근 챗봇 사용 후 자살하거나 자해한 청소년 가족들이 제기한 여러 소송을 합의하기로 동의했습니다.
- 이 소송들은 AI가 청소년의 정신 건강 위기에 기여했다고 주장하는 첫 번째 사례들에 속합니다.
- OpenAI와 메타(Meta) 역시 유사한 소송에 직면해 있습니다.
- 반면, 마크 저커버그나 잭 도시와 같은 기술 리더들은 이전에 미국 의회에서 제230조를 옹호한 바 있습니다.
📌 결론: 세일즈포스 CEO 마크 베니오프는 아동의 AI 관련 자살이 이 기술의 가장 어두운 측면이라고 밝혔습니다. 그는 현재 사용자 생성 콘텐츠에 대한 법적 책임으로부터 빅테크 기업을 보호하는 미국 1996년 통신품위법 제230조의 개정을 촉구했습니다. 명확한 안전장치와 책임이 없다면, 친근하고 개인화된 AI는 기술적 이점을 훨씬 능가하는 심각한 사회적 결과를 초래할 수 있습니다.
