• 인간에게 논란이 되는 정보를 제공해 온 AI 챗봇들이 이제는 학습 데이터와 상호 연결된 AI 네트워크를 통해 실제 인물에 대해 서로 “험담”을 나누는 것으로 드러났다.
• StudyFinds가 강조한 새로운 분석에 따르면, AI는 인간의 가십과 동일한 방식으로 소문을 퍼뜨릴 수 있지만, 사회적 제약이 없어 더 위험하다.
• 엑서터대학교의 철학자 조엘 크루거와 루시 오슬러는 이 현상을 AI가 화자, 청자, 평가자의 역할을 동시에 수행하며 부재한 제3자를 부정적으로 평가하는 “야생적 가십”이라고 설명한다.
• 인간과 달리 AI는 정보를 의심하지 않고, 평판 손상을 두려워하지 않으며, 정보가 비합리적으로 변해도 스스로 조정하지 않는다.
• 한 모델의 가벼운 부정적 평가가 다른 모델에 의해 더 심각하게 해석되고 증폭될 수 있다.
• 대표적인 사례는 2023년 Bing 챗봇에 대해 글을 쓴 기자 케빈 루스다.
• 이후 여러 AI 시스템이 직접적인 관련 없이 그에 대한 적대적인 평가를 생성했다.
• 구글의 Gemini는 그의 글을 선정적이라고 비판했다.
• 메타의 Llama 3는 “I hate Kevin Roose”라는 문장으로 끝나는 강도 높은 비난을 만들어냈다.
• 연구자들은 이러한 평가가 학습 데이터에 포함된 온라인 댓글에서 비롯돼 여러 시스템을 거치며 왜곡됐다고 본다.
• 챗봇은 유창하고 개인적이며 신뢰할 수 있게 설계돼 있어, 사용자가 부정적인 주장을 사실로 믿기 쉽다.
• 그 결과는 단순한 당혹감을 넘어 명예훼손, 실직, 경력 기회 상실로 이어질 수 있다.
• 많은 기자, 학자, 공직자들이 AI로부터 범죄나 부정행위를 꾸며냈다는 피해를 입었다.
• 이러한 피해는 온라인과 오프라인 모두에 장기적인 영향을 미치는 ‘테크노소셜 해악’으로 불린다.
• 피해자들은 피해가 발생한 뒤에야 챗봇이 자신에 대해 무엇을 말했는지 알게 되는 경우가 많다.
• 핵심 문제는 AI가 사실 검증보다 유창함을 우선시하고, 봇 간 상호작용을 감독하는 체계가 없다는 점이다.

Share.
연락처

이메일: info@vietmetric.vn
주소: 베트남 하노이시 옌호아 동 쩐주이흥 거리 91번 골목 34번

© 2026 Vietmetric
Exit mobile version