• 1,300명 이상의 미국인(18~84세)을 대상으로 한 연구에 따르면, 대다수가 개인적인 메시지가 AI에 의해 생성될 수 있다는 생각을 하지 못하며, 이는 AI를 자주 사용하는 사람들도 마찬가지였다.
  • 실험은 참가자를 네 그룹으로 나누었다: 출처 모름, 인간이 작성한 것으로 알림, AI가 작성한 것으로 알림, 출처 불분명.
  • 메시지를 AI가 작성했다는 사실을 알게 되었을 때, 독자들은 ‘게으름’, ‘불성실함’, ‘노력 부족’ 등 더 부정적인 평가를 내렸다.
  • 반대로 같은 내용이라도 인간이 작성했다고 믿었을 때는 ‘진실함’, ‘배려심 깊음’, ‘감사함’ 등으로 평가했다.
  • 주목할 점은 출처 정보가 없을 때 독자들은 기본적으로 작성자가 인간이라고 믿고 마찬가지로 긍정적인 평가를 내렸다는 것이다.
  • AI를 자주 사용하는 사람들도 탐지 능력이 더 낫지 않았으며, AI임을 알았을 때 부정적인 평가 수치가 약간 낮아졌을 뿐이다.
  • ‘AI 공개 패널티(AI disclosure penalty)’ 현상은 AI 사용을 밝히면 신뢰도가 떨어지는 반면, 몰래 사용하면 들키지 않는다는 것을 보여준다.
  • 이는 윤리적 역설을 낳는다: 정직하면 낮은 평가를 받고, 숨기면 이득을 보는 구조다.
  • 이러한 경향은 채용 담당자들이 자기소개서의 가치를 낮게 평가하고 인맥이나 대면 인터뷰를 통한 평가로 전환하게 만들 수 있다.

📌 연구에 따르면 인간은 AI 생성 콘텐츠에 거의 ‘무지’한 수준이며, 1,300명 이상의 참가자들은 여전히 텍스트를 인간이 쓴 것이라고 믿는 경향이 있다. 그러나 정체가 밝혀지면 평가가 급격히 하락하여 정직과 실리 사이의 역설이 발생한다. 이는 사회가 서면 소통을 평가하는 방식을 변화시켜 텍스트에 대한 신뢰를 떨어뜨리고, 업무와 삶에서 직접적인 상호작용의 역할을 증대시킬 수 있다.

Share.
VIET NAM CONSULTING AND MEASUREMENT JOINT STOCK COMPANY
연락처

이메일: info@vietmetric.vn
주소: 베트남 하노이시 옌호아 동 쩐주이흥 거리 91번 골목 34번

© 2026 Vietmetric
Exit mobile version