- Amazon Mechanical Turk에서 일하는 Krista Pawloski(여, 45세)는 이전에 인종차별적인 트윗에 라벨을 붙이는 작업을 했으며, 은어인 “mooncricket”을 놓칠 뻔했습니다. 이 경험은 그녀에게 검토 과정에서 인간의 오류 정도를 깨닫게 했고, 그 결과 그녀는 가족에게 생성형 AI 사용을 금지했습니다.
- 다른 많은 AI 평가자들(AI output rater)도 가디언지에 자신들이 AI 사용을 피하고 친척들에게 경고한다고 밝혔습니다. 한 구글 평가자는 전문 교육 없이 의료 관련 답변을 평가해야 했으며, 비판적 사고 능력이 부족할까 봐 10세 자녀에게 챗봇 사용을 금지했습니다.
- 구글은 평가가 단지 집계된 신호 중 하나일 뿐이며 품질을 보호하는 메커니즘이 있다고 말했습니다. 아마존은 MTurk가 작업자들이 스스로 작업을 선택할 수 있도록 한다고 밝혔습니다.
- 미디어 전문가 Alex Mahadevan은 AI 종사자들이 AI를 신뢰하지 않는다는 사실이 신속한 출시 압력이 안전보다 우선하고 있음을 보여주며, 평가자의 피드백이 쉽게 무시된다고 논평했습니다.
- 2010년부터 경험이 있는 작업자 Brook Hansen은 모호한 지침, 최소한의 교육, 짧은 마감 시한을 자주 받았다고 말했습니다. 이는 기업이 품질과 윤리보다 속도와 이익을 우선시하는 징후입니다.
- NewsGuard에 따르면 챗봇이 “답변 거부”하는 비율은 31%(2024년 8월)에서 0%(2025년 8월)로 급격히 떨어졌지만, 잘못된 정보를 반복하는 비율은 18%에서 35%로 증가했습니다. 이는 모델이 더 자신감 있게 행동하지만 정확도는 떨어진다는 것을 보여줍니다.
- 한 구글 평가자는 팔레스타인 역사에 대한 질문은 일관되게 거부되었으나, 이스라엘에 대한 질문은 완전히 답변을 받았다고 말했습니다. 그가 이를 보고했지만 아무도 처리하지 않았습니다. 이는 “쓰레기가 들어가면 쓰레기가 나온다”(garbage in, garbage out)는 원칙을 강화합니다. 즉, 잘못되거나 누락된 데이터는 수정할 수 없는 편향된 모델로 이어진다는 것입니다.
- 많은 작업자는 AI가 통합된 전화기를 피하고, 개인 데이터를 공유하지 않으며, AI 기능이 추가된 업데이트를 미루라고 조언합니다.
- AI 노동 연구자들은 일반 대중이 데이터 수집, 평가, 콘텐츠 필터링 팀과 한계를 보지 못하기 때문에 AI에 “매료”되는 경향이 있는 반면, 내부자들은 인간에게 의존하고 타협으로 가득 찬 취약한 시스템을 본다고 주장합니다.
- Pawloski와 Hansen은 미시간 교육 컨퍼런스에서 발표하여 환경 비용, 숨겨진 노동, 데이터 편향을 폭로했고, 이는 많은 사람들에게 충격을 주었으며, 일부는 AI를 유망한 기술로 옹호했습니다.
- Pawloski는 AI 산업을 섬유 산업에 비유했습니다. 소비자들이 저렴한 노동력과 열악한 환경을 보지 못할 때 거의 의문을 제기하지 않지만, 진실을 알게 된 후에야 투명성과 변화를 요구하기 시작한다는 것입니다.
📌 AI 출력 평가를 전문으로 하는 많은 사람들이 오류, 편견, 성급한 추진 압력 및 기업이 안전보다 속도를 우선시하는 징후를 목격한 후 깊은 회의론자가 되었습니다. 2025년 8월에 챗봇이 잘못된 정보를 반복하는 비율이 35%로 증가한 것은 광범위한 잘못된 정보 확산의 위험을 나타냅니다. 작업자들은 대중에게 경고합니다: AI는 입력 데이터만큼만 좋을 뿐이며, 그 뒤에 숨겨진 조용한 노동은 쉽게 무시됩니다. 그들은 변화를 촉진하기 위해 데이터 출처, 윤리 및 노동 조건에 대해 의문을 제기할 것을 촉구합니다.

