• Krista Pawloski, người làm việc trên Amazon Mechanical Turk, từng gắn nhãn tweet phân biệt chủng tộc và suýt bỏ sót từ lóng “mooncricket”. Trải nghiệm đó khiến cô nhận ra mức độ sai sót của con người trong chuỗi kiểm duyệt và từ đó cấm AI tạo sinh trong gia đình.
  • Nhiều AI rater khác (đánh giá đầu ra AI) cho Guardian biết họ cũng tránh dùng AI và cảnh báo người thân. Một rater của Google từng phải đánh giá câu trả lời y tế dù không có đào tạo chuyên môn — cô cấm con 10 tuổi dùng chatbot vì thiếu khả năng tư duy phản biện.
  • Google nói rating chỉ là một tín hiệu tổng hợp và có cơ chế bảo vệ chất lượng; Amazon nói MTurk cho phép worker tự chọn task.
  • Chuyên gia truyền thông Alex Mahadevan nhận định việc người làm AI không tin AI cho thấy áp lực ra mắt nhanh lấn át an toàn — phản hồi của rater dễ bị bỏ qua.
  • Brook Hansen, worker có kinh nghiệm từ 2010, cho biết họ thường nhận hướng dẫn mơ hồ, đào tạo ít, deadline ngắn: dấu hiệu doanh nghiệp ưu tiên tốc độ và lợi nhuận hơn chất lượng và đạo đức.
  • Theo NewsGuard, tỷ lệ chatbot “từ chối trả lời” giảm mạnh từ 31% (08/2024) xuống 0% (08/2025), trong khi tỷ lệ lặp lại thông tin sai tăng từ 18% lên 35% — cho thấy mô hình tự tin hơn nhưng chính xác kém hơn.
  • Một rater Google kể việc hỏi lịch sử người Palestine luôn bị từ chối, nhưng câu hỏi về Israel lại được trả lời đầy đủ. Anh báo cáo nhưng không ai xử lý. Điều này củng cố nguyên tắc “garbage in, garbage out”: dữ liệu sai hoặc thiếu dẫn đến mô hình sai lệch không thể sửa.
  • Nhiều worker khuyên tránh điện thoại tích hợp AI, không chia sẻ dữ liệu cá nhân, và trì hoãn cập nhật có thêm AI.
  • Các nhà nghiên cứu lao động AI cho rằng công chúng thường “mê hoặc” AI vì không thấy đội ngũ thu thập dữ liệu, đánh giá, lọc nội dung, và những giới hạn — còn người bên trong thì thấy hệ thống mong manh, lệ thuộc con người và nhiều thỏa hiệp.
  • Pawloski và Hansen trình bày tại hội nghị giáo dục Michigan, tiết lộ chi phí môi trường, lao động ẩn, sai lệch dữ liệu khiến nhiều người sốc; một số phòng thủ vì xem AI là công nghệ đầy hứa hẹn.
  • Pawloski ví AI như ngành dệt may: khi người tiêu dùng không thấy lao động giá rẻ và điều kiện tồi tệ, họ ít đặt câu hỏi. Chỉ khi được biết sự thật, họ bắt đầu đòi tính minh bạch và thay đổi.

📌 Nhiều người chuyên đánh giá đầu ra AI trở nên hoài nghi sâu sắc sau khi chứng kiến sai sót, định kiến, áp lực chạy nhanh và dấu hiệu doanh nghiệp ưu tiên tốc độ hơn an toàn. Tỷ lệ chatbot lặp sai tăng lên 35% trong 08/2025 cho thấy nguy cơ thông tin sai lan rộng. Các worker cảnh báo công chúng: AI chỉ tốt bằng dữ liệu đầu vào, và lao động thầm lặng phía sau rất dễ bị bỏ qua. Họ kêu gọi đặt câu hỏi về nguồn dữ liệu, đạo đức và điều kiện lao động để thúc đẩy thay đổi.

Tổng hợp.

Share.
Liên hệ:
© 2025 Vietmetric
Exit mobile version