- Amazon Mechanical Turkで働くKrista Pawloski氏(女性)は、かつて人種差別的なツイートにラベル付けをする仕事をしており、スラング用語「mooncricket」を見落とす寸前でした。この経験から、彼女はモデレーションチェーンにおける人間の誤りの程度を認識し、家族内で生成AIの使用を禁止するに至りました。
- 他の多くのAI評価者(AI rater、AIの出力を評価する人)がガーディアン紙に語ったところによると、彼らもAIの使用を避け、親族に警告しているとのことです。あるGoogleの評価者は、専門的な訓練を受けていないにもかかわらず、医療に関する回答を評価しなければなりませんでした。彼女は、批判的思考能力の欠如を理由に、10歳の子供にチャットボットの使用を禁止しました。
- Googleは、評価は集約されたシグナルの一つに過ぎず、品質を保護するメカニズムがあると述べました。Amazonは、MTurkではワーカーがタスクを自分で選べると述べました。
- メディア専門家の Alex Mahadevan 氏は、AI開発者がAIを信頼していないという事実は、迅速なリリースへの圧力が安全性を凌駕していることを示しており、評価者のフィードバックは無視されやすいとコメントしました。
- 2010年以来の経験を持つワーカー Brook Hansen 氏は、彼らがしばしば曖昧な指示、最小限のトレーニング、短い締め切りを受け取ると述べました。これらは、企業が品質や倫理よりもスピードと利益を優先している兆候です。
- NewsGuardによると、チャットボットが「回答を拒否する」割合は31%(2024年8月)から0%(2025年8月)に急激に低下しましたが、誤った情報を繰り返す割合は18%から35%に増加しました。これは、モデルがより自信を持っている一方で、正確性が低下していることを示しています。
- あるGoogleの評価者は、パレスチナの歴史に関する質問は常に拒否されたが、イスラエルに関する質問は完全に回答されたと語りました。彼はこれを報告しましたが、誰も対処しませんでした。これは「ゴミを入れればゴミが出る」(garbage in, garbage out)という原則を裏付けています。つまり、間違ったデータや不足したデータは、修正不可能な偏りのあるモデルにつながるということです。
- 多くのワーカーは、AI統合型携帯電話を避け、個人データを共有せず、AI機能を追加するアップデートを遅らせるよう忠告しています。
- AI労働の研究者は、一般の人々はデータ収集、評価、コンテンツフィルタリングを行うチームや限界を見ていないため、AIに「魅了され」がちであるのに対し、内部の人間は、人間依存で妥協だらけの脆いシステムを見ていると主張しています。
- Pawloski氏とHansen氏はミシガンの教育会議で発表を行い、環境コスト、隠れた労働、データバイアスを明らかにしました。これは多くの人に衝撃を与えましたが、一部の人々はAIを有望な技術だと擁護しました。
- Pawloski氏はAIを繊維産業と比較しました。消費者が安価な労働力とひどい労働条件を見ないとき、彼らはほとんど疑問を抱きません。真実を知って初めて、透明性と変化を要求し始めるのです。
📌 多くのAI出力評価の専門家は、エラー、偏見、性急なリリースのプレッシャー、企業が安全性よりもスピードを優先している兆候を目の当たりにし、深い懐疑心を持つようになっています。2025年8月にチャットボットが誤った情報を繰り返す割合が35%に増加したことは、誤情報拡散のリスクが高まっていることを示しています。ワーカーは一般の人々に警告しています:AIの品質は入力データ次第であり、その背後にある静かな労働は無視されがちです。彼らは、変化を促すために、データソース、倫理、労働条件について疑問を呈するよう呼びかけています。
