- Krista Pawloski, qui travaille sur Amazon Mechanical Turk, a dû étiqueter des tweets racistes et a failli manquer le terme argotique « mooncricket ». Cette expérience lui a fait prendre conscience de l’ampleur de l’erreur humaine dans la chaîne de modération, la conduisant à interdire l’IA générative dans sa famille.
- De nombreux autres évaluateurs d’IA (raters, qui jugent la sortie de l’IA) ont déclaré au Guardian qu’ils évitaient également d’utiliser l’IA et mettaient en garde leurs proches. Une évaluatrice de Google a dû évaluer des réponses médicales sans formation spécialisée — elle a interdit à son enfant de 10 ans d’utiliser des chatbots par manque de capacité de pensée critique.
- Google a déclaré que l’évaluation n’est qu’un signal agrégé et qu’il existe des mécanismes pour protéger la qualité ; Amazon a affirmé que MTurk permet aux travailleurs de choisir leurs tâches.
- L’expert en médias Alex Mahadevan a commenté que le fait que les travailleurs de l’IA ne fassent pas confiance à l’IA montre que la pression pour un lancement rapide l’emporte sur la sécurité — le feedback des évaluateurs est facilement ignoré.
- Brook Hansen, une travailleuse expérimentée depuis 2010, a déclaré qu’ils recevaient souvent des instructions vagues, une formation minimale et des délais courts : des signes que les entreprises privilégient la vitesse et le profit à la qualité et à l’éthique.
- Selon NewsGuard, le pourcentage de chatbots « refusant de répondre » a chuté brutalement de 31 % (08/2024) à 0 % (08/2025), tandis que le taux de répétition d’informations fausses a augmenté de 18 % à 35 % — montrant que les modèles sont plus confiants mais moins précis.
- Un évaluateur de Google a raconté que les questions sur l’histoire palestinienne étaient systématiquement refusées, mais que les questions sur Israël recevaient une réponse complète. Il a signalé le problème, mais personne n’a agi. Cela renforce le principe du « garbage in, garbage out » (ordures à l’entrée, ordures à la sortie) : des données incorrectes ou manquantes conduisent à un modèle biaisé qui ne peut être corrigé.
- De nombreux travailleurs conseillent d’éviter les téléphones intégrés à l’IA, de ne pas partager de données personnelles et de retarder les mises à jour ajoutant des fonctionnalités IA.
- Les chercheurs en travail de l’IA soutiennent que le public est souvent « fasciné » par l’IA parce qu’il ne voit pas les équipes qui collectent les données, évaluent, filtrent le contenu et les limitations — tandis que les initiés voient un système fragile, dépendant de l’homme et plein de compromis.
- Pawloski et Hansen ont présenté lors d’une conférence sur l’éducation au Michigan, révélant que le coût environnemental, le travail caché et le biais des données ont choqué beaucoup de gens ; certains ont défendu l’IA comme une technologie prometteuse.
- Pawloski a comparé l’industrie de l’IA à l’industrie textile : lorsque les consommateurs ne voient pas la main-d’œuvre bon marché et les conditions terribles, ils posent rarement des questions. Ce n’est que lorsqu’ils apprennent la vérité qu’ils commencent à exiger la transparence et le changement.
📌 De nombreux spécialistes de l’évaluation des sorties d’IA deviennent profondément sceptiques après avoir été témoins d’erreurs, de biais, de la pression pour la rapidité et de signes que les entreprises privilégient la vitesse à la sécurité. Le taux de répétition d’informations fausses par les chatbots a augmenté à 35 % en 08/2025, indiquant le risque de désinformation généralisée. Les travailleurs avertissent le public : l’IA n’est bonne qu’autant que ses données d’entrée, et le travail silencieux derrière elle est facilement ignoré. Ils appellent à s’interroger sur les sources de données, l’éthique et les conditions de travail pour provoquer le changement.
