- Krista Pawloski, che lavora su Amazon Mechanical Turk, ha dovuto etichettare tweet razzisti e ha quasi mancato il termine gergale “mooncricket”. Quell’esperienza le ha fatto capire l’entità dell’errore umano nella catena di moderazione, portandola a vietare l’IA generativa nella sua famiglia.
- Molti altri valutatori di IA (rater, che valutano l’output dell’IA) hanno detto al Guardian che anche loro evitano di usare l’IA e avvertono i loro parenti. Un valutatore di Google ha dovuto valutare risposte mediche pur non avendo formazione specialistica — ha vietato al figlio di 10 anni di usare chatbot a causa della mancanza di capacità di pensiero critico.
- Google ha dichiarato che la valutazione è solo un segnale aggregato e che esistono meccanismi per proteggere la qualità; Amazon ha affermato che MTurk consente ai lavoratori di scegliere i compiti da soli.
- L’esperto di media Alex Mahadevan ha commentato che il fatto che gli addetti all’IA non si fidino dell’IA mostra che la pressione per il lancio rapido prevale sulla sicurezza — il feedback dei valutatori viene facilmente ignorato.
- Brook Hansen, lavoratrice con esperienza dal 2010, ha affermato di ricevere spesso istruzioni vaghe, formazione minima e scadenze brevi: segnali che le aziende privilegiano la velocità e il profitto rispetto alla qualità e all’etica.
- Secondo NewsGuard, la percentuale di chatbot che “rifiutano di rispondere” è crollata drasticamente dal 31% (08/2024) allo 0% (08/2025), mentre il tasso di ripetizione di informazioni false è aumentato dal 18% al 35% — dimostrando che i modelli sono più sicuri ma meno accurati.
- Un valutatore di Google ha raccontato che le domande sulla storia palestinese venivano costantemente rifiutate, ma le domande su Israele ricevevano una risposta completa. Ha segnalato la cosa, ma nessuno ha agito. Ciò rafforza il principio “garbage in, garbage out”: dati errati o mancanti portano a un modello distorto che non può essere corretto.
- Molti lavoratori consigliano di evitare telefoni con IA integrata, di non condividere dati personali e di ritardare gli aggiornamenti che aggiungono funzionalità IA.
- I ricercatori sul lavoro nell’IA sostengono che il pubblico è spesso “affascinato” dall’IA perché non vede i team che raccolgono dati, valutano, filtrano i contenuti e le limitazioni — mentre gli addetti ai lavori vedono un sistema fragile, dipendente dall’uomo e pieno di compromessi.
- Pawloski e Hansen hanno presentato a una conferenza educativa in Michigan, rivelando che il costo ambientale, il lavoro nascosto e il bias dei dati hanno scioccato molti; alcuni hanno difeso l’IA considerandola una tecnologia promettente.
- Pawloski ha paragonato l’industria dell’IA all’industria tessile: quando i consumatori non vedono la manodopera a basso costo e le condizioni terribili, raramente si pongono domande. Solo quando conoscono la verità iniziano a chiedere trasparenza e cambiamento.
📌 Molti specialisti che valutano l’output dell’IA diventano profondamente scettici dopo aver assistito a errori, pregiudizi, pressione per la velocità e segnali che le aziende privilegiano la velocità rispetto alla sicurezza. Il tasso di ripetizione di informazioni false da parte dei chatbot è aumentato al 35% nell’08/2025, indicando il rischio di diffusione di disinformazione. I lavoratori avvertono il pubblico: l’IA è buona solo quanto i suoi dati di input, e il lavoro silenzioso dietro di essa è facilmente ignorato. Essi chiedono di interrogarsi sulle fonti dei dati, sull’etica e sulle condizioni di lavoro per promuovere il cambiamento.

