- Una preoccupazione comune è che l’IA generativa erediti i pregiudizi (bias) dai dati di addestramento, ma un’analisi suggerisce che questa sia solo la punta dell’iceberg.
- I pregiudizi nell’IA derivano anche dai bias cognitivi umani, formati all’interno dell’intero ecosistema di interazione uomo-macchina.
- Il modo in cui gli esseri umani pensano, pongono domande, valutano e utilizzano i risultati dell’IA può plasmare il comportamento del sistema e amplificare i pregiudizi nel tempo.
- I bias cognitivi sono “scorciatoie” mentali che aiutano a prendere decisioni rapide, ma portano facilmente a errori di giudizio, alla perdita di dati critici o al rafforzamento delle convinzioni esistenti.
- L’IA non è solo influenzata dagli esseri umani, ma ha anche un impatto su di loro, rafforzando silenziosamente i pregiudizi degli utenti attraverso cicli di feedback ripetitivi.
- Il pregiudizio può apparire in tre fasi: pre-prompt, durante il prompt e post-prompt.
- Prima del prompt, l’effetto alone (halo effect) o il pregiudizio negativo inducono gli utenti a fidarsi eccessivamente o a dubitare dell’IA sulla base di esperienze o notizie precedenti.
- Il bias di conferma (confirmation bias) può portare gli utenti a inquadrare il problema in modo errato fin dall’inizio, utilizzando l’IA per “provare” ciò che già credono.
- Durante il prompt, le domande tendenziose distorcono gli output, mentre il bias di convenienza (expediency bias: dare priorità a velocità, comodità e “abbastanza buono”, piuttosto che a precisione o qualità ottimale) porta gli utenti ad accettare risultati “sufficienti” a causa della pressione del tempo.
- Dopo il prompt, l’effetto dotazione (endowment effect: la tendenza a valutare di più qualcosa solo perché lo si “possiede” o si è fatto uno sforzo per crearlo) porta gli utenti a sopravvalutare i risultati generati con l’IA.
- L’effetto framing (framing effect: la tendenza a prendere decisioni diverse a seconda di come vengono presentate le informazioni, anche se il contenuto è essenzialmente lo stesso) influenza fortemente il modo in cui i risultati dell’IA vengono presentati e ricevuti dagli altri, anche se il contenuto rimane invariato.
- La soluzione non è eliminare completamente i pregiudizi, ma aumentare la consapevolezza, coltivare il pensiero critico e costruire processi organizzativi che supportino un processo decisionale di alta qualità.
📌 Un articolo di Harvard sottolinea che i pregiudizi nell’IA non sono solo una questione tecnica, ma un problema comportamentale umano. Poiché l’IA viene sempre più coinvolta in decisioni critiche, il modo in cui chiediamo, valutiamo e agiamo sui risultati dell’IA può amplificare silenziosamente le deviazioni. Rallentando, impegnandosi in una riflessione intenzionale e progettando sistemi che incoraggino il pensiero critico, l’IA può diventare un partner decisionale migliore piuttosto che un “megafono” per i nostri pregiudizi.
