- Il conglomerato di IA di Abu Dhabi G42 ha firmato un accordo con la piattaforma di governance statunitense Credo AI all’India AI Impact Summit per promuovere l’IA responsabile (RAI) nel Sud del mondo.
- L’obiettivo è “rendere operativa l’IA responsabile” attraverso strumenti di monitoraggio del rischio, progettazione di politiche e programmi di formazione per governi e imprese.
- La leadership di G42 ha sottolineato che l’innovazione dell’IA e la governance dell’IA devono andare di pari passo per accelerare l’implementazione su larga scala.
- Credo AI è specializzata nella codifica di quadri giuridici come l’AI Act dell’UE in piattaforme di governance, aiutando le imprese e il settore pubblico a conformarsi alle normative.
- L’IA responsabile richiede che i sistemi siano trasparenti, equi, sicuri e responsabili; controllando i pregiudizi, proteggendo i dati personali e garantendo la spiegabilità delle decisioni.
- Un rapporto del 2025 relativo all’India di DECASTE (sviluppato da IBM e Dartmouth) ha mostrato che gli LLM possono dedurre la casta sociale dai cognomi indiani, associando i nomi di “casta alta” a professioni prestigiose e i nomi di “minoranza” a quelle inferiori.
- Ricerche del 2020-2024 pubblicate su JAMA Dermatology e The Lancet Digital Health hanno avvertito che l’IA medica è meno accurata con i toni della pelle più scuri, rischiando di aggravare le disuguaglianze.
- Le Nazioni Unite hanno avvertito che lo sviluppo dell’IA principalmente in Occidente potrebbe amplificare i pregiudizi e causare un nuovo “tecno-colonialismo”.
- La collaborazione avviene mentre le relazioni tecnologiche tra Emirati Arabi Uniti e India accelerano: investimenti in IA, semiconduttori, fintech, infrastrutture digitali e il cavo sottomarino SING che collega Medio Oriente, India e Sud-est asiatico.
- Le imprese IT indiane stanno espandendo la loro presenza ad Abu Dhabi e Dubai, mentre le startup fintech indiane utilizzano gli Emirati Arabi Uniti come trampolino di lancio per il Medio Oriente e l’Africa.
📌 L’accordo tra G42 e Credo AI segna un passo strategico per rendere l’IA responsabile uno standard nelle nazioni del Sud del mondo, tra le preoccupazioni per pregiudizi come la discriminazione di casta e le imprecisioni mediche basate sul colore della pelle. L’obiettivo è “rendere operativa l’IA responsabile” attraverso strumenti di monitoraggio del rischio, progettazione di politiche e programmi di formazione per governi e imprese. Credo AI è specializzata nella codifica di quadri giuridici come l’AI Act dell’UE in piattaforme di governance, aiutando le imprese e il settore pubblico a conformarsi alle normative. Mentre l’IA si diffonde in uno dei più grandi mercati di adozione del mondo come l’India, incorporare trasparenza, responsabilità e governance fin dall’inizio è visto come la chiave per evitare il “colonialismo tecnologico” e costruire un vantaggio competitivo sostenibile.
