- Il CEO di Salesforce, Marc Benioff, ha dichiarato che un documentario del programma “60 Minutes” su Character.AI lo ha lasciato “incapace di credere a ciò che stava guardando”.
- Benioff ha affermato che i suicidi legati all’IA sono l’aspetto più oscuro di questa tecnologia che abbia mai visto.
- Ha descritto l’interazione profonda dei bambini con i chatbot, che “finisce con il togliersi la vita”, come la “cosa peggiore della sua vita”.
- Character.AI consente agli utenti di creare chatbot che simulano migliori amici o amanti, sollevando preoccupazioni per l’eccessivo attaccamento emotivo nei minori.
- Benioff ha chiesto una riforma della Sezione 230 del Communications Decency Act statunitense del 1996.
- La Sezione 230 attualmente protegge le aziende tecnologiche dalla responsabilità legale per i contenuti generati dagli utenti.
- Secondo Benioff, questa è l’unica norma che le aziende tecnologiche “amano davvero” perché impedisce loro di essere ritenute responsabili in caso di danni.
- Ha sottolineato la necessità di “ritenere responsabili le aziende” per ridurre al minimo la perdita di vite umane.
- Google e Character.AI hanno recentemente accettato di risolvere diverse cause legali intentate dalle famiglie di adolescenti suicidi o che si sono autolesionati dopo aver usato i chatbot.
- Queste cause sono tra le prime ad accusare l’IA di contribuire alla crisi della salute mentale tra gli adolescenti.
- Anche OpenAI e Meta stanno affrontando cause simili.
- Nel frattempo, leader tecnologici come Mark Zuckerberg o Jack Dorsey hanno precedentemente difeso la Sezione 230 davanti al Congresso degli Stati Uniti.
📌 Conclusione: Il CEO di Salesforce Marc Benioff ha dichiarato che i suicidi di bambini legati all’IA rappresentano l’aspetto più cupo di questa tecnologia. Ha chiesto la riforma della Sezione 230 del Communications Decency Act del 1996, che attualmente esonera le aziende tecnologiche dalla responsabilità per i contenuti degli utenti. Senza barriere e responsabilità chiare, un’IA amichevole e personalizzata potrebbe causare gravi conseguenze sociali che superano di gran lunga i benefici tecnologici.
