- Le PDG de Salesforce, Marc Benioff, a déclaré qu’un documentaire de l’émission « 60 Minutes » sur Character.AI l’avait laissé « incapable de croire ce qu’il regardait ».
- Benioff a affirmé que les suicides liés à l’IA sont l’aspect le plus sombre de cette technologie qu’il ait jamais vu.
- Il a décrit l’interaction profonde des enfants avec les chatbots, qui finit par « leur faire s’ôter la vie », comme la « pire chose de sa vie ».
- Character.AI permet aux utilisateurs de créer des chatbots simulant des meilleurs amis ou des amants, ce qui suscite des inquiétudes quant à l’attachement émotionnel excessif chez les mineurs.
- Benioff a appelé à une réforme de l’article 230 du Communications Decency Act américain de 1996.
- L’article 230 protège actuellement les entreprises technologiques de toute responsabilité juridique pour le contenu généré par les utilisateurs.
- Selon Benioff, c’est la seule réglementation que les entreprises technologiques « aiment vraiment », car elle leur évite d’être tenues pour responsables en cas de dommages.
- Il a souligné la nécessité de « tenir les entreprises pour responsables » afin de minimiser les pertes de vies humaines.
- Google et Character.AI ont récemment accepté de régler plusieurs poursuites engagées par des familles d’adolescents qui se sont suicidés ou se sont mutilés après avoir utilisé des chatbots.
- Ces poursuites font partie des premières à alléguer que l’IA contribue à la crise de la santé mentale chez les adolescents.
- OpenAI et Meta font également face à des poursuites similaires.
- Pendant ce soit, des leaders de la tech comme Mark Zuckerberg ou Jack Dorsey ont précédemment défendu l’article 230 devant le Congrès américain.
📌 Conclusion : Le PDG de Salesforce, Marc Benioff, a déclaré que les suicides d’enfants liés à l’IA constituent l’aspect le plus sombre de cette technologie. Il a appelé à une réforme de l’article 230 du Communications Decency Act de 1996, qui protège actuellement les entreprises technologiques de toute responsabilité pour les contenus générés par les utilisateurs. Sans garde-fous ni responsabilités claires, une IA amicale et personnalisée pourrait entraîner des conséquences sociales graves dépassant de loin les bénéfices technologiques.
