- Une fois de plus, Deloitte – l’un des Big Four – est critiqué pour des erreurs liées à l’utilisation de l’IA dans un rapport de conseil pour le gouvernement.
- Ce rapport a été préparé par Deloitte pour le gouvernement du Canada afin d’évaluer les services de santé dans la province de Terre-Neuve-et-Labrador.
- Selon des sources, le document contenait de graves erreurs factuelles.
- Les erreurs comprenaient des descriptions inexactes et une mauvaise identification d’hôpitaux ainsi que d’établissements de soins de santé.
- Les soupçons indiquent que Deloitte a utilisé l’IA pour générer le contenu du rapport.
- Après avoir été découvert, Deloitte a déclaré qu’il « soutenait entièrement les recommandations » formulées dans le rapport, malgré les erreurs causées par l’IA générative.
- Un porte-parole de Deloitte Canada a déclaré à The Independent que les erreurs se trouvaient principalement dans la section des citations.
- Deloitte a affirmé que ces erreurs n’affectaient pas le contenu global et les conclusions du rapport.
- Ce n’est pas la première fois que Deloitte rencontre des problèmes à cause de l’IA.
- Auparavant, l’Australian Financial Review avait fait état d’erreurs d’IA dans des documents de Deloitte en Australie.
- Un représentant anonyme de Deloitte Canada a admis que l’entreprise assumait l’entière responsabilité de la qualité du travail.
- Deloitte s’est engagé à améliorer le système de gouvernance et de surveillance de l’utilisation de l’IA à l’avenir.
- Il est reconnu que l’IA apporte de grands avantages, en particulier lors du traitement de volumes massifs de données comptables.
- Cependant, Deloitte a également admis que cette technologie ne peut pas encore garantir une précision absolue.
- Les experts ne peuvent pas se fier à 100 % à l’IA sans vérification et évaluation humaines.
- L’incident soulève des inquiétudes quant à la fiabilité des rapports de conseil assistés par l’IA dans le secteur public.
- La réputation de Deloitte continue d’être remise en question alors que les erreurs d’IA se répètent dans plusieurs pays.
- Ce cas reflète le défi commun du secteur de l’audit et du conseil lors de l’application de l’IA générative.
- Les gouvernements pourraient devoir renforcer les processus de surveillance des rapports fournis par des tiers.
- L’IA devient un outil puissant mais aussi un risque en l’absence de contrôle humain.
📌 Une fois de plus, Deloitte – l’un des Big Four – est critiqué pour des erreurs liées à l’utilisation de l’IA dans un rapport de conseil pour le gouvernement. Les erreurs comprenaient des descriptions inexactes et une mauvaise identification d’hôpitaux ainsi que d’établissements de soins de santé. Après avoir été découvert, Deloitte a déclaré qu’il « soutenait entièrement les recommandations » formulées dans le rapport, malgré les erreurs causées par l’IA générative, situées principalement dans la section des citations. L’incident soulève des inquiétudes quant à la fiabilité des rapports de conseil assistés par l’IA dans le secteur public.
