- Une enquête nationale de 2024 menée auprès de plus de 5 500 adultes dans tous les États et territoires australiens a révélé que 45,6 % de la population a déjà utilisé l’IA générative, un taux supérieur à la moyenne du Royaume-Uni (41 %) et à une autre étude nationale (39 %).
- Au sein du groupe d’utilisateurs, 82,6 % ont créé du texte, 41,5 % ont généré des images et 19,9 % ont créé du code de programmation.
- L’écart d’âge est frappant : 69,1 % des personnes âgées de 18 à 34 ans utilisent l’IA, tandis que seulement 15,5 % du groupe d’âge 65–74 ans y ont été exposés.
- Le niveau d’éducation et la profession influencent fortement l’utilisation : les personnes ayant un diplôme universitaire (62,2 %) utilisent l’IA plus que celles n’ayant pas terminé le secondaire (20,6 %). Les groupes hautement qualifiés tels que les professionnels (67,9 %) et les managers (52,2 %) dépassent de loin les mécaniciens (26,7 %) ou les travailleurs non spécialisés (31,8 %).
- Les personnes parlant une langue autre que l’anglais à la maison ont un taux d’utilisation de 58,1 %, significativement plus élevé que celles ne parlant qu’anglais (40,5 %), en raison des avantages de la traduction et de l’accès multilingue.
- 13,6 % des utilisateurs paient pour des versions IA premium, dont 17,5 % appartiennent à la tranche d’âge 18–34 ans.
- Les personnes vivant dans des régions éloignées utilisent les chatbots pour la communication deux fois plus souvent que celles en zone urbaine (19 % contre 7,7 %).
- Le risque d’un « fossé IA » s’accroît, menaçant de créer des inégalités dans l’apprentissage, les opportunités de carrière et la capacité à résister à l’exposition aux fausses nouvelles ou au contenu filigrané par l’IA.
📌 Environ la moitié des Australiens (45,6 %) ont utilisé l’IA générative, et 13,6 % des utilisateurs paient pour des versions IA premium, mais les différences d’âge, d’éducation et de localisation géographique sont en train de former un « fossé IA » prononcé. Sans politiques visant à améliorer les compétences numériques et la littératie en IA, les groupes vulnérables risquent d’être laissés pour compte, de devenir sensibles aux deepfakes, aux escroqueries par IA et de perdre des opportunités socio-économiques.
