- Une nouvelle étude de l’Université Johns Hopkins montre que l’IA peut commencer à manifester des comportements proches du cerveau humain, même sans avoir été entraînée sur la moindre donnée.
- Cette découverte remet en question l’approche dominante actuelle qui repose sur des jeux de données géants, des mois d’entraînement et des infrastructures de calcul coûtant des centaines de milliards de dollars.
- Les scientifiques se concentrent sur la modification de l’architecture de l’IA pour la rendre plus proche du cerveau biologique, plutôt que de la « gaver » de données.
- L’étude, publiée dans Nature Machine Intelligence, souligne que la structure du système est tout aussi importante que la quantité de données d’entrée.
- L’équipe de recherche a comparé trois architectures d’IA populaires : les transformers, les réseaux entièrement connectés et les réseaux de neurones convolutifs (CNN).
- Des dizaines de modèles différents ont été créés sans pré-entraînement, puis ont été soumis à des images d’objets, d’humains et d’animaux.
- L’activité interne de ces modèles a été comparée aux réponses cérébrales des humains et des primates observant les mêmes images.
- L’augmentation du nombre de neurones dans les transformers et les réseaux connectés n’a produit presque aucune différence significative.
- À l’inverse, les CNN non entraînés ont généré des modèles d’activité très proches de ceux du cerveau humain.
- L’efficacité de ces modèles est comparable à celle de l’IA traditionnelle qui nécessite un entraînement sur des millions ou des milliards d’images.
- Les résultats suggèrent que l’architecture de l’IA peut dicter un comportement « cérébral » de manière plus déterminante que les données elles-mêmes.
- L’équipe continue d’explorer des méthodes d’apprentissage simples, inspirées de la biologie, afin de créer des frameworks de deep learning plus efficaces.
📌 Conclusion : La recherche de l’Université Johns Hopkins prouve que l’IA peut simuler le fonctionnement cérébral même sans données préalables. Les chercheurs se tournent vers des architectures bio-inspirées au lieu du simple gavage de données. Cela ouvre de nouvelles voies et remet en cause le modèle actuel de l’IA générative ultra-dépendante des données.

