• 约翰斯·霍普金斯大学的新研究表明,即使在没有任何数据训练的情况下,AI也能开始表现出类脑行为。
  • 这一发现挑战了目前流行的方法,即依赖巨型数据集、数月的训练时间以及耗资数千亿美元的计算基础设施。
  • 科学家们致力于改变AI架构,使其更接近生物大脑,而不是单纯地“塞入”更多数据。
  • 该研究发表在《自然·机器智能》(Nature Machine Intelligence)上,强调系统结构与输入数据量同样重要。
  • 研究小组对比了三种主流AI架构:Transformer、全连接网络(Fully Connected Networks)和卷积神经网络(CNN)。
  • 研究人员创建了数十个未经过预训练的模型,并向其展示物体、人物和动物的图像。
  • 这些模型的内部活动与人类及灵长类动物观察相同图像时的脑部反应进行了对比。
  • 在Transformer和全连接网络中增加神经元数量几乎没有产生显著差异。
  • 相反,未经训练的卷积神经网络(CNN)产生的活动模式与人脑非常接近。
  • 这些模型的效率与需要在数百万甚至数十亿张图像上进行训练的传统AI相当。
  • 结果表明,AI架构在决定“类脑”行为方面可能比数据更具决定性。
  • 研究小组正在继续探索受生物启发的简单学习方法,旨在创造更高效的新型深度学习框架。

📌 结论: 约翰斯·霍普金斯大学的研究显示,AI在无训练数据的情况下也能表现出类脑行为。科学家正转向研究仿生AI架构,而非单纯依靠海量数据。这不仅为AI开辟了新路径,也对目前依赖大数据量的生成式AI模式提出了巨大质疑。

Share.
联系方式

电子邮件: info@vietmetric.vn
地址:河内市安和坊陈维兴街91巷34号

© 2026 Vietmetric
Exit mobile version