人工智能研究新进展 中国团队提出“基于内生复杂性”类脑计算方法

11

北京8月17日电 (记者 孙自法)针对“基于外生复杂性”通用人工智能(AI)路径面临计算资源及能源消耗难以为继、可解释性不足等问题,中国科学院自动化研究所李国齐、徐波研究团队联合清华大学、北京大学等同行学者,借鉴大脑神经元复杂动力学特性,最新研究提出“基于内生复杂性”的类脑神经元模型构建方法。

这一新型类脑计算方法,可改善传统模型通过向外拓展规模带来的计算资源消耗问题,也为有效利用神经科学发展人工智能提供了示例。相关成果论文近日在国际专业学术期刊《自然-计算科学》(Nature Computational Science)发表。

合作团队介绍说,构建更加通用的人工智能,让模型具有更加广泛和通用的认知能力,是当前人工智能领域发展的重要目标。目前流行的大模型路径是基于“尺度定律”(Scaling Law)去构建更大、更深和更宽的神经网络,可称之为“基于外生复杂性”的通用智能实现方法,但这一路径面临着计算资源及能源消耗难以为继、可解释性不足等问题。

在本项研究中,合作团队首先展示脉冲神经网络神经元LIF模型和HH模型在动力学特性上存在等效性,进一步从理论上证明HH神经元可以和4个具有特定连接结构的时变参数LIF神经元(tv-LIF)动力学特性等效。

基于这种等效性,团队通过设计微架构提升计算单元的内生复杂性,使HH网络模型能够模拟更大规模LIF网络模型的动力学特性,在更小的网络架构上实现与之相似的计算功能。随后,团队进一步将由4个tv-LIF神经元构建的“HH模型”(tv-LIF2HH)简化为s-LIF2HH模型,并通过仿真实验验证这种简化模型在捕捉复杂动力学行为方面的有效性。

这次研究的实验结果表明,HH网络模型和s-LIF2HH网络模型在表示能力和鲁棒性上具有相似的性能,验证了内生复杂性模型在处理复杂任务时的有效性和可靠性。同时,研究还发现,HH网络模型在计算资源消耗上更为高效,显著减少内存和计算时间的使用,从而提高了整体的运算效率。

合作团队通过信息瓶颈理论对他们的研究结果进行解释认为,本项研究为将神经科学的复杂动力学特性融入人工智能提供新的方法和理论支持,为实际应用中的人工智能模型优化和性能提升提供可行的解决方案。

据透露,合作团队目前已开展对更大规模HH网络,以及具备更大内生复杂性的多分支多房室神经元的研究,有望进一步提升大模型计算效率与任务处理能力,实现在实际应用场景中的快速落地。(完) 【编辑:李岩】

油腻大叔控糖60天变型男,控糖真的这么管用吗?

专家:网络安全投资是数字经济无法回避的成本

福建漳州海警成功救助3名被困游客

俄罗斯一架载23人轻型飞机坠毁 16人丧生7人获救

看图学习丨贯彻总体国家安全观 统筹发展和安全

俄经济发展部预测今年俄油气出口实际下降6.7%

国际乒联公布第七周世界排名 林诗栋刷新职业生涯新高

厦金“小三通”客运航线今年客流量突破100万人次

映象网评:擦亮党员干部的“金字招牌”

新疆且末县2025年玉石文化暨红枣丰收嘉年华活动举办

(铸牢共同体 中华一家亲)一眼千年 从塞上文物品读民族交往交流交融

山东青岛:红薯香满园 日子赛蜜甜

柬埔寨发展理事会去年批准178个投资项目 协议投资额40亿美元

甘肃高校领跑绿氨赛道 技术突破解减排难题

澳门各界将联合举办系列活动庆祝中国共产党百年华诞

文章版权声明:除非注明,否则均为校内校原创文章,转载或复制请以超链接形式并注明出处。