中国科学院开发出基于语义记忆的动态神经网络:相比静态最高减少 481% 计算量

  

中国科学院开发出基于语义记忆的动态神经网络:相比静态最高减少 481% 计算量

  目前◆◆◆■★,人工智能系统广泛应用的神经网络模型多是静态的◆■■■★。随着数据量不断增长,它在传统数字计算系统中产生大量能耗和时间开销,难以适应外界环境的变化■■■★★★。

  IT之家获悉,在对 2D 图像数据集 MNIST 和 3D 点云数据集 ModelNet 的分类任务中,该设计实现了与软件相当的准确率,相比于静态神经网络减少了 48.1% 和 15.9% 的计算量,相比传统数字硬件系统降低了计算能耗◆◆★。

  大脑神经网络具有复杂的语义记忆和动态连接性,可将不断变化的输入与庞大记忆中的经验联系起来,高效执行复杂多变的任务★■★■■。

  广告声明:文内含有的对外跳转链接(包括不限于超链接■■■★、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明◆◆■◆★。

  IT之家 9 月 1 日消息★◆,中国科学院微电子研究所等将人工神经网络与大脑的动态可重构性相结合,开发出

  与静态网络相比■★◆,语义记忆动态神经网络能够根据计算资源权衡识别准确性和计算效率,可在资源受限设备或分布式计算环境中展现出色的性能。