用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向科技前沿
关键字  范围   
 
俄亥俄州立大学将下一代储备池计算速度提高百万倍
2021/9/23 14:55:59 | 浏览:1152 | 评论:0

  储备池计算是一种模仿人脑工作方式的计算方法。美国科学家在最新一期《自然·通信》杂志上撰文称,他们找到了一种新方法,将储备池计算的速度提高33到100万倍,而所需的计算资源和数据输入却大大减少,新一代储备池计算有助于解决一些最困难的信息处理问题,比如预测流体的动态等。

俄亥俄州立大学将下一代储备池计算速度提高百万倍

  事实上,在一次测试中,研究人员在台式计算机上用不到一秒钟的时间就解决了一个复杂的计算问题。研究主要作者、美国俄亥俄州立大学物理学教授丹尼尔·高蒂尔说,同样的问题需要超级计算机来解决,而且需要更长时间。

  高蒂尔解释称,储备池计算是21世纪初出现的一种机器学习算法,用于解决“最难”的计算问题,如预测动力系统(比如天气)随时间的演化情况。以前的研究表明,储备池计算非常适合学习动力系统并准确预测它们未来的行为。

  它使用类似人脑的人工神经网络实现这一点。科学家将动态网络上的数据输入网络中随机连接的人工神经元组成的储备池内。网络产生有用的输出,科学家可对其进行解释并输入网络中,从而对系统未来的发展作出越来越准确的预测。系统越大、越复杂,科学家们希望预测得越准确,为此人工神经元网络就必须越大,完成任务所需的计算资源和时间也就越多。

俄亥俄州立大学将下一代储备池计算速度提高百万倍

  在最新研究中,高蒂尔及其同事对整个储备池计算系统进行了简化,从而显著减少了所需的计算资源并节省大量计算时间。结果表明,在不同的测试中,新系统比当前系统可以快33到100万倍。而且,与当前一代模型需要4000个神经元相比,新一代计算仅需28个神经元就达到了同样的精度。

  高蒂尔进一步指出:“科学家目前必须输入1000或10000个数据点或更多数据点对储备池计算机进行预热——对需要输入储备池计算机的数据进行训练,但新系统只需要输入两三个数据点。”在测试中,他们用400个数据点获得了与现在使用5000或更多数据点相同的结果。

  总编辑圈点

  储备池计算被认为是神经网络的一种拓展框架,或者说,一种新的神经网络训练方法。有意思的是,我们一直以为计算系统中的人工神经元是越多越好,但实际上,越多的神经元当然能解决越复杂的问题,但同样会带来对庞大资源的消耗,如果能“缩减开支”——以更少的神经元解决同样精度的问题,则是一个非常值得努力的方向。现在储备池计算的新成果,就让人们看到了这样的曙光。

相关栏目:『科技前沿
SpaceX冲击10万亿!投资人揭秘:为什么马斯克无人能敌? 2025-12-16 [51]
GPT-5.2发布,能力超人类11倍!谷歌揭露一个致命弱点,这才是普通人的活路 2025-12-16 [48]
AI泡沫的深层焦虑:错过,是最大的失败 2025-12-09 [161]
2025年人工智能现状:智能体、创新与转型 2025-12-09 [136]
英伟达反击AI泡沫论:七页备忘录回应十二项质疑 2025-12-09 [118]
算力产业链核心赛道:谷歌TPU全解析 2025-12-09 [206]
硅谷惊天丑闻!北大毕业女CEO逼10万人成瘾,狂赚上亿,口出狂言! 2025-12-09 [227]
美国“创世纪计划”:一场关于AI主导权的国家行动 2025-12-09 [152]
OECD发布AI能力指标评估量表 2025-11-30 [394]
麦肯锡2025年技术趋势展望:13大前沿技术趋势,有望重塑全球格局 2025-11-30 [519]
相关栏目更多文章
最新图文:
:美国《2016-2045年新兴科技趋势报告》 :天津工业大学“经纬英才”引进计划 :浙江财经大学国际青年学者论坛的邀请函 (10/31-11/1) :美国加大审查范围 北大多名美国留学生遭联邦调查局质询 :天安门广场喜迎“十一”花团锦簇的美丽景象 马亮:做院长就能够发更多论文?论文发表是不是一场“权力的游戏”? :印裔人才在美碾压华裔:我们可以从印度教育中学到什么? :北京452万人将从北京迁至雄安(附部分央企名单)
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2025 ScholarsUpdate.com. All Rights Reserved.