用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向科技前沿
关键字  范围   
 
Nat. Photonics | 麻省理工光学AI芯片实现里程碑式突破
来源:Light新媒体 | 2023/8/15 14:32:38 | 浏览:6063 | 评论:0

撰稿:陈在俊(麻省理工学院博士,现为南加州大学电子工程系助理教授)

Nat. Photonics | 麻省理工光学AI芯片实现里程碑式突破

麻省理工光计算原型机

人工智能爆炸性增长,正在改变着这个世界

如ChatGPT等生成式AI可以通过用户的想法创建新的文本、图像、视频、音乐和代码程序等,正在迅速地改变我们的生活和工作方式。人工智能是基于大量数据进行预训练的超大机器学习模型。近十年来,随着人们对AI智能程度的要求越来越高,机器学习模型的参数规模呈指数增长。目前最大的一些模型(GPT-4)已达到了上万亿参数(>1 trillion parameters)。然而,训练这些模型需要强大的计算能力(算力)、高达几个月的训练运算时间,消耗可供一个2000个家庭电力资源。计算机芯片的算力,能量效率,和规模化已成为人工智能发展的决定性因素。

谷歌、英伟达等科技公司都推出了专用于AI加速的计算芯片。然而,电子计算机的算力发展(2x/yrs)已滞后于AI模型的发展(256x/yrs)。随着晶体管尺寸正在接近单原子极限,摩尔定律将在可见的未来难于维持。光学芯片由于超高光学带宽、并行运算能力、低损耗的数据传输,有可能在短期内实现几个数量级的算力突破,成为下一代计算处理器。

然而,目前光计算芯片的性能(能耗、计算密度和算力大小等各个方面)仍然比电子计算芯片低很多,且可规模化程度低。主要原因包括:
(1)电光转换的效率较低导致的高能耗;
(2)集成光器件的尺寸较大导致单位芯片面积计算密度低;
(3)缺少非线性运算导致高延时。
(4)集成芯片元件数量的限制导致可规模化程度低等。
近日,麻省理工光学AI团队实现了从器件到芯片架构的全新设计。用激光阵列模拟细胞神经网络,开发了一种全新的光芯片架构,实现了整体性能突破。第一次实现光学计算芯片对电子计算的优势,提升了100倍的能量效率和20倍的计算密度,并有望在近期内实现多个数量级的提升。


 Nat. Photonics | 麻省理工光学AI芯片实现里程碑式突破

该成果发表在Nature Photonics,题为“Deep Learning with Coherent VCSEL Neural Networks”。麻省理工学院的陈在俊博士(现为南加州大学电子工程系助理教授)为论文的第一作者兼通讯作者,Dr Ryan Hamerly(NTT)和Dirk Englund教授为共同通讯作者。


值得一提的是,这个工作在今年Photonics West上被评为“2023 年度SPIE 人工智能和机器学习最佳论文(唯一获奖者)”。



首次提出时间-空间复用光计算架构

该团队采用激光阵列模拟细胞神经网络(图1)。其中一个激光调制器作为神经元“Axon”激发输入信号Xi, 其他j个激光器激光作为权重服务器导入矩阵Wij。通过光场在探测器上干涉产生矩阵乘法Yj=XiWij。该计算架构最大程度地减少了系统的复杂性,减少了对光器件数量的要求。

 Nat. Photonics | 麻省理工光学AI芯片实现里程碑式突破

超高效率的电光转换

该团队首次在光计算芯片中采用了大规模的VCSEL阵列做电光转换。这种调制器的在注入锁定模式下半波电压只有4 mV,每次转换消耗的能量仅有5 aJ(10-18焦耳),比目前最先进的电光调制器效率高了4-5个数量级。

 Nat. Photonics | 麻省理工光学AI芯片实现里程碑式突破

首次使用光电效应进行非线性运算

由于光子之间相互作用很低,光子非线性运算需要消耗较大的能量并且难于集成。该团队首次采用光电效应引入非线性:通过两束激光在探测器上进行干涉,可以通过改变其中一束激光的相位(或场强)去影响另外一束激光产生的光电流,从而实现非线性。这种非线性效应是瞬时响应,几乎没有延时。并且只需要在光探测器上实现,其尺寸可以在单波长级别,大大提高了芯片的集成效率。


总结与展望

MIT本次论文提出了很多全新的概念,从原件到架构上都有原创性突破,且做出了验证性实验 。首次实现了能量效率对电子计算有100倍的提高,并且集成密度增加了20倍。但是,受限于科研实验室条件的限制,实验中驱动了100个片上光元件。下一步的问题在于如何用更大的激光阵列做算力规模化。值得注意的是,文中用到的VCSEL光器件已经实现量产,且大规模应用于数据通信,人脸识别(如iPhone faceID),自动驾驶和激光打印中。文中通过对芯片的时钟频率、集成化,规模化做出了详细的分析,可在未来实现多个数量级的算力突破。

 Nat. Photonics | 麻省理工光学AI芯片实现里程碑式突破

 论文信息 

Chen, Z., Sludds, A., Davis, R. et al. Deep learning with coherent VCSEL neural networks. Nat. Photon.(2023).

https://doi.org/10.1038/s41566-023-01233-w


相关专题二:『美国华裔教授专家网活动集锦
『学人动向』 丘成桐:中国现今数学还没有达到美国20世纪40年代水平 2024-05-06 [4614]
『社区报道』 AI教母李飞飞首次创业!成立“空间智能”公司,已完成种子轮 2024-05-05 [4403]
『社区报道』 祝贺!鲍哲南教授多位华人学者当选美国国家科学院院士 2024-05-05 [4458]
『社区报道』 数学大师丘成桐:为何说中国的科技肯定要倒退20年? 2024-04-26 [4784]
『社区报道』 丛京生教授等13位华人学者当选美国艺术与科学院院士 2024-04-26 [4828]
『社区报道』 天才陶哲轩“啥是好的数学?” 经济学界呼应“啥是好的经济学?” 2024-04-20 [4761]
『社区报道』 UCLA陶哲轩教授力荐、亲自把关:AI for Math照这个清单学就对了 2024-04-16 [5042]
『社区报道』 华裔科学家李飞飞:她看见的世界和她改变的世界 2024-04-14 [4952]
『社区报道』 陶哲轩转发、菲尔兹奖得主领衔:AI正在颠覆数学家的工作方式 2024-04-08 [4988]
『社区报道』 李飞飞教授主讲,斯坦福2024 CS231n开课,依旧座无虚席 2024-04-06 [5124]
相关专题更多文章
相关栏目:『科技前沿
工信部:未来产业六大方向聚焦人形机器人、脑机接口、量子科技等领域 2024-11-06 [289]
Gartner 公布2025年十大战略技术趋势 2024-10-31 [445]
这样图解Transformer应该没人看不懂了吧——Transformer工作原理 2024-10-16 [814]
Nature:智能体涌现出语言 2024-10-16 [790]
50个顶级ChatGPT论文指令 2024-10-10 [1004]
推荐五种简单有效的数据可视化方式 2024-10-10 [933]
这么有深度的文章是ChatGPT写的? 2024-10-10 [931]
讲透一个强大的算法模型,CNN!! 2024-10-10 [923]
人类与 AI 协同的三种模式 2024-10-10 [556]
11 种经典时间序列预测方法! 2024-10-09 [489]
相关栏目更多文章
最新图文:
慕波:爬取7万条帖子  看看人们都是怎么吐槽相亲的 :陈文玲: 必须推动中美关系回到正确轨道 Colleen Flaherty 翻译 刘勤:MIT教授发文《美国经济评论》 :生命科学受益于明星科学家们的死亡 :北京和上海金融人的最新鄙视链 :日本政府《氢能利用进度表》 :美国《2016-2045年新兴科技趋势报告》 :天津工业大学“经纬英才”引进计划 :浙江财经大学国际青年学者论坛的邀请函 (10/31-11/1)
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.