用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向科技前沿
关键字  范围   
 
ChatGPT,和聪明地设计 Infra
来源:Suits and Hoodies | 2023/2/19 19:34:25 | 浏览:844 | 评论:0

ChatGPT,和聪明地设计 Infra

在这个 AI 时代,语言模型已经成为了人机交流的关键工具。而 ChatGPT 则是其中的佼佼者,这个由 OpenAI 训练的模型,以其卓越的理解和生成能力,成为了一个人人景仰的网红。

主要是四个观点:
  1. ChatGPT 并不是黑科技,是持续开放科研的产物。

  2. ChatGPT 是工程、产品的胜利。

  3. ChatGPT 不会让人失业,反而会带来更多的机会。

  4. Infrastructure 会是这一场仗当中的赢家,但是要聪明地设计Infra。

ChatGPT,和聪明地设计 Infra

ChatGPT 是持续开放科研的产物

ChatGPT 背后的技术,最主要的一篇文章是 2022 年 OpenAI 发表的论文 InstructGPT 。InstructGPT 的核心思路是之前两条研究线路所带来的:一个是自然语言理解的大规模语言模型 LLM,另一个是带人类反馈的增强学习 RLHF。

大规模语言模型 LLM 在前面几年方兴未艾,从 GPT 开始,往回可以推到 Bert ,这两种都是基于所谓的 Transformer 结构来设计的。而Transformer 的出现本身又是为了解决早期的序列模型(比如说LSTM 和 RNN)的问题所提出来的。。很有意思的是这一系列模型多少都采取了不带太强结构的统计方法:“根据周边的词语来预测中间的词语”,或者“根据前面的文字来生成后面的词语”。这和传统的基于语法树的方法很不一样,感兴趣考古的读者可以去看看 PCFG,计算语言学当中很经典的一个算法。

RLHF 也是一个近年以来比较流行的算法。增强学习最经典的书应该是 Sutton & Barto 所写的同名著作《Reinforcement Learning》。2004年,Pieter Abbeel 和吴恩达就利用 RL 提出了叫做 Apprenticeship Learning 的方法,来让机器学会复杂的动作,比如说让直升机进行空中转体:

ChatGPT,和聪明地设计 Infra

2017年开始DeepMind 的一系列工作(电子游戏、围棋等)让 RL 深入人心,ChatGPT 对于对话系统的训练也深得前面这些工作的影响。因此,整体而言,ChatGPT的一系列工作,都在前面有着很深的铺垫,应该说是站在开放科研的肩膀上做出的工作,其中的功底不得不让人叹服。这不是别人做出大模型之后,简单跟进说“我们可以做得更大”,而是在原有的基础上做更多创新的成果。

ChatGPT 是工程和产品的胜利

有一个问题:ChatGPT 的训练数据,是从哪里来的?

我们可以猜测,基础的语言模型,例如GPT-3,训练的数据来源有很多类似 LAION 这样的从网上抓取下来的数据。在此基础上, InstructGPT 的文章当中提到了很有意思的一点:

Starting with a set of labeler-written prompts and prompts submitted through the OpenAI API, we collect a dataset of labeler demonstrations.of the desired model behavior.

也就是说,OpenAI 前序所推出的 playground、GPT-3 API 等等,一边在进行产品和市场的适配的途中,另一方面也给后续的科研带来了大量的数据输入。根据 InstructGPT 的文章披露,当时 OpenAI 雇佣了约 40 名左右的标注人员来提供手工写的文字;这个数字在最近披露的报道中上升到了 1000 名左右。计算机领域有一个短语叫做 human in the loop,将一篇科研文章变成一个prototype,然后再将用户的体验、数据的回流、标注、再训练这个闭环做得非常精准,ChatGPT 在这一个领域当中体现出了高超的工程能力。

另外一个问题是,ChatGPT 为什么能够比其他的类似的聊天机器人更加不让人讨厌?

除了技术能力超群之外(ChatGPT 的会话质量的确超过之前的会话模型),我认为这和产品边界的定义是非常相关的。ChatGPT 的定位是很轻量级的“Chat”,所以它就算回答出错,也不像其他的产品(尤其是大厂的产品)那样让人讨厌,反而变成一种有趣的谈资。同时,最简的界面让人非常容易上手,“没事聊两句”也是一个不显得有科技产品的距离感的体验。甚至我家女儿也试图上去捉弄 ChatGPT:

ChatGPT,和聪明地设计 Infra

(我其实觉得,如果有一个像 wx 聊天机器人这样的方式,也许可以进一步做病毒营销,但是 OpenAI 并没有相关的产品可以相互引流,就更显得产品力的强大。当然聊天机器人是不是会有其他各种内容限制,这是另一个话题了。)

工程和产品体验会给 ChatGPT 的下一代带来更大优势。试想,一亿人每个月在给 ChatGPT 生成对话数据训练下一代模型,这是现在任何一个研究院,包括一线大厂,所无法企及的。

ChatGPT带来更多的机会

这个话题稍微有一点被说烂了我就不多说了。我从浙江一个高中长大,30年前,学校采用的油印机是要用“蜡纸”的:老师们的一大技能就是在蜡纸上,用尖头的铁笔刻出手写的试卷来,然后卷到一个油印机的滚筒上面,油印机印的页数多了,蜡纸也就旧了,一张蜡纸能印个几百张,怎么刻字刻得足够深而不破,是核心技能。后来90年代末有了打印机复印机,老师们不再需要手工刻试卷,我听到过他们怀念当年刻字的经历,但没有听到谁想回到过去。有了更好的工具,为什么要回去呢?

ChatGPT,和聪明地设计 Infra

从技术的角度讲,ChatGPT 依然是一种基于统计的方式(虽然神经网络不像当年的概率图模型、统计机器学习那么有明显的“统计”的色彩)来实现的机器学习算法。所以,它的能力也和场景的“常见程度”有关:只要是简单重复的人类劳动,它都能做得很好。从技术的角度举例子,冒泡排序写过一百遍,写出来很简单,AI 一问就会。让它写个更牛的自己出来... 抱歉,暂时还不行。

然后我们发现它写各种企业“战略”写得很不错。这是不是从一个角度体现出来,部分“战略”其实就是统计意义上的简单重复呢?之前有人开玩笑,说 xx 厂和 yy 厂和 zz 厂的 ppt 大图长得一模一样,只要把颜色调成红黄蓝当中的一种。这样的工作,只要有训练数据,当然 ChatGPT 能做得非常好。说笑归说笑,我觉得 ChatGPT 从一个大数据的角度让我们重新审视了“什么是创新” - 很多我们认为是创新的东西,也许并不是。

但是 ChatGPT 给真正的创新带来了更多的机会。一个广为人知的故事是,达芬奇在创作《岩间圣母》的时候,很多背景部分不是他画的 - 这些简单重复的地方就让他的助手画了。今天 ChatGPT 就是助手,当内容创作者能够花更少的时间做重复劳动的时候,创新会变得更多 - 这是历史上多次证明的。

聪明地设计 Infra

硅谷著名风投 A16Z 在最近一篇对于 AIGC 的文章当中提到那么一句话:“目前看基础设施提供商是这个市场当中最大的赢家”。

不过要做这个赢家,就要更加聪明地设计 infra 才行。AI 计算不同于传统上所说的“云计算”,而更加接近于我们所说的“高性能计算” HPC - 当你听见这个词语感觉我老学究的时候,且慢,听我道来。

云计算很多时候在关注资源的池化和虚拟化:

  • 怎么把计算,存储,网络,从物理资源变成虚拟的概念,“批发转零售”;

  • 如何在这种虚拟环境下把利用率做上去,或者说超卖;

  • 怎么更加容易地部署软件,做复杂软件的免运维(比如说,容灾、高可用)等等,不一而足。

但是 AI 的计算不一样。对于 AI 而言,尤其是今天 AI 的训练:
  • 并不要求特别强的虚拟化。一般训练会“独占”物理机,除了简单的例如建立虚拟网络并且转发包之外,并没有太强的虚拟化需求。

  • 需要很高性能和带宽的存储和网络。例如,网络经常需要几百 G 以上的 RDMA 带宽连接,而不是常见的云服务器几 G 到几十 G 的带宽。

  • 对于高可用并没有很强的要求,因为本身很多离线计算的任务,不涉及到容灾等问题。

  • 没有过度复杂的调度和机器级别的容灾。因为机器本身的故障率并不很高(否则 GPU 运维团队就该去看了),同时训练本身经常以分钟级别来做 checkpointing,在有故障的时候可以重启整个任务从前一个 checkpoint 恢复。

也就是说,对于 AI 的用户而言而言,尤其是今天那么大规模的训练,性能和规模是第一位的,传统云服务所涉及到的一些能力,是第二位的。

这其实很像传统的高性能计算的领域的需求。实际上,在 2017 年的时候,我们在 Facebook 提出了一个概念叫做 return of MPI:用传统高性能计算的方式,来看待 AI 计算的问题。例如,与其使用更加“容灾”的异步通信等方式,不如启用高性能计算领域常见的MPI Allreduce / send / recv 算子等“老方法”,实现更高性能的分布式训练。2017 年,我在 Facebook 的团队和 FAIR 一起,将 ImageNet 训练的速度降到了一个小时以内。

今天不少的 AI 软硬件设计,都依然透出着高性能计算的影子。例如,阿里云在 2022 年提出的飞天智算集群“灵骏”,通过 GPU 的高速互联以及轻量级的平台 PAI,来管理万卡级别的AI计算的需求;微软 Azure 在云上提供了这样一个专为高性能 AI 设计的机型:8xA100 GPU + 8x200G Infiniband。Meta 在 2022 年公布了自己万卡数量的科研集群 RSC:这些产品的设计都是明显为了高性能 AI 计算来提供的。

ChatGPT,和聪明地设计 Infra

对于提供基础设施的供应商来说,AI 计算是一个新的机会,也是一个关键的时机,需要重新审视长期提供通用云服务而形成的思维模式。

AI 计算未来可期

本来想写得通用一些,但是一写就写得很技术。AI 领域永远不缺惊喜,原以为计算机视觉已经走到了尽头,忽然 AIGC 柳暗花明又一村;原以为 Stable Diffusion 已经审美疲劳,忽然 ChatGPT 又打开无数的应用。

最后没什么可说的了,作为一直战斗在 AI platform 一线的老兵,用 Richard Sutton的一句话来做结语:

The biggest lesson that can be read from 70 years of AI research is that general methods that leverage computation are ultimately the most effective, and by a large margin.

Richard Sutton:"The Bitter Lesson"

(话说对于一个 LaTeXer 来说,微信上面这一段对引用文字的手机排版真的不能忍。)

Bon voyage.

相关栏目:『科技前沿
如何绘制Nature漂亮的机制示意图? 2024-06-29 [174]
加州大学颠覆性大模型架构,FPGA重回AI舞台? 2024-06-29 [209]
OpenAI前首席科学家Ilya创立新公司,瞄准超越AGI的“超级人工智能”和绝对的AI安全 2024-06-21 [306]
2024年最新影响因子(完整版)已更新!2024年最新影响因子(完整版)已更新! 2024-06-21 [397]
苹果AI一夜颠覆所有!Siri史诗级进化,内挂ChatGPT-4o,奥特曼来了,马斯克怒了 2024-06-13 [508]
Transformer结合U-Net登上Nature子刊!最新成果让精度和效率都很美丽 2024-06-13 [514]
大撕裂理论:220亿年后宇宙终结,地球将在宇宙终结前几分钟毁灭 2024-06-08 [664]
我们看见暗物质了吗? 2024-06-07 [602]
如果不流浪地球,能直接住在流浪行星上吗? 2024-06-07 [587]
宇宙大爆炸并不存在?量子模型预测宇宙无始无终 2024-06-04 [722]
相关栏目更多文章
最新图文:
:中澳政府联合出手打击洗钱和逃税漏税 大量中国居民海外账户遭冻结 :摄影师苏唐诗与寂寞百年的故宫对话6年,3万张照片美伦美奂 :大数据分析图解:2019中国企业500强 张梦然:英国惠康桑格研究所:人体内的微生物与出生方式有关 :美众议院将调查华裔部长赵小兰“利用职权为家族谋利“ :UCLA CCS 2019 Fall Quarter Lecture Series Overview 谭晶晶:美国科技界高度关注中国科技创新进展 :推荐:2019年底前中国高校重要学术论坛(10月 - 12 月)
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.