用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向科技前沿
关键字  范围   
 
ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司
2024/4/26 15:41:13 | 浏览:423 | 评论:0

ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司

昨日,OpenAI CEO Sam Altman 在斯坦福大学的英伟达礼堂进行了一场公开演讲,分享了 GPT-5 的性能表现、OpenAI 的 AGI 征途、到 Sora 革新娱乐方式,再到 AI 将如何干掉人类工作岗位等热议问题。而GPT-5,将会比现在的大模型更智能,小看它的公司都会被碾压。


这波热度一来,微信读书热搜榜显示,《这就是ChatGPT》登顶微信读书热搜榜第一名。


ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司


斯蒂芬·沃尔弗拉姆的《这就是ChatGPT》深入浅出的讲解了让GPT发挥真正作用的到底是什么;而《大模型应用开发极简入门:基于GPT-4和ChatGPT》则带领大家快速了解GPT-4和ChatGPT的工作原理及优势,并在此基础上使用流行的Python编程语言构建大模型应用。

作者 | [美] 斯蒂芬·沃尔弗拉姆
来源 | 《这就是ChatGPT》

即使是具有简单的神经网络结构的 ChatGPT,也能够成功地捕捉人类语言的“本质”和背后的思维方式。

人类语言,及其生成所涉及的思维过程,一直被视为复杂性的巅峰。人类大脑“仅”有约 1000 亿个神经元(及约 100 万亿个连接),却能够做到这一切,确实令人惊叹。人们可能会认为,大脑中不只有神经元网络,还有某种具有尚未发现的物理特性的新层。但是有了 ChatGPT 之后,我们得到了一条重要的新信息:一个连接数与大脑神经元数量相当的纯粹的人工神经网络,就能够出色地生成人类语言。

这仍然是一个庞大而复杂的系统,其中的神经网络权重几乎与当前世界上可用文本中的词一样多。但在某种程度上,似乎仍然很难相信语言的所有丰富性和它能谈论的事物都可以被封装在这样一个有限的系统中。

这里面的部分原理无疑反映了一个普遍现象(这个现象最早在规则 30的例子中变得显而易见):即使基础规则很简单,计算过程也可以极大地放大系统的表面复杂性。但是,正如上面讨论的那样,ChatGPT 使用的这种神经网络实际上往往是特别构建的,以限制这种现象(以及与之相关的计算不可约性)的影响,从而使它们更易于训练。

那么,ChatGPT 是如何在语言方面获得如此巨大成功的呢?我认为基本答案是,语言在根本上比它看起来更简单。这意味着,即使是具有简单的神经网络结构的 ChatGPT,也能够成功地捕捉人类语言的“本质”和背后的思维方式。此外,在训练过程中,ChatGPT 已经通过某种方式“隐含地发现”了使这一切成为可能的语言(和思维)规律。

我认为,ChatGPT 的成功为一个基础而重要的科学事实向我们提供了证据:它表明我们仍然可以期待能够发现重大的新“语言法则”,实际上是“思维法则”。在 ChatGPT 中,由于它是一个神经网络,这些法则最多只是隐含的。但是,如果我们能够通过某种方式使这些法则变得明确,那么就有可能以更直接、更高效和更透明的方式做出 ChatGPT 所做的那些事情。

这些法则可能是什么样子的呢?最终,它们必须为我们提供某种关于如何组织语言及其表达方式的指导。我们稍后将讨论“在ChatGPT 内部”可能如何找到一些线索,并根据构建计算语言的经验探索前进的道路。但首先,让我们讨论两个早已知晓的“语言法则”的例子,以及它们与 ChatGPT 的运作有何关系。

第一个是语言的语法。语言不仅仅是把一些词随机拼凑在一起。相反,不同类型的词之间有相当明确的语法规则。例如,在英语中,名词的前面可以有形容词、后面可以有动词,但是两个名词通常不能挨在一起。这样的语法结构可以通过一组规则来(至少大致地)捕捉,这些规则定义了如何组织所谓的“解析树”。

ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司

ChatGPT 并不明确地“了解”这些规则。但在训练过程中,它隐含地发现了这些规则,并且似乎擅长遵守它们。这里的原理是什么呢?在“宏观”上还不清楚。但是为了获得一些见解,也许可以看看一个更简单的例子。

考虑一种由“(”和“)”的序列组成的“语言”,其语法规定括号应始终保持平衡,就像下面的解析树一样。

ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司

我们能训练神经网络来生成“语法正确”的括号序列吗?在神经网络中,有各种处理序列的方法,但是这里像 ChatGPT 一样使用Transformer 网络。给定一个简单的 Transformer 网络,我们可以首先向它馈送语法正确的括号序列作为训练样例。一个微妙之处(实际上也出现在 ChatGPT 的人类语言生成中)是,除了我们的“内容标记”(这里是“(”和“)”)之外,还必须包括一个“End”标记,表示输出不应继续下去了(即对于 ChatGPT 来说,已经到达了“故事的结尾”)。

如果只使用一个有 8 个头的注意力块和长度为 128 的特征向量来设置 Transformer 网络(ChatGPT 也使用长度为 128 的特征向量,但有 96 个注意力块,每个块有 96 个头),似乎不可能让它学会括号语言。但是使用 2 个注意力块,学习过程似乎会收敛—至少在给出 1000 万个样例之后(并且,与 Transformer 网络一样,展示更多的样例似乎只会降低其性能)。

通过这个网络,我们可以做类似于 ChatGPT 所做的事情,询问括号序列中下一个符号是什么的概率。

ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司

在第一种情况下,网络“非常确定”序列不能在此结束—这很好,因为如果在此结束,括号将不平衡。在第二种情况下,网络“正确地识别出”序列可以在此结束,尽管它也“指出”可以“重新开始”:下一个标记是“(”,后面可能紧接着一个“)”。但糟糕的是,即使有大约 400 000 个经过繁重训练的权重,它仍然说下一个标记是“)”的概率是 15%—这是不正确的,因为这必然会导致括号不平衡。

如果要求网络以最高概率补全逐渐变长的“(”序列,结果将如下所示。

ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司

在一定长度内,网络是可以正常工作的。但是一旦超出这个长度,它就开始出错。这是在神经网络(或广义的机器学习)等“精确”情况下经常出现的典型问题。对于人类“一眼就能解决”的问题,神经网络也可以解决。但对于需要执行“更算法式”操作的问题(例如明确计算括号是否闭合),神经网络往往会“计算过浅”,难以可靠地解决。顺便说一句,即使是当前完整的 ChatGPT 在长序列中也很难正确地匹配括号。

对于像 ChatGPT 这样的程序和英语等语言的语法来说,这意味着什么呢?括号语言是“严谨”的,而且是“算法式”的。而在英语中,根据局部选词和其他提示“猜测”语法上合适的内容更为现实。是的,神经网络在这方面做得要好得多—尽管它可能会错过某些“形式上正确”的情况,但这也是人类可能会错过的。重点是,语言存在整体的句法结构,而且它蕴含着规律性。从某种意义上说,这限制了神经网络需要学习的内容“多少”。一个关键的“类自然科学”观察结果是,神经网络的 Transformer 架构,就像ChatGPT 中的这个,好像成功地学会了似乎在所有人类语言中都存在(至少在某种程度上是近似的)的嵌套树状的句法结构。

语法为语言提供了一种约束,但显然还有更多限制。像“Inquisitiveelectrons eat blue theories for fish”(好奇的电子为了鱼吃蓝色的理论)这样的句子虽然在语法上是正确的,但不是人们通常会说的话。ChatGPT 即使生成了它,也不会被认为是成功的—因为用其中的词的正常含义解读的话,它基本上是毫无意义的。

有没有一种通用的方法来判断一个句子是否有意义呢?这方面没有传统的总体理论。但是可以认为,在用来自互联网等处的数十亿个(应该有意义的)句子对 ChatGPT 进行训练后,它已经隐含地“发展出”了一个这样的“理论”。

这个理论会是什么样的呢?它的冰山一角基本上已经为人所知了2000 多年,那就是逻辑。在亚里士多德发现的三段论(syllogistic)形式中,逻辑基本上用来说明遵循一定模式的句子是合理的,而其他句子则不合理。例如,说“所有 X 都是 Y。这不是 Y,所以它不是 X”(比如“所有的鱼都是蓝色的。这不是蓝色的,所以它不是鱼”)是合理的。就像可以异想天开地想象亚里士多德是通过(“机器学习式”地)研究大量修辞学例子来发现三段论逻辑一样,也可以想象 ChatGPT 在训练中通过查看来自互联网等的大量文本能够“发现三段论逻辑”。(虽然可以预期 ChatGPT 会基于三段论逻辑等产生包含“正确推理”的文本,但是当涉及更复杂的形式逻辑时,情况就完全不同了。我认为可以预期它在这里失败,原因与它在括号匹配上失败的原因相同。)

除了逻辑的例子之外,关于如何系统地构建(或识别)有合理意义的文本,还有什么其他可说的吗?有,比如像 Mad Libs® 这样使用非常具体的“短语模板”的东西。但是,ChatGPT 似乎有一种更一般的方法来做到这一点。也许除了“当你拥有 1750 亿个神经网络权重时就会这样”,就没有什么别的可以说了。但是我强烈怀疑有一个更简单、更有力的故事。



相关栏目:『科技前沿
工信部:未来产业六大方向聚焦人形机器人、脑机接口、量子科技等领域 2024-11-06 [325]
Gartner 公布2025年十大战略技术趋势 2024-10-31 [478]
这样图解Transformer应该没人看不懂了吧——Transformer工作原理 2024-10-16 [849]
Nature:智能体涌现出语言 2024-10-16 [824]
50个顶级ChatGPT论文指令 2024-10-10 [1041]
推荐五种简单有效的数据可视化方式 2024-10-10 [966]
这么有深度的文章是ChatGPT写的? 2024-10-10 [965]
讲透一个强大的算法模型,CNN!! 2024-10-10 [957]
人类与 AI 协同的三种模式 2024-10-10 [557]
11 种经典时间序列预测方法! 2024-10-09 [489]
相关栏目更多文章
最新图文:
:引力波天文台或有助搜寻暗物质粒子 :Sail Through the Mist - SoCal Innovation Forum 2019(10/5) 游天龙:《唐人街》是如何炼成的:UCLA社会学教授周敏的学术之路 :“为什么海外华人那么爱国,但是让他回国却不愿意?...“ :学术出版巨头Elsevier 彻查433名审稿人“强迫引用”黑幕 :中国336个国家重点实验室布局 :中澳政府联合出手打击洗钱和逃税漏税 大量中国居民海外账户遭冻结 :摄影师苏唐诗与寂寞百年的故宫对话6年,3万张照片美伦美奂
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.