用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向生物医学
关键字  范围   
 
神经网络学不会正弦波,也做不到一切(二)
作者:尹小军 AGI Hunt | 2024/5/26 9:57:37 | 浏览:326 | 评论:0

这是对前100个质数的结果:

神经网络学不会正弦波,也做不到一切(二)

Image 71

到10,000个质数时,它产生了一个更复杂的结果:

神经网络学不会正弦波,也做不到一切(二)

Image 72
或者,假设我们询问国家GDP和人口之间的关系。然后我们可以得到类似的公式:

神经网络学不会正弦波,也做不到一切(二)

Image 73
这些公式(如果有的话)意味着什么?有点像证明步骤等。除非我们可以将公式中的内容与我们了解的内容(无论是在数论中还是经济学中)联系起来,否则通常很难从中得出结论。除非在某些罕见情况下可以说“是的,这是一个新的、有用的规律”——例如在推导开普勒第三定律时(0.7是2/3的一个很好的近似):

神经网络学不会正弦波,也做不到一切(二)Image 74

这种事情的一个更简单的例子是识别数字。在Wolfram|Alpha中输入一个数字,它会试图告诉你“可能的封闭形式”是什么:

神经网络学不会正弦波,也做不到一切(二)

Image 75:Possible closed forms of 12.1234
这里有各种各样的权衡,一些非常AI启发。获得更多位数正确相比于拥有简单公式的重要性如何?相比于拥有“更晦涩”的数学常数(例如π相对于Champernowne's数),在公式中拥有简单数字的权重如何?当我们15年前为Wolfram|Alpha设置这个系统时,我们使用了数学文献中常数的负对数频率作为它们“信息含量”的代理。利用现代LLM技术,可能可以更全面地找到相当于“良好科学叙述”的东西。

但让我们回到预测元胞自动机演化等过程的事情上。在早期部分[74]我们讨论了让神经网络做这个预测。我们基本上将其视为一个“黑箱”方法:我们想看看我们能否让神经网络成功地做出预测,但我们没有要求得到一个“人类层次的理解”。

这在机器学习中是一个普遍的故事。人们训练一个神经网络成功地预测、分类或其他。如果“看内部”,很难看出发生了什么。以下是应用图像识别神经网络[75]后的最终结果:

神经网络学不会正弦波,也做不到一切(二)

Image 76
以下是经过大约一半层的网络后生成的“中间思想”:

神经网络学不会正弦波,也做不到一切(二)

Image 77
也许这里有某种“猫性”的决定性特征。但这不是我们当前科学词汇的一部分——因此我们不能用它来开发解释图像应如何解释的“科学叙述”。

但如果我们可以将图像简化为几个参数——例如使用我们上面讨论的自编码器?可以设想我们可以设置以便我们最终得到“可解释的参数”——换句话说,我们可以给出这些参数的叙述解释。例如,我们可以想象使用类似于LLM的东西来选择某些对从网络中得出的解释有意义的参数(“尖锐度”,“分形维度”等)。是的,这些词语或短语可以基于类比(“仙人掌形状的”,“卷云状的”等)——LLM可以“创造性地”提出这些名称。

但最终没有什么能说明由某个自编码器挑出的计算可约简性口袋将与我们人类目前已经探索或给出名称的概念(科学或其他)对齐。在ruliad中,极有可能我们会发现自己处于“概念间空间[76]”——无法创建我们认为有用的科学叙述。

这有点取决于我们关注的内容。我们可能隐含地定义科学为研究现象,在某个时间点成功地发展出科学叙述。在这种情况下,显然有这样的叙述存在。但是即使给定固定的观察或测量方法,基本上不可避免地,随着我们探索,计算不可约简性将带来“惊讶”,打破我们使用的任何科学叙述。换句话说,如果我们真的要发现新的科学,那么——无论有没有AI——我们不能指望基于预先存在的概念有一个科学叙述。或许我们最好的希望是,我们能找到可约简性的口袋,AI将“足够了解我们和我们的知识历史”,能够建议我们学习的一条可管理的新概念路径,以成功发展我们发现的事物的科学叙述。

找到有趣的东西


做开放式科学的一个核心部分是弄清楚“什么是有趣的”。假设有人只是枚举了一些元胞自动机:

神经网络学不会正弦波,也做不到一切(二)

Image 78
那些只是消亡或形成均匀图案的“看起来不有趣”。第一次看到一个元胞自动机生成的嵌套图案,可能觉得有趣(就像1981年的我那样[77])。但很快它变得司空见惯。至少作为基础ruliology的一部分,人们最终寻找的是“惊讶”:从未见过的定性新行为。(如果人们关心特定的应用,例如建模世界中的特定系统,那么可能希望看具有某种结构的规则,无论它们的行为“在抽象上看起来是否有趣”。)

可以预期“惊讶”(和确实,可以做有用的、真正开放的科学)是计算不可约简性的结果。每当有“缺乏惊讶”时,这基本上是计算可约简性的标志。这使得AI——和神经网络——能够学会识别至少某些种类的“异常”或“惊讶”,从而发现某种“有趣的东西”。

通常的基本思想是让神经网络学习数据的“典型分布”[78],然后识别相对于此的异常。所以例如我们可以看大量的元胞自动机图案,学习它们的“典型分布”,然后将其投影到2D特征空间,指示某些特定图案的位置:

神经网络学不会正弦波,也做不到一切(二)

Image 79

一些图案出现在概率高的分布区域,但其他图案出现在概率低的地方——这些是异常:

神经网络学不会正弦波,也做不到一切(二)

Image 80
这些异常“有趣”吗?好吧,这取决于你对“有趣”的定义。最终这是“观察者的眼睛”。在这里,观察者是神经网络。是的,这些特定图案不会是我挑选的东西。但相对于“典型图案”,它们确实看起来至少“有些不同”。可以合理地假设,这基本上是类似神经网络区分猫和狗图片的故事:神经网络做出的判断至少在某种程度上与我们类似——也许因为我们的大脑结构类似于神经网络。

好吧,但神经网络“本质上觉得有趣”的是什么?如果神经网络经过训练,那么它将非常受其从训练中获得的“文化背景”的影响。但如果我们只是设置具有给定架构的神经网络,并随机选择其权重呢?假设它们是计算函数图片的神经网络。以下是它们计算的函数集合的例子:

神经网络学不会正弦波,也做不到一切(二)

Image 82
不太令人惊讶的是,随机权重的神经网络产生的函数反映了神经网络节点中出现的基本激活函数。但我们可以看到,有点像随机游走过程,“更极端”的函数不太可能由随机权重的神经网络生成,所以可以被认为是“本质上更令人惊讶的”神经网络。

但好吧,“惊讶”是一种可能的“有趣性”标准。但还有其他的标准。为了了解这一点,我们可以看看各种可以枚举的构造,问哪些可能的构造我们认为“足够有趣”去研究、命名或记录在登记册中。

作为第一个例子,让我们考虑一个碳氢化合物分子家族:烷烃[79]。任何这种分子都可以表示为一个树图,节点对应碳原子,价数不超过4。有总共75个10个或更少碳的烷烃,它们通常出现在标准化学物质列表中(以及我们的Wolfram知识库[80])。但具有10个碳的烷烃只有一些被认为“足够有趣”被列入,例如在我们的知识库中(通过汇集不同的登记册[81]人们发现更多的烷烃被列入,但11个碳时至少42个159个总是“缺失”的——这里没有高亮显示):

神经网络学不会正弦波,也做不到一切(二)

Image 83
什么使得这些烷烃被认为“更有趣”呢?从操作上讲,这是一个是否被研究的问题,例如在学术文献中。这由什么决定呢?部分是看它们是否“在自然界中出现”。有时——例如在石油或煤炭中——烷烃通过相当于“随机反应”形成,其中无支链分子往往更受青睐。但烷烃也可以在生物系统中通过酶等精心调控地生成。但无论它们来自哪里,似乎更熟悉的烷烃是“更有趣”的。对于“惊讶”呢?无论一个“惊讶烷烃”——例如在实验室中通过显式合成——是否被认为“有趣”可能主要取决于它是否被确定具有“有趣的特性”。而这往往是一个它的特性如何融入人类知识和技术网络的问题。

那么AI可以帮助确定哪些烷烃我们可能认为有趣吗?传统的计算化学——或许由AI加速——可能确定不同烷烃的“随机生成”速率。在一个相当不同的方向上,分析学术文献——例如用一个LLM——可能预测某个烷烃在学术文献中被研究或讨论的可能性。或者(这在药物候选物中特别相关)是否有迹象表明“如果我们能找到一个做___的分子”可以从学术文献等中拾取。

作为另一个例子,让我们考虑数学定理。像化学物质一样,人们可以通过从公理开始枚举可能的数学定理[82],然后看到可以从中逐步推导出什么定理。以下是从一些典型的逻辑公理[83]开始在仅仅两步中发生的情况:

神经网络学不会正弦波,也做不到一切(二)

Image 84
这里有大量的“无趣”(通常看起来非常迂腐)的定理。但在所有这些中,有两个定理足够有趣,通常在逻辑教科书中被命名为“幂等定律”。是否有任何方法可以确定一个定理是否会被命名?或许有人认为这是一个纯粹的历史问题。但至少在逻辑的约束情况下,似乎有一个系统的模式[84]。假设人们从最简单的定理开始,按词典顺序列出。列表中的大多数定理可以从前面的定理推导出来。但有些不会。这些实际上几乎正是通常被命名的定理[85](这里高亮显示的):

神经网络学不会正弦波,也做不到一切(二)

Image 85
换句话说,至少在基本逻辑的约束情况下,被认为足够有趣而命名的定理是那些“带来新信息”的定理。

如果我们更一般地看“元数学空间”,我们可以得到一些经验的想法,看哪些被认为“有趣”的定理分布在哪里:

神经网络学不会正弦波,也做不到一切(二)Image 86

AI可以预测这个吗?我们当然可以创建一个从现有数学文献和几百万已知定理中训练的神经网络。然后我们可以开始向这个神经网络提供通过系统枚举找到的定理,问它们在数学文献中出现的可能性如何。在我们的系统枚举中,我们甚至可以让神经网络确定哪些“方向”可能“有趣”——像我们上面第二种“AI辅助多方式系统遍历”的方法[86]。

但是当涉及到发现“真正的新科学”(或数学)时,这有一个问题——因为从现有文献中训练的神经网络基本上会寻找“更多相同的东西”。像同行评审一样,它会“接受”的是“主流”和“不太惊讶的”东西。计算不可约简性不可避免地意味着将有惊讶。由定义,这些不会“轻松简化”为之前所见的东西。

是的,它们可以提供新事实。它们甚至可能有重要的应用。但通常不会有——至少一开始——“人类可访问的叙述”达到它们。创造这个需要我们人类内化一些新的概念,最终变得熟悉。(是的,正如我们之前讨论的那样,如果某个特定的新概念——或例如新定理——似乎是达到事物的“枢纽”,那成为一个我们“添加”值得的新概念。)

但最终,我们想内化哪些“新事实”或“新方向”有一定的任意性。是的,如果我们朝特定方向走,可能会引导我们到某些想法或技术或活动上。但抽象地说,我们不知道哪条路是“正确的”;至少一开始,这似乎是人类选择的一个典型问题。有一个潜在的细节。如果我们的AI对人类心理学和社会了解足够多,它们可以预测“我们会喜欢什么”?一开始看似它们可以成功地“挑选方向”。但计算不可约简性再次阻碍了我们——因为最终我们不能“知道我们会喜欢什么”,直到我们“到达那里”。

我们可以将这一切与生成式AI[87]联系起来,例如图像或文本。最初,我们可以想象枚举由任意像素数组组成的图像。但绝对压倒性的一部分不会对我们“有趣”;它们对我们来说只是“随机噪声”:

神经网络学不会正弦波,也做不到一切(二)

Image 87
通过在数十亿个人类选择的图像上训练神经网络,我们可以让它产生某种“我们通常认为有趣”的图像。有时,生成的图像将是可识别的,以至于我们能够给出“它们看起来像什么”的叙述解释:

神经网络学不会正弦波,也做不到一切(二)

Image 88
但很多时候我们会发现自己处于“概念间空间[88]”中的图像:

神经网络学不会正弦波,也做不到一切(二)

Image 89
这些“有趣”吗?很难说。扫描一个人看着它们的大脑,可能会发现某种特定的信号——也许一个AI可以学会预测。但不可避免地,如果某种类型的“概念间图像”变得流行,并开始被认为是一种人们熟悉的艺术,这个信号会改变。

最终我们回到同一点:事物最终是“有趣的”,如果我们的文明选择使其如此。没有AI或任何东西可以“出去发现”的“有趣性”的抽象概念。

这就是科学。没有办法从所有ruliad的可能性中知道“什么是有趣的”;这最终由我们在“殖民”ruliad中做出的选择决定。

但如果——我们不深入到ruliad的“荒野”——而是接近已经在科学中完成的工作,并且已经“被认为有趣”的东西?AI可以帮助我们扩展现有的东西吗?在某种程度上,答案是肯定的,并且在实际中有许多用途。LLMs应该能够产生遵循学术论文模式的东西——带有“原创性”的点滴,来自LLM中使用的随机性。

这种方法能走多远?现有的学术文献充满了漏洞。现象A在系统X中被研究,B在Y中被研究,但没有相反的情况等。我们可以期望AI——特别是LLMs——在识别这些漏洞方面有用,并计划哪些科学(根据这一标准)值得做的科学。除此之外,我们还可以期望像LLMs这样的东西在绘制出科学的“通常和习惯性”路径方面有用。当涉及到实际“做科学”时,我们的计算语言工具——以及类似于计算控制的实验设备[89]——可能通常会更为核心。

但假设我们为科学定义了一些主要目标(例如“弄清楚如何逆转衰老”,或者更为谦逊地“解决冷冻保存”)。提出这样的目标意味着我们认为这是“有趣的”。然后实现这个目标的问题在概念上类似于证明定理或化学合成途径。我们有一些“可以采取的动作”,我们需要找到如何“串联这些动作”以达到目标。不可避免地,存在(多)计算不可约简性的问题:可能有不可约的步骤数,我们需要采取这些步骤才能到达结果。即使我们认为最终的目标“有趣”,也没有保证我们会发现中间步骤是稍微有趣的[90]。实际上,在许多证明中——以及在许多工程系统中——可能需要建立一个庞大的细节结构,以到达最终的“有趣结果”。

但让我们更多地谈谈要研究什么的问题——实际上,什么是“有趣的研究”。“正常科学”通常关心的是逐步进展,保持在现有范式内,但逐渐填补和扩展现有的东西。通常最富有成果的领域是在现有成熟领域之间的界面。最初,完全不清楚不同科学领域是否应该最终融合。但考虑到ruliad作为最终的基础结构,这开始变得不那么令人惊讶。然而,要实际看到不同科学领域如何被“编织在一起”,往往需要识别非常不同描述框架之间的类比,或许最初是相当令人惊讶的。“元数学中的可判定理论就像物理学中的黑洞”;“语言中的概念就像rulial空间中的粒子”;等等。

这是一个LLMs可以提供帮助的领域。看到一个领域的“语言模式”,可以期望它们看到其在另一个领域的对应——可能带来重要的结果。

但关于科学的新方向呢?历史上,这些通常是由于应用一些新的实际方法(例如进行新的类型实验或测量),恰好打开了一些“新的地方看”,而人们从未看过。但通常一个大的挑战是识别到看到的东西实际上是“有趣的”。要做到这一点,通常涉及创建某种新的概念框架或范式。

AI——如我们在这里讨论的——是否有可能做到这一点?似乎不太可能。AI通常是一些训练于现有的人类材料,旨在直接从中推断的东西。它不是为了“深入ruliad荒野”,远离任何已经与人类联系的东西而建立的。

但从某种意义上说,这正是“任意计算”的领域,以及我们可能枚举或在ruliology中随机选择的简单程序。是的,通过深入到“ruliad的荒野”很容易找到新的、新的东西,而这些东西尚未被科学吸收。挑战在于将它们与我们人类当前“理解”或“感兴趣”的任何事物联系起来。那,正如我们之前所说,根本上涉及人类选择和人类历史的怪癖。有无数的路径可以走。(是的,在“AI社会[91]”中,可以有AI追求某些集合的路径。)但最终,对我们人类和我们通常称为“科学”的企业重要的我们的内部经验[92]。这是我们最终必须为自己形成的东西。

超越“精确科学”


在物理科学等领域,我们习惯了能够开发出可以做定量预测的广泛理论的想法。但是还有许多领域——例如在生物学、人类学和社会科学中——倾向于以少得多的正式方式运作,并且很少有成功的理论推论的长链。

AI会改变这一点吗?似乎有一些有趣的可能性,特别是在AI启用的新型“测量”方面。“这些艺术品有多相似?”“这些有机体的形态有多接近?”“这些神话有多不同?”这些是过去人们主要需要通过写文章来解决的问题。但是现在AI有可能让这些事情变得更明确——从某种意义上更定量。

通常的关键思想是找出如何处理“非结构化原始数据”,并从中提取“有意义的特征”,以便以正式、结构化的方式处理。让这成为可能的主要原因是,我们有AI已在反映“我们世界中的典型事物”的大型语料库上训练——实际上形成了世界的明确内部表示,借此可以以数字列表的形式描述事物。

这些数字意味着什么?一开始我们通常不知道;它们只是一些神经网络编码器的输出。但是,重要的是它们是明确的,并且可以重复。给定相同的输入数据,总会得到相同的数字。更重要的是,通常当数据“对我们看起来相似”时,它往往会被分配到附近的数字。

在物理科学等领域,我们期望构建特定的测量设备来测量我们“知道如何解释”的数量。但是AI更像是一个黑箱:测量了一些东西,但至少一开始我们不一定对其有任何解释。有时我们可以通过训练与我们知道的一些描述相关联,从而得到一个大致的解释(例如在情感分析中的情况)。但通常不会。

(必须说,即使在物理科学中也会发生类似的情况。假设我们测试一种材料是否划伤了另一种材料的表面。大概我们可以将其解释为某种材料的硬度,但实际上它只是一个测量结果,如果我们能成功地将其与其他东西关联起来,这就变得有意义了。)

“AI测量”的一个特别值得注意的地方是,它们有可能从大量的非结构化数据中挑选出“小信号”。我们习惯于用统计等方法对结构化的数字数据做类似的事情。但问从数十亿的网页中,孩子们喜欢科学通常更喜欢猫还是狗,这是一个不同的故事。

但是给定一个“AI测量”,我们可以期望做什么?这些都还不太清楚,但至少有可能我们可以开始找到正式关系。也许这将是一个涉及数字的定量关系;也许它更适合用程序表示,描述一个计算过程,通过该过程,一个测量结果导致其他测量结果。

在像定量金融这样的领域,用简单形式的“AI测量”找到关系已经很常见——并且主要关注它们是否有效,而不是为什么它们有效,或者如何用叙述来描述它们。

某种程度上,基于“黑箱”AI测量来建立科学似乎不太令人满意,但在某种程度上,这只是加速了我们经常做的事情,例如用日常语言。我们暴露于一些新的观察或测量中。最终我们发明了描述它的词语(“它看起来像一个分形”等)。然后我们可以开始“以其为基础进行推理”等。

但是AI测量是一个更丰富的可形式化材料的来源。但我们如何进行这种形式化呢?计算语言似乎是关键。实际上,我们已经有Wolfram语言中的例子——例如ImageIdentity[93]或TextCases[94](或者,LLMFunction[95]),它们可以有效地进行“AI测量”,但然后我们可以获取它们的结果,并以符号方式进行处理。

在物理科学中,我们通常认为我们只处理“客观测量”(尽管我最近的“观察者理论[96]”暗示实际上我们的观察者性质也是关键的)。但AI测量似乎有一种即时的“主观性”——实际上它们的细节(例如与某个神经网络编码器的具体情况相关)对于我们使用的每个不同AI都将有所不同。但重要的是,如果AI是在大量的人类经验上训练的,它将具有一定的稳健性。从某种意义上说,我们可以将许多AI测量视为“社会观察者”的输出——使用类似于大量人类经验的东西,并因此获得一定的“中心性”和“惯性”。

基于“社会观察者”测量的科学我们可以期望是什么样的?在很大程度上,我们还不知道。我们有理由认为(如物理学[97]和元数学[98]中的情况),这些测量可能会利用计算可约简性口袋。如果是这样,我们可以期望我们能够开始做出诸如预测之类的事情——尽管可能仅限于“AI测量”的结果,我们会发现难以解释。但是通过将这些AI测量与计算语言联系起来,似乎有可能在从未可能的地方开始构建“形式化科学”——并在这样做时扩展我们称之为“精确科学”的领域。

(顺便提一句,现代AI的另一个有前途的应用是设置“可重复的角色”:实际上表现得像具有某些特征的人的实体,但可以在物理科学中进行大规模可重复的实验。)

所以……AI可以解决科学吗?


一开始,人们可能会对科学甚至可能存在感到惊讶。为什么世界上有我们可以识别的规律性,使我们能够形成“科学叙述”?实际上,我们现在知道,像ruliad的概念那样,计算不可约简性是不可避免的——以及由此带来的根本的不规则性和不可预测性。但事实证明,计算不可约简性的存在必然意味着存在计算可约简性的口袋,至少某些事情是有规律和可预测的。这是科学基本生活的地方——确实我们尝试操作和与世界互动的地方。

那么这与AI有什么关系呢?好吧,像我们在这里讨论的训练神经网络等的整个故事是利用计算可约简性的故事,特别是与人类思维也使用的计算可约简性对齐。在过去,捕捉和利用计算可约简性的主要方法是开发正式的方法来描述事物,通常使用数学和数学公式。AI实际上提供了一种利用计算可约简性的新的方式。通常没有人类层次的叙述来解释它如何工作;只是某种方式在训练好的神经网络中捕捉到某些规律性,使我们能够,例如,做出某些预测。

从某种意义上说,预测往往非常“人类风格”,通常对我们来说看起来“差不多对”,即使在精确的正式细节层面,它们不完全正确。它们根本上依赖于计算可约简性——当存在计算不可约简性时,它们几乎不可避免地会失败。从某种意义上说,AI在做“浅层计算”,但当存在计算不可约简性时,需要不可约的深层计算来确定会发生什么。

即使在与传统数学结构合作的地方,AI做的也不总是足够的科学所期望的。但在某些地方,“AI风格科学”可以在传统方法不能做到的地方取得进展。如果要做的事情是准确地(例如ODE)解一个方程,AI可能不是最佳工具。但如果你有一大堆方程(例如在机器人学中),AI可能会成功地给出一个有用的“粗略估计”结果,即使传统方法会陷入细节中。

机器学习——和AI——技术的一个普遍特征是,如果一个近似(“80%”)的答案足够好,它们可以非常有用。但它们往往在需要更“精确”和“完美”的东西时失败。有许多科学工作流(可能还有更多可以识别的),这是你所需要的。挑选出候选案例。识别可能重要的特征。建议要探索的可能问题。

有明显的限制,特别是在计算不可约简性存在的地方。从某种意义上说,典型的AI方法不涉及显式“形式化事物”。但在许多科学领域,形式化正是最有价值的,允许取得一系列结果。在最近的时间里,我们有了形式化事物的强大新想法,特别是使用计算语言来实现这一点。

有了这样的计算形式化,我们可以开始做不可约的计算,使我们达到无法预料的发现。例如,我们可以枚举可能的计算系统或过程,看到“根本的惊讶”。典型的AI中有随机性,使我们的探索具有一定程度的“原创性”。但它是一个根本上低于我们可以通过实际不可约的计算所达到的层次。

那么,我们对科学中AI的期望是什么呢?我们有一种新的、相当人类式的利用计算可约简性的方法。它是做科学的新工具,注定在实践中有许多用途。从根本的发现潜力来看,它与我们可以通过计算范式和我们所做的不可约计算构建的东西相比黯然失色。但是,可能在科学前进的过程中给我们最大的机会是结合AI和形式计算范式的优势。这确实是我们近年来通过Wolfram语言及其与机器学习和现在的LLM连接积极追求的一部分。

备注


我在这里的目标是概述我当前对AI在科学中基本潜力(和局限性)的思考——通过使用Wolfram语言及其AI能力进行各种简单实验来发展我的想法。我认为我在这里所做的只是一个开始。基本上每个实验都可以进行更详细、更深入的分析。(只需点击任何图片即可获得生成它的Wolfram语言,这样你可以重复或扩展它。)

“科学中的AI”是当今世界的热门话题,我肯定只了解了一小部分我所听到的东西。我的重点是试图“做显而易见的实验”并试图为自己拼凑出“全貌”要说的是,我对AI的出色工程创新印象深刻,而且我不会对未来这些创新改进实验结果感到惊讶,这些结果可能甚至改变我的“大图”结论。

我还必须道歉。虽然我听到了很多关于“科学中的AI”的讨论,尤其是过去一年,但我没有系统地研究这个领域的文献,也没有追踪其中想法的来源。因此,我必须留给其他人来将我在这里所做的工作与其他人可能(或可能没有)在其他地方做的工作联系起来。分析AI在科学中的历史可能很有趣,但我还没有机会做。

在我的努力中,Wolfram研究所的研究员Richard Assar(“Ruliad研究员”)和Nik Murzin(“Fourmilab研究员”)给予了我很大的帮助。我也感谢与我讨论过——或听说过——AI在科学中(及相关主题)的人们,包括Giulio Alessandrini,Mohammed AlQuraishi,Brian Frezza,Roger Germundsson,George Morgan,Michael Trott和Christopher Wolfram。

Stephen Wolfram:

Wolfram Research 创始人兼首席执行官
Mathematica、Wolfram|Alpha 和 Wolfram Language 的创建者
A New Kind of Science 等书籍 的作者
Wolfram 物理项目 的创始人


参考资料

[1]
代码获取:https://www.wolframcloud.com/obj/caa069ae-4bcc-451d-b6d3-63e26209c776

[2]
LLMs:https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

[3]
新的语言接口:https://writings.stephenwolfram.com/2024/01/the-story-continues-announcing-version-14-of-wolfram-language-and-mathematica/#the-llms-have-landed

[4]
Wolfram语言:https://www.wolfram.com/language/

[5]
向世界的根本计算表示的重大转变之中:https://www.wolframscience.com/nks/p1--an-outline-of-basic-ideas/

[6]
计算语言:https://writings.stephenwolfram.com/2019/05/what-weve-built-is-a-computational-language-and-thats-very-important/

[7]
计算宇宙中对简单程序的“ruliological”研究:https://www.wolframscience.com/nksonline/toc.html

[8]
机器学习:https://www.wolfram.com/language/core-areas/machine-learning

[9]
与我们能够思考或推理的事物连接或翻译:https://writings.stephenwolfram.com/2023/12/observer-theory/

[10]
计算不可约性:https://www.wolframscience.com/nks/chap-12--the-principle-of-computational-equivalence#sect-12-6--computational-irreducibility

[11]
物理项目:https://www.wolframphysics.org/

[12]
计算等价性原理:https://www.wolframscience.com/nks/chap-12--the-principle-of-computational-equivalence/

[13]
有趣的历史共鸣:https://www.wolframscience.com/metamathematics/some-historical-and-philosophical-background/

[14]
Wolfram语言工具:https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/

[15]
计算机和计算:https://writings.stephenwolfram.com/2016/04/my-life-in-technology-as-told-at-the-computer-history-museum/

[16]
大成功是在1981年:https://www.wolframscience.com/nks/chap-1--the-foundations-for-a-new-kind-of-science#sect-1-4--the-personal-story-of-the-science-in-this-book

[17]
可能规则(基本元胞自动机):https://www.wolframscience.com/nks/chap-2--the-crucial-experiment#sect-2-1--how-do-simple-programs-behave

[18]
规则30:https://www.wolframscience.com/nks/p27--how-do-simple-programs-behave/

[19]
让我通过系统枚举:https://www.wolframscience.com/nks/p709--universality-in-turing-machines-and-other-systems/

[20]
2007年被证明是通用的:https://www.wolframscience.com/prizes/tm23/

[21]
Nand:https://reference.wolfram.com/language/ref/Nand.html

[22]
我最终找到了单一的6运算公理:https://writings.stephenwolfram.com/2018/11/logic-explainability-and-the-future-of-understanding/

[23]
超图重写规则:https://www.wolframphysics.org/technical-introduction/

[24]
对应于我们物理宇宙的最低层结构:https://writings.stephenwolfram.com/2020/04/finally-we-may-have-a-path-to-the-fundamental-theory-of-physics-and-its-beautiful/

[25]
几何图形:https://www.wolframphysics.org/universes/

[26]
特征空间图:https://reference.wolfram.com/language/ref/FeatureSpacePlot.html

[27]
视觉图像:https://www.wolframphysics.org/technical-introduction/typical-behaviors/random-rules-and-overall-classification-of-behavior/#p-144

[28]
现今Wolfram语言的1.0版:https://www.wolfram.com/mathematica/scrapbook/

[29]
花费数月计算机时间:https://www.stephenwolfram.com/publications/jerry-keiper/

[30]
非常简单的神经网络:https://reference.wolfram.com/language/ref/LinearLayer.html

[31]
训练:https://reference.wolfram.com/language/ref/NetTrain.html

[32]
激活函数:https://reference.wolfram.com/language/ref/ElementwiseLayer.html

[33]
构建的我们“数据”的近似:https://resources.wolframcloud.com/FunctionRepository/resources/EconomizedRationalApproximation

[34]
时间序列预测:https://reference.wolfram.com/language/ref/TimeSeriesForecast.html

[35]
拟合递归关系:https://reference.wolfram.com/language/ref/FindLinearRecurrence.html

[36]
transformer 神经网络:https://reference.wolfram.com/language/ref/AttentionLayer.html

[37]
ChatGPT学会了“语言和常识的一般模式”:https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

[38]
傅里叶分析:https://reference.wolfram.com/language/ref/FourierSeries.html

[39]
发现计算简化性:https://www.wolframscience.com/nks/chap-10--processes-of-perception-and-analysis/

[40]
适当的角度就会显示出明显的规律:https://www.wolframscience.com/nks/p320--the-intrinsic-generation-of-randomness/

[41]
标准的现代图像自编码器:https://resources.wolframcloud.com/NeuralNetRepository/resources/Stable-Diffusion-V1

[42]
MNIST图像训练集:https://datarepository.wolframcloud.com/resources/MNIST

[43]
四种行为类别:https://www.wolframscience.com/nks/chap-6--starting-from-randomness#sect-6-2--four-classes-of-behavior

[44]
制作图像:https://writings.stephenwolfram.com/2023/07/generative-ai-space-and-the-mental-imagery-of-alien-minds/#generating-images-with-ais

[45]
元数学空间:https://www.wolframscience.com/metamathematics/

[46]
“封闭形式”公式:https://www.wolframscience.com/nks/notes-12-6--history-of-exact-solutions/

[47]
三体问题:https://www.wolframscience.com/nks/notes-7-4--three-body-problem/

[48]
三体问题为什么如此具有挑战性:https://writings.stephenwolfram.com/2017/08/when-exactly-will-the-eclipse-happen-a-multimillenium-tale-of-computation/#can-the-three-body-problem-be-solved

[49]
显示出对初始条件的敏感依赖性:https://www.wolframscience.com/nks/p314--chaos-theory-and-randomness-from-initial-conditions/

[50]
_x_等随时间演化。是的,可以在这里使用神经网络,通常在实际中具有显著的优势。但计算不可约简性呢?在实际中,许多方程和情况(例如工程目的)往往避免它,但[一般来说它确实存在:https://www.wolframscience.com/nks/p165--partial-differential-equations/

[51]
获胜序列:https://writings.stephenwolfram.com/2022/06/games-and-puzzles-as-multicomputational-systems/

[52]
解决谜题的方法:https://writings.stephenwolfram.com/2022/06/games-and-puzzles-as-multicomputational-systems/

[53]
定理的证明:https://www.wolframscience.com/metamathematics/the-metamodeling-of-axiomatic-mathematics/

[54]
自动定理证明:https://www.wolframscience.com/metamathematics/relations-to-automated-theorem-proving/

[55]
量子LLM:https://www.wolframphysics.org/technical-introduction/potential-relation-to-physics/quantum-formalism

[56]
图的距离函数:https://reference.wolfram.com/language/ref/GraphDistance.html

[57]
多计算不可约简性:https://writings.stephenwolfram.com/2022/06/games-and-puzzles-as-multicomputational-systems/#humanizing-multicomputational-processes

[58]
游戏或谜题:https://writings.stephenwolfram.com/2022/06/games-and-puzzles-as-multicomputational-systems/

[59]
元数学空间:https://www.wolframscience.com/metamathematics/

[60]
Wolfram语言:https://www.wolfram.com/language/

[61]
帮助——“LLM风格”:https://writings.stephenwolfram.com/2023/06/introducing-chat-notebooks-integrating-llms-into-the-notebook-paradigm/

[62]
计算宇宙:https://www.wolframscience.com/nks/

[63]
ruliad:https://writings.stephenwolfram.com/2021/11/the-concept-of-the-ruliad/

[64]
结构:https://www.wolframscience.com/nks/chap-7--mechanisms-in-programs-and-nature#sect-7-8--the-problem-of-satisfying-constraints

[65]
机器学习中看到的那样:https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/#machine-learning-and-the-training-of-neural-nets

[66]
寻找具有长停止时间的小图灵机:https://www.wolframscience.com/nks/notes-3-4--history-of-turing-machines/

[67]
数学证明:https://writings.stephenwolfram.com/2018/11/logic-explainability-and-the-future-of-understanding/

[68]
自动定理证明:https://reference.wolfram.com/language/ref/FindEquationalProof.html

[69]
未知的元数学领域:https://www.wolframscience.com/metamathematics/

[70]
Wolfram|Alpha:https://www.wolframalpha.com/

[71]
其答案的逐步解释:https://www.wolframalpha.com/examples/pro-features/step-by-step-solutions

[72]
计算语言:https://writings.stephenwolfram.com/2019/05/what-weve-built-is-a-computational-language-and-thats-very-important/

[73]
FindFormula:http://reference.wolfram.com/language/ref/FindFormula.html

[74]
早期部分:https://writings.stephenwolfram.com/2024/03/can-ai-solve-science/#identifying-computational-reducibility

[75]
图像识别神经网络:https://reference.wolfram.com/language/ref/ImageIdentify.html

[76]
概念间空间:https://writings.stephenwolfram.com/2023/07/generative-ai-space-and-the-mental-imagery-of-alien-minds/#the-notion-of-interconcept-space

[77]
1981年的我那样:https://www.wolframscience.com/nks/chap-1--the-foundations-for-a-new-kind-of-science#sect-1-4--the-personal-story-of-the-science-in-this-book

[78]
学习数据的“典型分布”:https://reference.wolfram.com/language/ref/LearnDistribution.html

[79]
碳氢化合物分子家族:烷烃:https://www.wolframscience.com/nks/notes-12-11--interesting-chemicals/

[80]
Wolfram知识库:https://www.wolfram.com/knowledgebase/

[81]
汇集不同的登记册:https://reference.wolfram.com/language/ref/MoleculeValue.html

[82]
通过从公理开始枚举可能的数学定理:https://www.wolframscience.com/metamathematics/

[83]
从一些典型的逻辑公理:https://www.wolframscience.com/metamathematics/axiom-systems-of-present-day-mathematics/

[84]
似乎有一个系统的模式:https://www.wolframscience.com/nks/p817--implications-for-mathematics-and-its-foundations/

[85]
通常被命名的定理:https://www.wolframscience.com/metamathematics/empirical-metamathematics/

[86]
第二种“AI辅助多方式系统遍历”的方法:https://writings.stephenwolfram.com/2024/03/can-ai-solve-science/#ai-for-multicomputation

[87]
生成式AI:https://writings.stephenwolfram.com/2023/07/generative-ai-space-and-the-mental-imagery-of-alien-minds/#appendix-how-does-the-generative-ai-work

[88]
概念间空间:https://writings.stephenwolfram.com/2023/07/generative-ai-space-and-the-mental-imagery-of-alien-minds/#the-images-of-interconcept-space

[89]
计算控制的实验设备:https://www.emeraldcloudlab.com/

[90]
发现中间步骤是稍微有趣的:https://writings.stephenwolfram.com/2018/11/logic-explainability-and-the-future-of-understanding/#the-nature-of-explainability

[91]
AI社会:https://writings.stephenwolfram.com/2023/03/will-ais-take-all-our-jobs-and-end-human-history-or-not-well-its-complicated/#a-world-run-by-ais

[92]
我们的内部经验:https://writings.stephenwolfram.com/2023/12/observer-theory/

[93]
ImageIdentity:https://reference.wolfram.com/language/ref/ImageIdentify.html

[94]
TextCases:https://reference.wolfram.com/language/ref/TextCases.html

[95]
LLMFunction:https://reference.wolfram.com/language/ref/LLMFunction.html

[96]
观察者理论:https://writings.stephenwolfram.com/2023/12/observer-theory/

[97]
物理学:https://writings.stephenwolfram.com/2023/12/observer-theory/#how-observers-construct-their-perceived-reality

[98]
元数学:https://writings.stephenwolfram.com/2023/12/observer-theory/#observers-of-abstract-worlds


相关栏目:『生物医学
真的改写教科书了!《细胞》证实新型RNA分子的存在,或影响免疫系统 2024-09-01 [42]
逝者的大脑,“活”在脑库中 2024-09-01 [42]
科学家培育出“迷你大脑”,最终会产生意识吗? 2024-09-01 [37]
人脑记忆的盲点被科学家找到了,能增强记忆,但不是很好做到 2024-09-01 [38]
让Karpathy倍感意外的研究:人类大脑已被塑料污染 2024-08-29 [50]
二合一的基因编辑技术 2024-08-27 [65]
长期焦虑却误以为正常的这种表现,越早发现越好 2024-08-25 [128]
《自然》子刊:大脑存在5种衰老模式 2024-08-21 [341]
Nature最新研究 :禁食并非没有代价!禁食后再食,增加患癌风险 2024-08-23 [161]
在精神科门诊里,孩子们的年纪越来越小 2024-08-23 [150]
相关栏目更多文章
最新图文:
:日本政府《氢能利用进度表》 :美国《2016-2045年新兴科技趋势报告》 :天津工业大学“经纬英才”引进计划 :浙江财经大学国际青年学者论坛的邀请函 (10/31-11/1) :美国加大审查范围 北大多名美国留学生遭联邦调查局质询 :天安门广场喜迎“十一”花团锦簇的美丽景象 马亮:做院长就能够发更多论文?论文发表是不是一场“权力的游戏”? :印裔人才在美碾压华裔:我们可以从印度教育中学到什么?
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.