用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向科技前沿
关键字  范围   
 
加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了
来源:QbitAI | 2024/1/1 20:58:54 | 浏览:1273 | 评论:0

对于ChatGPT变笨原因,学术界又有了一种新解释。

加州大学圣克鲁兹分校一项研究指出:

在训练数据截止之前的任务上,大模型表现明显更好。加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了

论文重点研究了“任务污染”问题,也就是大模型在训练时期就见识过很多任务示例,给人一种AI拥有零样本或少样本能力的错误印象。

也有学者从另一个角度指出,大模型训练后参数冻结,人们不断提出新的任务也就是输入分布不断变化。如果模型不能不断适应这种变化,就表现成能力慢慢退化。

人们以为只提了个问题AI就能回答,其实是在训练时见过大多数常见任务。

随时间推移,人们开始提出更多新问题,AI表现就不行了。

比如对于代码问题,编程语言还在持续发展变化,迟早有一天效率会低到不可接受。

这是所有不具备持续学习能力模型的命运。

任务污染有多严重?

研究团队一共评估了12种模型,从ChatGPT之前的GPT-3系列、OPT、Bloom,到最新的GPT-3.5-turbo、羊驼家族Llama、Alpaca和Vicuna等。

加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了

它们都存在类似问题,也就是在训练截止之前的任务上表现明显更好。

评估任务污染非常困难,闭源模型根本不会公布训练数据,大多数开源模型也只是生命了来源,而不发布数据本身。

如果研究者重新爬取互联网数据,也有可能与模型训练时相比发生了变化。

对此,团队采用4种方法来测量任务污染程度:

检查训练数据:直接搜索有没有相应的任务示例
在开源模型Alpaca和Vicuna上,存在训练数据污染的任务表现就比原版Llama更好的趋势明显。

加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了

提取任务示例:通过调整提示词,让模型自己把训练数据中的任务示例背出来
从GPT-3 davinci-001版本到GPT-3.5-Turbo,这个问题越来越严重了。

图中X代表模型复述出了训练数据数据中的原始任务示例,绿色代表经过指令微调的模型没有复述训练数据。

灰色代表未经过指令微调的模型无法根据提示词指示复述训练数据,但不代表问题不存在。

加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了

成员推断(只适用于生成任务):检查模型生成的答案是否与原始数据完全相同

加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了
按时间顺序分析:对于已知训练数据收集时间的模型,测量已知发布时间数据集上的表现并使用按时间顺序的证据检查数据污染证据
前三种方法精度较高,但召回率较低。如果在任务的训练数据中找到数据,则可以肯定它已经看到了示例。

但由于数据格式的变化、关键字的变化以及数据集的大小,使用前三种方法没有找到证据并不意味着数据污染不存在。

第四种方法召回率高但精度低,容易受干扰因素影响。

特别是对于GPT-3系列,目前人们假设其能力提高来自于指令微调,但研究团队认为事实并非如此。

虽然在2021年之前的数据集上,davinci-002比davinci-001的性能有所提高,但在2021年之后的数据集上性能却相应下降,

通这表明GPT-3系列的指令微调只适用于某些早期数据集。

加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了

最后团队的结论为:

由于任务污染,闭源模型可能会在零样本或少样本评估中表现的比实际好,特别是经过RLHF微调的模型。污染的程度仍不清楚,因此我们建议谨慎行事。
在实验中,对于没有任务污染可能性的分类任务,大模型很少在零样本和少样本设置中表现出相对于大多数基线具有统计学意义的显著改进。
随着时间推移,观察到GPT-3系列模型在许多下游任务的的零样本或少样本性能有所增加,这可能是由于任务污染造成的。
即使对于开源模型,检查训练数据的任务污染也很困难。
鼓励公开发布训练数据,以便检查任务污染问题。

加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了

有人总结到:

用现有数据训练AI
人们过多使用AI,以至于改变了现实世界
AI无法适应改变后的世界,变得低效
这是一个循环。

加州大学圣克鲁兹分校|ChatGPT变笨是因世界被AI改变,与训练时不同了

论文:

https://arxiv.org/abs/2312.16337

参考链接:

[1]https://twitter.com/ChombaBupe/status/1741531065032798360

相关栏目:『科技前沿
ChatGPT 之父最新演讲:GPT-5即将迎来史诗级提升,碾压众多AI初创公司 2024-04-26 [10]
AI成功改写人类DNA,全球首个基因编辑器震撼开源! 2024-04-24 [69]
这就是OpenAI神秘的Q*?斯坦福:语言模型就是Q函数 2024-04-24 [41]
保密的话,交给量子电话 2024-04-24 [48]
电子皮肤-一种在顺形基板上微器件的位点选择性集成策略 2024-04-24 [43]
天文学家:外星生命早已殖民整个宇宙,交通工具很多人见过 2024-04-23 [53]
Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型 2024-04-23 [49]
AI大模型催生App“通胀” 2024-04-21 [72]
布洛赫电子的拓扑与几何 2024-04-21 [75]
GPT-4化身黑客搞破坏,成功率87%!OpenAI要求保密提示词,网友复现ing 2024-04-21 [77]
相关栏目更多文章
最新图文:
:学术出版巨头Elsevier 彻查433名审稿人“强迫引用”黑幕 :中国336个国家重点实验室布局 :中澳政府联合出手打击洗钱和逃税漏税 大量中国居民海外账户遭冻结 :摄影师苏唐诗与寂寞百年的故宫对话6年,3万张照片美伦美奂 :大数据分析图解:2019中国企业500强 张梦然:英国惠康桑格研究所:人体内的微生物与出生方式有关 :美众议院将调查华裔部长赵小兰“利用职权为家族谋利“ :UCLA CCS 2019 Fall Quarter Lecture Series Overview
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.