用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向学人动向
关键字  范围   
 
薛澜:中国大部分模型都是“套壳”,算力也被“卡脖子”了
作者:林志佳 | 2024/4/4 11:15:27 | 浏览:485 | 评论:0

薛澜:中国大部分模型都是“套壳”,算力也被“卡脖子”了

4月1日消息,近期举行的中国数字经济发展和治理学术年会(2024)上,清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜教授以《人工智能发展的治理挑战》为题进行了主旨演讲。

薛澜在演讲中表示,中国 AI 最新发展态势基本平稳,现在国内有超过130个大模型。尽管单从量上讲进步很大,但实际上中国大模型还存在不少问题。他提到有不少大模型是用“套壳”和拼装的方式构建的,而且算力也被“卡脖子”了。

“目前很多国外的模型是开源的,那么在开源的基础上进行套壳就可以形成一个套壳的大模型,接着再将一些这样的大模型拼装在一起就变成更大的大模型,这种方式做出来的大模型背后的原创性是有限的。另外,我们算力也被“卡脖子”,比如英伟达的GPU A100和H100被美国禁售,很多公司受到影响。”薛澜表示,此外,中国数据质量比较低,没有真正产业化,相对标准化的数据服务商还比较少,而且中国资本短视等,都是中国大模型产业下一步发展需要思考和解决的问题。

这是薛澜近期非常罕见地提及中国与美国 AI 大模型产业的一些套壳、算力、技术差距等问题。

薛澜表示,随着2022年11月份ChatGPT问世之后, AI 领域技术创新加速,尤其是以OpenAI为代表的美国技术前沿公司更是形成了你追我赶的局面。今年OpenAI推出了非常独特、跨模态的视频生成工具Sora,时长可以达到60秒,惊艳全球,将对短视频等很多媒体娱乐行业产生巨大冲击。同时,自动驾驶、广告、教育、医疗、安防等不同领域也受到很大影响并有可能成为Sora潜在的应用市场。

“同时,美国在AI算力的核心硬件方面也有很多新突破,如Groq LPU这一新的大模型推理芯片,其制程虽然还是14nm,但由于有TSA架构,使得其特定的处理能力非常快,推理速度比GPU快10倍,但能耗只是它的1/10。”薛澜称。

薛澜坦言,随着美国Groq、英伟达、OpenAI等公布多个 AI 新技术不断突破,进一步把中美大模型技术差距拉大,这对于中国的创新体系是一个很大的冲击。

”中国现在的创新模式还是遵循比较传统的线性模式,即从学术研究开始,到工程技术,最后再到产品。这个模式无法形成研究、工程和市场间密不可分的生态,这是现在中国创新体系亟待解决的问题。“薛澜表示。

薛澜指出,“中国 AI 的最新发展态势基本平稳,中国在 AI 领域发表论文全世界最多,美国是第二,中美合作的论文也很多。在AI大模型方面,现在已经超过130个大模型。如果单从量上讲进步很大,但是实际上我们的大模型还存在不少问题,因为有不少是用套壳和拼装的方式构建的。而且,我们的算力也被‘卡脖子’。

同时,中国数据质量比较低也是一个问题。中国的数据量很大,但没有真正产业化,相对标准化的数据服务商还比较少,因为大数据服务不赚钱,公共数据企业没有意愿去清洗,定制化服务又一般收费比较高。因此,数据市场如何构建也是需要解决的问题。

另外就是资本短视。资本短视有各种各样的原因,其中一个原因是对中国资本市场政策不稳定的担心,另外就是商业化面临一些挑战等。所有这些都是中国大模型产业下一步发展需要思考和解决的问题。”

薛澜:中国大部分模型都是“套壳”,算力也被“卡脖子”了

薛澜认为,从综合社会收益讲,生成式 AI 的渗透性非常强,对社会影响是全面的。对制造业来说,AI 有利于推动产业的数智化转型升级,在推进新质生产力和高质量发展方面潜力巨大。中国在这方面已经做了很多探索,例如,三一重工制造工厂应用 AI 技术后提高185%,生产周期30天缩短到7天。同时,AI 在推动智力密集型的服务产业规模化方面也发挥了巨大作用。

但是,“AI 的潜在风险体现在多个层面。在个体层面,AI可能引发算法歧视、知识产权争议、信息错误等问题,这与技术本身相关。应用和开发过程中也有问题,包括数据隐私保护、防范伪造等。目前我们比较关心的是这些直接的影响,但是社会层面还有一些更长远的大问题,如劳动力结构调整、产业结构调整等影响。同时,由于劳动力结构调整,可能对收入分配影响很大,从而加剧数字鸿沟、社会不公平等问题,这些都是需要慎重考虑的。另外大模型训练的能源消耗非常厉害,现在看来可能所增加的温室气体排放也是不能忽视的。有人估算,ChatGPT在整个训练周期的碳排放量相当于开车到月亮再返回地球的总量。”薛澜表示。
薛澜认为,“在国家安全层面的问题同样让人担心,包括对社会稳定的影响,在军事上的应用等。”

“在更高层面的风险上,我们都非常关心的就是通用人工智能(AGI)会不会在哪一天不受人控制?会不会影响整个人类社会的生存?也就是硅基文明和碳基文明今后会有什么冲突?这个层面的风险是人类社会生存的风险。在这类问题上,ChatGPT的出现影响了整个社会,尤其在技术领域,很多专家也开始高度关注这个问题。2020年,当时一些技术领域的专家对提出 AI 治理还有不同看法,认为 AI 技术刚刚发展起来,谈治理太早了。除此之外,当时我们对所谓AGI的潜在风险还没有那么担心,但ChatGPT出来后变化就很大了。最近,我参与了一些著名 AI 技术专家和治理专家的共同努力,撰写一篇提交给《科学》(Science)的论文。这篇论文就指出,我们已经到了刻不容缓需要推动 AI 全球治理的阶段。这些技术专家之所以认为情况变了,就是因为ChatGPT的出现让他们认为AGI可能出现的时间要大大提前。”薛澜指出。
薛澜强调,AI在电商、医疗、教育、科研等领域有很多应用,可能产生巨大的社会收益,但也会有很多风险,我们需要探讨怎么有效规避。技术本身产生的风险是典型案例。这里有个例子,当我们问ChatGPT北京清华大学校歌歌词是什么时,它会编造一个错误的答案,把北京大学和清华大学的一些信息混用。除此之外,还有数据滥用、隐私泄露、深度伪造等很多其他风险。再如在电商这一特定情境下,有些电商会做虚假宣传、大数据“杀熟”等。另外,未来 AI 领域的发展还需要综合考虑其社会效应,包括在塑造人类文明新形态的作用等。
薛澜坦言,从2017年的《新一代 AI 发展规划》开始,中国制定了三个阶段三步走的 AI 发展战略,AI 治理就是其中重要的内容,规划中明确提出关注 AI 的潜在风险、建设有效治理体系任务等。在2020年后,中国加快了 AI 治理步伐。
薛澜表示,中国的 AI 有雄厚积累与先发优势,形成了自上而下和自下而上相结合的治理框架,AI 技术也有非常广阔的应用场景,不过也要解决形成不同企业公平竞争市场环境、产业生态以及聚集全球顶尖 AI 人才等问题,推动 AI 产业健康有序发展。
除了上述言论外,薛澜最近还在“中国发展高层论坛2024年年会”人工智能发展与治理专题研讨会上表示,AI治理有四大挑战,并建议加强国际合作、解决地缘政治问题。
薛澜:中国大部分模型都是“套壳”,算力也被“卡脖子”了

薛澜认为,政策制定和科技发展步调不一致,造成 AI 治理的挑战。他指出,AI 的技术发展非常快,但治理体系的变化相对慢一些——一个法律法规要出台,其实要经过一系列的论证和各方面的考虑。
同时,政府端和企业端信息不对称,也给 AI 治理增加难度。传统的治理,是政府去治理和规制,而企业被规制,一般来讲是用“猫和老鼠”的游戏——企业要想办法去躲避政府的规制,政府要去挑企业的问题在哪里。但实际上,双方有很多盲区。企业不知道政府规制最关心的问题在哪儿,而技术发展可能会带来什么风险,政府也不清楚。所以双方的信息不对称,或者有时候共同无知的情况也经常出现。
此外,AI 治理的另一个挑战,是在风险规制的过程中的成本不对称。薛澜举例,滥用或误用 AI 的技术成本相当低,但要去防范这种风险非常困难,所需的成本要远远高于它有可能造成的危害。
最后一个挑战则来自全球治理。薛澜指出, AI 的治理是全球治理的问题,不是任何一个国家、任何一个国际组织或者一个企业独自能解决的。专业组织、国际组织、基金会、企业等组织都对这个问题有一定的治理兴趣,甚至于他们也有这方面的能力和条件,但是所有这些组织之间没有从属关系。
“联合国是不是最大的?但联合国可能管不了很多企业。中国政府管中国的企业有可能,但是管不了美国的企业,”薛澜指出,一系列机构互相之间有重叠、有矛盾还都有相关的利益,希望来参与治理,这样使得全球治理体系的形成就有很大的困难。
目前,全球政府均在完善生成式 AI 的监管。2023年8月,七部门公布《生成式人工智能服务管理暂行办法》开始施行。美国白宫则在2023年10月发布AI监管令,最强大的AI系统的开发者在训练模型时必须通知联邦政府。2023年11月,全球首届AI安全峰会在英国布莱切利园举办,中国、美国和欧盟在内的28个国家和地区签署了《布莱切利 AI 安全宣言》(Bletchley Declaration)。而在欧洲,《AI 法案》已在2024年3月生效。
对于前述四大挑战,薛澜提出一系列建议,包括要加强安全和技术研发,尤其要加强国际合作,同时鼓励企业的自我规制,学习国际民航业、核电站等行业的自我规制机制。
薛澜还特别提到地缘政治问题。他指出,美国国务卿布林肯把对华科技政策称为“小院高墙”,但在科技话题下,怎样才是真正的小院?薛澜提出,在 AI 领域,中美双方要加强合作,才能真正解决人类面临的各种问题。
2023年,中国提出《全球人工智能治理倡议》,围绕 AI 发展、安全、治理三方面系统阐述了 AI 治理中国方案,包括主张建立 AI 风险等级测试评估体系,不断提升 AI 技术的安全性、可靠性、可控性、公平性;支持在充分尊重各国政策和实践基础上,形成具有广泛共识的全球 AI 治理框架和标准规范,支持在联合国框架下讨论成立国际 AI 治理机构等。

“总体来说,中国的 AI 有雄厚积累与先发优势,形成了推动 AI 发展的总体规划,在过去发展过程中也形成了自上而下和自下而上相结合的治理框架, AI 技术也有非常广阔的应用场景。同时,中国 AI 发展未来也面临着一些挑战。

首先是怎么样形成不同企业公平竞争的市场环境,包括民营企业、国有企业和外资企业、包括大中小企业等等,这种多元公平竞争的市场环境对 AI 领域发展至关重要;其次是产业生态问题,如何建立企业、资金、人才等多方面主体和多方面资源能够有效流通协调一致的产业生态。第三是治理问题,怎么形成可预期、包容审慎、敏捷有效的治理框架,为形成鼓励 AI 发展的市场环境和产业生态奠定制度基础;最后,就是怎么聚集全球顶尖 AI 人才,OpenAI是全世界各国不同优秀人才聚集发展起来,人才多元化程度很高,中国在这方面需要加大开放力度。”薛澜坦言。

薛澜在演讲结尾强调,“在各方面的共同努力下,中国 AI 领域能够抓住发展机遇,克服重重困难,迎接多方面的挑战,有效防控各种风险,让 AI 的发展为中国现代化建设服务,为世界和平发展服务。”


相关栏目:『学人动向
10余年,辗转多地读博,终于迎来高光时刻!她用2张图,发了一篇Nature! 2024-04-28 [118]
一个历史学教授的感悟是:我们所说的历史,多半靠不住 2024-04-28 [130]
托马斯·奥格登:对崩溃的恐惧和没有活过的人生(Fear of Breakdown and the Unlived Life) 2024-04-26 [115]
海伦·文德勒逝世丨批评家是如何炼成的? 2024-04-26 [105]
丹尼特:哲学是认知科学的一部分 2024-04-26 [107]
许倬云:一百年左右的时间,逐渐一步步往下走,真是吊诡的现象 2024-04-24 [168]
杨祖保教授:在跌宕的分离世界中提纯的高科技 2024-04-24 [125]
沈志华教授应邀主讲“对冷战起源的再思考” 2024-04-24 [184]
康德诞辰三百年|苏珊·奈曼:为什么这个世界仍需要伊曼纽尔·康德 2024-04-23 [143]
两个老头儿写的神奇算法,统治了全世界! 2024-04-23 [228]
相关栏目更多文章
最新图文:
:陈文玲: 必须推动中美关系回到正确轨道 Colleen Flaherty 翻译 刘勤:MIT教授发文《美国经济评论》 :生命科学受益于明星科学家们的死亡 :北京和上海金融人的最新鄙视链 :日本政府《氢能利用进度表》 :美国《2016-2045年新兴科技趋势报告》 :天津工业大学“经纬英才”引进计划 :浙江财经大学国际青年学者论坛的邀请函 (10/31-11/1) :美国加大审查范围 北大多名美国留学生遭联邦调查局质询
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.