虎嗅注:文章作者说无论是马斯克之流的AI脑机接口派还是VR领域的直接输入派,都没回答过这样一个致命的问题:大脑可以向机器输出信号,但是可以接受机器向人脑输入信号吗?
所谓控制就必须有输入和输出双向的反馈,但是机器向人脑输入信号,直接挑战了自然感官刺激脑中枢的人类自然感知,这不会抹除人类的自我意识?人类会不会变成徒有人形的机器人?本文作者是中山大学人机互联实验室的翟振明教授和朱奕如教授,虎嗅获授权刊发,对原文有些许删改。
马斯克和霍金都在预警人工智能对人类的极大威胁,马斯克还宣称有了应对措施:先把人脑与人工智能融合。他还说干就干,成立了新公司。
但我的预警却是:马斯克要做的事对人类的威胁,比人工智能的威胁要大得多。我们要联合起来,坚决抵制!
致命的问题
埃隆·马斯克(Elon Musk)成立的新公司Neuralink要把人脑与计算机直接融合。马斯克宣称,人类社会即将全面进入人工智能时代,为了避免被新物种——超人工智能威胁甚至消灭,人们唯一的出路就是将自己的大脑与AI融为一体。
无独有偶,我最近在很多场合做演讲谈到VR(虚拟现实)的未来发展,期望头盔越来越小越来越轻变成一般眼镜的样子,就经常有业界人士接茬说,以后哪里需要眼镜,接到脑中枢就是了。
马斯克希望“脑机界面”能进行人类意识的实时翻译并将之转化为可输出的电子信号,从而可以连接并控制各种外部设备,用他的话说就是“当你的念头一闪而过时,电视机或车库门便自动打开了”。
初一看,这里说的是人脑控制信号的输出,但是所有的控制都需要信号的反馈,也就是说,在设计输出的接口时同时还要设计输入的回路,才能实施控制。
但是,无论是马斯克之流的AI脑机接口派还是VR领域的直接输入派,都没回答过这样一个致命的问题:“你们知道如何防止人类的自我意识被彻底抹除吗?”
目前以Neuralink为代表的科技公司所试图做的脑机互联,却极有可能将人类个体变成徒有人形的机器人,亦即行走的“僵尸”,彻底终结人类文明。
如若仅仅出于害怕人类在超人工智能时代到来时不能与AI在劳动力市场相匹敌甚至被淘汰而企图将人类变成AI,这将是对人类最紧迫且最严重的威胁。人脑是迄今为止我们所知的最为复杂精巧的东西,在我们还没有基本摸清其运作原理之前,对其进行任何加工改造都是极端危险的行为。
信息与信号的分离或混淆
我们的自然感官,主要是让我们接受认知性的信息,而不是让外来的控制信号随便侵入,这就为保护和维持我们每个个体的主体地位打下了基础。有鉴于此,我们必须要坚持如下三条初始状态的“非对称原则”:
1.从客体到主体这个方向,信息越通畅越好,控制信号阻滞度越高越好。
2.从主体到客体这个方向,控制信号越畅通越好,信息密封度越高越好。
3.以上两条的松动调节,以最严苛的程序保证以各个主体为主导。
那么,如果现在放开搞“脑机连接”,危险在哪里呢?对照以上原则,我们可以归纳出以下几方面的可能风险。
其一,由于现今人类对自己的大脑与自我意识的关联的认识还非常有限,也对认知性智能与自由意志之间的关联的认识基本为零,在这样无知的前提下贸然实施大脑直接干涉,很有可能将人类的自我意识(或曰“灵魂”)严重破坏甚至彻底抹除。
其二,就算没有抹除,在作为认知材料的“信息”和控制人的行为的“信号”之间不能做到基本分离的社会和技术条件下,有了绕过人的自然感官直接刺激脑中枢的技术手段,将给一部分人控制另一部分人提供极大的方便,对人的自由和尊严构成严重的外来威胁。
其三,当人们还没达成法律共识将脑机接口的信息和信号的流向设置权完全赋予同一主体之前,一个人由于可能直接被外来意识控制所带来的损失,比他可以直接控制外部设备所带来的方便,或许要大得多。
以上几条不同层面的风险,哪一条都足以构成我们联合抵制马斯克等人的“脑机融合”项目的充足理由。
被夸大的人工智能的威胁
具有“人类意识”的人工智能会不会统治甚至毁灭人类社会。马斯克、盖茨、霍金这些偶像级的大人物,都在发出警示。
而马斯克还即刻付诸行动,要将人类每个个体先用AI全面武装起来,以对抗垄断AI的假想的邪恶势力。但是,从上文我们已经看到,如此具有行动力的人,却有着一个思想力上的致命伤,对人的自我主体意识问题缺乏思考,从而成为了一个危险人物。
马斯克在哲学界有个同道,这就是尼克·博斯特姆(Nick Bostrom)教授。他相信无论只有智能的AI还是具有自主意识的AI,都完全是由计算来实现的。由此他还做出了一个逆天的判断:我们人类的意识,在接近100%的概率上,不是真实存在的意识,而是被计算机模拟出来的“假意识”。
但是,第三人称世界的对象可以分真假,第一人称世界中的意识何以分真假?博斯特姆基于自然主义的计算主义使他陷入到虚妄的境地之中。更为严重的是,大企业家马斯克之流也循着这个思路前行的话,就会彻底忽略“脑机连接”项目最致命的危险。
笔者经过多年的独立研究,加上近来与美国量子物理学家亨利·斯塔普(Henry Stapp)的讨论,笔者已经得出结论,物理主义和计算主义对人类意识的解释是误入歧途的,因为这些解释者都不可避免地陷入了“整一性投射谬误”(Fallacy of Unity Projection)之中不可自拔(见《哲学研究》2015年第6期笔者发表的论文)。
笔者得出的结论是,以计算机模仿神经元网络的方式造出来的人工智能不可能具有真正的自我意识,只有按照某种非定域原理(比如量子力学)建造出来的人工系统,才有可能具有第一人称视角的主观世界和自由意志。
所以,除非有人以确凿的证据向我们证明如何按照非定域原理把精神意识引入某个人工系统,不管该系统的可观察行为与人类行为多么相似,我们都不能认为该系统真的具有了精神意识,该系统都还是属于工具性的“弱人工智能”。
弱人工智能是在特定领域类似、等同或者超过人类智能/效率(不具备自我意识)的机器智能。就目前已广泛应用的人体识别、机器视觉、自动驾驶、机器深度学习等AI技术而言,都属于擅长单一活动的弱人工智能范畴。
可以“战胜”李世石、柯洁的AlphaGo也不例外。AlphaGo的工作原理是训练多层符号化的人工神经网络进行“深度学习”,这种“学习”,实质是将大量矩阵数据作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出,调整权重分配,反复迭代逼近期望值,直至满意,就把权重矩阵固化下来,从学习状态转到工作状态。本人与斯塔普的研究表明,这样的学习过程,从头到尾都没有任何机会让“自我意识”涌现。
以雷·库兹韦尔为代表的未来学家认为“智能爆炸”正在发生,但他们并没有论证过人类的自我意识和人类的智能的分别在哪里,也就无法揭示这种所谓的“智能爆炸”到底是福还是祸,从而所谓的“乐观”还是“悲观”的区分都显得肤浅和不得要领。
也就是说,这种危机感类似于被迫害妄想症,而问题症结不在于人工智能这项技术,而在于有这种意识的人群本身。因为在没有完全弄清楚人工智能与自主意识的问题之前,将人工智能拟人化或主观赋予其行为动机都是出于人们臆想的焦灼和恐惧,所以这种威胁实属“人为”而非“机为”。
正如最近大热的科幻剧集《西部世界》和《黑镜》系列所隐喻的那样,部分人认为人工智能的“觉醒”才是对人类最致命的威胁。他们害怕人工智能发展到具有自由意志和自主意识的强人工智能阶段后,会拥有跟人类一样的“人性”腹黑面而与人为敌。
但是,正如以上所说,现今冯·诺依曼框架下的二进制计算机的工作原理依赖经典物理学的“定域原则”,永远不可能“觉醒”,而只有以“非定域原则”为构架的计算机(比如量子计算机)才有可能产生自我意识。所以,在现今神经网络人工智能独领风骚的情况下,这种担心完全多余。
那么,如果基于量子力学我们真的制造出了具有自我主体意识的强人工智能呢?这时我们就要彻底转变思路了,此时有意识和情感的人工智能也具有与人类对等的人格结构,在社会地位与权利尊严等方面应与人类一致。
拿它们去买卖,相当于法律上的贩卖人口。进一步地,我们必须将它们看成是我们的后代,与我们在实验室培育试管婴儿并无本质上的差别。自古以来,我们都希望自己的后代超越自己啊,“强人工智能”比我们强,我们庆贺都来不及,还焦虑什么呢?
按照人文理性的要求,面对自己创造的具有自我意识的强人工智能存在体,我们的基本态度应是接受并认可他们是人类进化了的后代。正如经过上万年的演变后,躲在山洞里的智人成为穿梭于摩天大厦里的现代人的历史进程一样,人类以崭新的方式繁衍出一种新面貌的超级智能人,这不是灭世的劫难而是人类的跳跃式进化。