伍隅
AlphaGo如果想更接近人类,它的思考方式必须像一个人
AlphaGo接连两战打败李世石。有些人突然睡不着觉了。
睡不着的人多半不是为了感叹,诶呀!科技真进步!而是担心突然有一天,黑客帝国的一幕出现在眼前:“人类是一种病毒……我们(机器人)才是解药……”
AlphaGo是划时代的
和90年代深蓝战胜国际象棋冠军——卡斯帕罗夫,所引发的人类对AI初次集体焦虑不同。这一次,AlphaGo没有使用蛮力算法(brute force algorithm)。当年深蓝的胜出方式很干脆,卡斯帕罗夫说自己每下一步,会推演3-5步,在棋局关键步数上会提前计算12-14步。而深蓝可以每秒钟轻松计算出上亿个棋子可能移动的位置。尽管,卡斯帕罗夫在下棋过程中故意不按常理出棋,试图打破计算机的惯性思维,甚至在落败后强调对方作弊,上演了一系列狗血故事,但最终大部分人还是相信,97年一战之后,计算机已经可以超越人类国际象棋棋手。
但围棋不同。它是人类最具变化性的桌游项目。在19乘19的棋盘格上,黑白两子所能演变出来的可能性是3(黑、白、空)的361次方(19*19)。除去规则上不允许的组合,依然约有2.08×10^170种可能。下棋过程,棋子之间完全没有优劣高低(比如象棋的车比兵的力量强大),无法对变量进行赋值计算,方寸之间瞬息万变。有人计算过靠超级运算能力,算出必胜棋局需要的运算量在10^600以上。目前根本做不到。但更重要的是,这并不是人类下棋的思维方式。AlphaGo如果想更接近人类,它的思考方式必须像一个人。
根据Google的说法,AlphaGo不是一台单纯的超级计算机,而是由多个数据中心作为节点相连的神经网络系统,这种卷积神经网络常常用来做图像识别。而且它还有两套神经网络,策略网络(policy network),和价值网络(value network)。AlphaGo用策略网络运算靠谱的下棋招式,并且同时用价值网络减少不必要的瞎想,也就是说它只会集中精力想未来的20步棋,而不是天马行空的计算上百步。这会更较接近人类的思考方式。在有关AlphaGo大战李世石的报道里,都在不断强调,人类棋手在下围棋时,常常凭借“直觉”(intuition)也就是棋感。而AlphaGo则通过大量的学习,表现出了这种直觉。
但AlphaGo的胜利并不是源自于一种新技术和新算法,而是表现出了目前这种算法展现出的新高度。
但它还没牛到可以毁灭人类
没人觉得以现在人工智能的水平,能前一秒在围棋上击败了李世石,后一秒就开始琢磨人类怎么这么笨,于是决定自我复制,最终统治地球。但人工智能发展了60年,很多人逐渐觉得,未来的AI不可能一心一意为人类服务,鞠躬尽瘁死而后已。尤其是当它们足够聪明,就不可能甘心做一个工具。
对于人工智能的讨论已经不光是一个科学问题,还是一个哲学的问题。但究竟这个世界能否出现对人类有威胁的人工智能,依然是所有讨论的基础。有一派人坚定的认为,人类不可能造出超越人脑的机器。而另一部分人则觉得值得期待,如果非要给出一个时限,人们给出的中值是在2040年到2050年之间。
但无论人们觉得人工智能是造福、还是毁灭人类,如果不继续研究下去,都始终无法给出结论。只有当我们越深入开发,才能越了解它的危险和价值,并且采取对应的措施。面对人工智能的理智态度,绝不是停滞不前,空想和焦虑。
如果AI够聪明,它就一定要毁灭人类吗?
人类开发出超越人类智力水平的人工智能,和它们将毁灭人类,这两者之间没有必然的因果关系。
首先,智力水平和领导地位在某种程度上缺乏必然联系。智力超群的人类,比如科学家和哲学家,在我们这个社会中并没有扮演统治者的角色。即便是最聪明的科学家也要等着政府拨款和企业赞助。而权力和资源、社会关系的关系反而更加密切。所以想要靠智力水平超越人类,从而实现统治,需要的恐怕不是一般意义的高智商,而是我们无法体会的超高智商。
其次,我很同意Evernote创始人Phil Libin对于AI的观点。就算有一天,一个超高智力水平,且完全理性思考的人工智能,真的获得了统治地位。为什么这个地球的最新主宰者,做出的理智决定是要毁灭全人类?事实上,人类越聪明,越不会轻易杀人,也不会对其他物种实施灭绝政策。相反我们会保护野生物种,和生态环境。这面除了感情的因素,还有更多理性思考,因为它们会对人类产生价值。除非,它们没有价值,或者“有害”。
归根结底,那些对于人工智能的恐惧,还是源于我们对于自身缺陷的担忧,对人类不智行为的愧疚,以及对这个我们本身这个物种缺乏自信。我们担心的不是人工智能,而是担心出现一个超人。它有超越人类的能力,以及超越人类的“自私”和“邪恶”。才会把人类曾经做出的极端行为,加倍奉还。
相比AI,人类更可能会毁在其他问题上
人工智能的确是一个我们需要关注和警惕的领域,就像所有现代科学领域,如果不能有效的控制管理,都有可能产生巨大威力。但它目前仍然不是一个我们需要为之焦虑的话题。尤其是当我们面对空气污染,气候变化,贫困和流行病,这些更有可能随时消灭人类的现实问题时。
尽管,比尔盖茨发表过AI将对人类产生威胁的观点,但盖茨基金会大部分的工作重点依然在防止传染病方面。而他本人也认为(经过大量计算和分析),如果在有生之年经历人类大规模消亡,那么最有可能的祸根,不是核战争、不地震,也不是小行星的撞击,而是一场大规模的流行病。从致死数字和比例上看,黑死病和1918年的全球性H1N1甲型流感,完胜世界大战。Elon Musk也谈过人工智能的危险,但他目前在搞的这些无人驾驶技术,说白了也是人工智能。
显然,最了解人工智能的人群,并没有我们想象的那么焦虑。