史蒂芬·霍金
著名科学家、剑桥大学教授史蒂芬·霍金说,人类正面临着一系列由我们自己制造出来的危机。不仅如此,霍金还表示,科学和技术的进一步发展将制造出“新危机的可能性”。霍金日前在英国广播公司发表年度演讲,主题是关于黑洞的科研现状。
人工智能取代人类
霍金说,如果在其他星球上建立定居点最终能够实现,那么人们或许能躲过灭顶之灾、幸存下来。“虽然地球在某个特定年份遭遇重大灾难的可能性很小,但随着时间的推移,灾难发生的可能性却越来越大。在下一个千年到接下来的十个千年之间,毁灭几乎在劫难逃。”霍金说,“但到了那时,人类应该已经具备在宇宙间移民的能力,可能可以在其他星球落脚,所以地球的灾难也许并不意味着人类的灭亡。”但霍金也警告:“至少在接下来的几百年间,人类都尚无能力在宇宙间建立一个自给自足的定居点,所以我们在具备移民外星的能力前,还是应该小心谨慎。”
让人颇感讽刺的是:霍金作为科学界的偶像级人物,却将科学进步视为新的危机的源泉。在之前的一些场合,霍金曾强调,随着人工智能的发展,也许有一天它将强大到灭绝人类。但霍金也坚持认为,一定会有办法应对这种风险。
确保科技发展“走正路”
当被问及对年轻的科学家有什么建议时,霍金教授说,要对“我们广阔而复杂”的宇宙保持一种好奇和惊叹的感觉。
“在我个人看来,活在这世间,并且能够从事理论物理研究,是一件美妙至极的事。当你灵光一现,发现了一些其他人从未发现的东西时,那种感觉是无与伦比的。”霍金认为,新一代的科研工作者应该意识到科技进步如何改变世界,并应该帮助大众理解这种变化。
“最重要的是,要保证科技进步带来的改变一直在正确的道路上。”霍金认为,在一个民主社会中,这意味着每个人都应该具备对科学的基本知识,在充分了解信息的情况下,对未来作出决定。
在患上肌萎缩侧索硬化后,史蒂芬·霍金教授并未向身体的残障屈服,这为他赢得了全世界的钦佩。(思珈)
霍金:未来100年人类很危险 只有殖民火星这条路
(BBC 相关报道)
你会相信,人类离灭亡最近的时刻,是下一个百年吗?信不信由你,至少霍金信了。
在 BBC 近期的采访中,史蒂芬·霍金警告道:由于科学和技术的快速发展,在未来的一百年里,人类将时刻处在自我毁灭的危险之中。
作为著名物理学家霍金认为,迅猛发展的科技在为我们带来各种福利的同时,也创造了“新的出问题的方式”,这带来的高风险是人类很难控制的。他尤其强调核战争、全球气候变暖和基因工程病毒的危险性,表示这三者很可能就是我们自创末日的预兆。
这并非是霍金第一次提到世界末日。早在 2014 年,霍金就曾提醒我们注意人工智能的威胁。他认为一旦人工智能跨过了与人类智慧相同的“奇点”( Singular Point ),我们可能会面临“智慧爆炸”(intelligence explosion),届时,人工智能在智慧上超越我们,而且将比人类超过蜗牛的程度还大。这对人类产生的影响,要么就是最好的,要么就是最糟糕的。它既可能让人类永生,也可能让人类毁灭。
不过,霍金还在采访中表示,他是一个彻底的乐观主义者。他相信人类终有办法克服面临的问题。对此霍金给出的建议是:殖民火星。他觉得这个方法可以保证在最坏的情况降临时,还能有一部分人类在其他星球的“避风港”中继续生存下去。
但是,在接下来的一个世纪,这恐怕很难成为现实。而霍金认为,尽管现在发生全球性灾难的几率很低,但它会随着时间的推移增加,并在接下来的一千年到一万年之间变成 100%。而人类正在没有安全网的情况下飞速地前进着,这让下个世纪变成了“最危险的 100年”。所以霍金说:“未来的 100 年生死攸关,所以我们必须非常小心。”
开玩笑?马斯克和霍金获得“阻碍科技创新奖”
你或许不认为伊隆-马斯克(Elon Musk)和史蒂芬-霍金(Stephen Hawking)是技术恐惧者,毕竟马斯克的特斯拉促进了电动汽车市场的繁荣,而霍金则是物理学的泰斗级人物,但他们二人却因为担忧人工智能的发展而获颁2015年“卢德奖”。 这个奖项每年由IT与创新基金会评选,专门颁发给那些试图阻碍技术创新的人。
伊隆-马斯克
好消息是,作为推动PC普及的最大功臣,比尔-盖茨(Bill Gates)也获得该奖项的提名。
马斯克和霍金在普通人眼中代表了最先进的技术进步和科学理论,但他们为什么会获得卢德奖呢?原因是他们二人成立了“松散的联盟”,对新技术“杞人忧天”,导致人们害怕人工智能技术。IT与创新基金会第二届卢德奖共提名10位候选人,最终的两位获奖者得到了3,680选票中的27%。
卢德一词源自19世纪的英格兰,当时的纺织工人反对使用动力织布机和其他节省劳动力的设备。而《韦氏词典》则将卢德定义为阻碍科技进步的人。
IT与创新基金会主席罗布·阿特金森(Rob Atkinson)说:“马斯克是卢德的对立面,但我的确认为他给了卢德社区以帮助和便利。”马斯克、霍金和很多人工智能专家都表示,这项技术成为了人类最大的存在性威胁。
特斯拉和霍金均未对此置评。
马斯克从不讳言人工智能对人类构成的潜在威胁。他担心的是机器一旦具备了与人类相似的智能,就会对人类构成伤害。2014年,他发表推文称,人工智能的潜在威胁大于核武器。而霍金也在去年5月与他人共同在《独立报》上撰文称:“尽管人工智能的短期影响取决于控制它的人,但长期影响却取决于它究竟能否被控制。”
去年1月,他们二人还签署了一封由未来生命研究所发出的公开信,承诺人工智能领域的进步不会脱离人类的控制。去年7月,他们还签署了另外一份公开信,呼吁禁止开发自动化武器。未来生命研究所也在研究许多方式,希望降低人工智能武器的潜在风险。该研究所由数学和计算机科学专家共同创立,其中也包括Skype联合创始人简·塔林(Jaan Tallinn)和麻省理工学院教授麦克斯·泰格马克(Max Tegmark)。
盖茨去年表示,他和马斯克观点相同。“在这个问题上,我认同伊隆·马斯克和其他人的理念。我不明白有些人为什么不担心。”他在Reddit的一次活动中说。
IT和创新基金会表示,问题不在于马斯克等人表达的观点,而在于他们表达观点的方式。“提醒人们以安全负责的态度开发人工智能技术并无不妥。”阿特金森说,“问题在于,他们的口吻让很多人感到害怕。”