用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向科技前沿
关键字  范围   
 
霍金:科技进步或导致人类“自毁”
霍金:科技进步或导致人类“自毁”
2016/1/19 6:43:37 | 浏览:2528 | 评论:0

霍金:科技进步或导致人类“自毁”

史蒂芬·霍金

  著名科学家、剑桥大学教授史蒂芬·霍金说,人类正面临着一系列由我们自己制造出来的危机。不仅如此,霍金还表示,科学和技术的进一步发展将制造出“新危机的可能性”。霍金日前在英国广播公司发表年度演讲,主题是关于黑洞的科研现状。
 
  人工智能取代人类
 
  霍金说,如果在其他星球上建立定居点最终能够实现,那么人们或许能躲过灭顶之灾、幸存下来。“虽然地球在某个特定年份遭遇重大灾难的可能性很小,但随着时间的推移,灾难发生的可能性却越来越大。在下一个千年到接下来的十个千年之间,毁灭几乎在劫难逃。”霍金说,“但到了那时,人类应该已经具备在宇宙间移民的能力,可能可以在其他星球落脚,所以地球的灾难也许并不意味着人类的灭亡。”但霍金也警告:“至少在接下来的几百年间,人类都尚无能力在宇宙间建立一个自给自足的定居点,所以我们在具备移民外星的能力前,还是应该小心谨慎。”
 
  让人颇感讽刺的是:霍金作为科学界的偶像级人物,却将科学进步视为新的危机的源泉。在之前的一些场合,霍金曾强调,随着人工智能的发展,也许有一天它将强大到灭绝人类。但霍金也坚持认为,一定会有办法应对这种风险。
 
  确保科技发展“走正路”
 
  当被问及对年轻的科学家有什么建议时,霍金教授说,要对“我们广阔而复杂”的宇宙保持一种好奇和惊叹的感觉。
 
  “在我个人看来,活在这世间,并且能够从事理论物理研究,是一件美妙至极的事。当你灵光一现,发现了一些其他人从未发现的东西时,那种感觉是无与伦比的。”霍金认为,新一代的科研工作者应该意识到科技进步如何改变世界,并应该帮助大众理解这种变化。
 
  “最重要的是,要保证科技进步带来的改变一直在正确的道路上。”霍金认为,在一个民主社会中,这意味着每个人都应该具备对科学的基本知识,在充分了解信息的情况下,对未来作出决定。
 
  在患上肌萎缩侧索硬化后,史蒂芬·霍金教授并未向身体的残障屈服,这为他赢得了全世界的钦佩。(思珈)

霍金:未来100年人类很危险 只有殖民火星这条路

(BBC 相关报道)

 你会相信,人类离灭亡最近的时刻,是下一个百年吗?信不信由你,至少霍金信了。

  在 BBC 近期的采访中,史蒂芬·霍金警告道:由于科学和技术的快速发展,在未来的一百年里,人类将时刻处在自我毁灭的危险之中。

  作为著名物理学家霍金认为,迅猛发展的科技在为我们带来各种福利的同时,也创造了“新的出问题的方式”,这带来的高风险是人类很难控制的。他尤其强调核战争、全球气候变暖和基因工程病毒的危险性,表示这三者很可能就是我们自创末日的预兆。

  这并非是霍金第一次提到世界末日。早在 2014 年,霍金就曾提醒我们注意人工智能的威胁。他认为一旦人工智能跨过了与人类智慧相同的“奇点”( Singular Point ),我们可能会面临“智慧爆炸”(intelligence explosion),届时,人工智能在智慧上超越我们,而且将比人类超过蜗牛的程度还大。这对人类产生的影响,要么就是最好的,要么就是最糟糕的。它既可能让人类永生,也可能让人类毁灭。

  不过,霍金还在采访中表示,他是一个彻底的乐观主义者。他相信人类终有办法克服面临的问题。对此霍金给出的建议是:殖民火星。他觉得这个方法可以保证在最坏的情况降临时,还能有一部分人类在其他星球的“避风港”中继续生存下去。

  但是,在接下来的一个世纪,这恐怕很难成为现实。而霍金认为,尽管现在发生全球性灾难的几率很低,但它会随着时间的推移增加,并在接下来的一千年到一万年之间变成 100%。而人类正在没有安全网的情况下飞速地前进着,这让下个世纪变成了“最危险的 100年”。所以霍金说:“未来的 100 年生死攸关,所以我们必须非常小心。”

开玩笑?马斯克和霍金获得“阻碍科技创新奖”

你或许不认为伊隆-马斯克(Elon Musk)和史蒂芬-霍金(Stephen Hawking)是技术恐惧者,毕竟马斯克的特斯拉促进了电动汽车市场的繁荣,而霍金则是物理学的泰斗级人物,但他们二人却因为担忧人工智能的发展而获颁2015年“卢德奖”。 这个奖项每年由IT与创新基金会评选,专门颁发给那些试图阻碍技术创新的人。

霍金:科技进步或导致人类“自毁”

伊隆-马斯克

好消息是,作为推动PC普及的最大功臣,比尔-盖茨(Bill Gates)也获得该奖项的提名。

马斯克和霍金在普通人眼中代表了最先进的技术进步和科学理论,但他们为什么会获得卢德奖呢?原因是他们二人成立了“松散的联盟”,对新技术“杞人忧天”,导致人们害怕人工智能技术。IT与创新基金会第二届卢德奖共提名10位候选人,最终的两位获奖者得到了3,680选票中的27%。

卢德一词源自19世纪的英格兰,当时的纺织工人反对使用动力织布机和其他节省劳动力的设备。而《韦氏词典》则将卢德定义为阻碍科技进步的人。

IT与创新基金会主席罗布·阿特金森(Rob Atkinson)说:“马斯克是卢德的对立面,但我的确认为他给了卢德社区以帮助和便利。”马斯克、霍金和很多人工智能专家都表示,这项技术成为了人类最大的存在性威胁。

特斯拉和霍金均未对此置评。

马斯克从不讳言人工智能对人类构成的潜在威胁。他担心的是机器一旦具备了与人类相似的智能,就会对人类构成伤害。2014年,他发表推文称,人工智能的潜在威胁大于核武器。而霍金也在去年5月与他人共同在《独立报》上撰文称:“尽管人工智能的短期影响取决于控制它的人,但长期影响却取决于它究竟能否被控制。”

去年1月,他们二人还签署了一封由未来生命研究所发出的公开信,承诺人工智能领域的进步不会脱离人类的控制。去年7月,他们还签署了另外一份公开信,呼吁禁止开发自动化武器。未来生命研究所也在研究许多方式,希望降低人工智能武器的潜在风险。该研究所由数学和计算机科学专家共同创立,其中也包括Skype联合创始人简·塔林(Jaan Tallinn)和麻省理工学院教授麦克斯·泰格马克(Max Tegmark)。

盖茨去年表示,他和马斯克观点相同。“在这个问题上,我认同伊隆·马斯克和其他人的理念。我不明白有些人为什么不担心。”他在Reddit的一次活动中说。

IT和创新基金会表示,问题不在于马斯克等人表达的观点,而在于他们表达观点的方式。“提醒人们以安全负责的态度开发人工智能技术并无不妥。”阿特金森说,“问题在于,他们的口吻让很多人感到害怕。”   

相关栏目:『科技前沿
如何绘制Nature漂亮的机制示意图? 2024-06-29 [432]
加州大学颠覆性大模型架构,FPGA重回AI舞台? 2024-06-29 [473]
OpenAI前首席科学家Ilya创立新公司,瞄准超越AGI的“超级人工智能”和绝对的AI安全 2024-06-21 [578]
2024年最新影响因子(完整版)已更新!2024年最新影响因子(完整版)已更新! 2024-06-21 [675]
苹果AI一夜颠覆所有!Siri史诗级进化,内挂ChatGPT-4o,奥特曼来了,马斯克怒了 2024-06-13 [768]
Transformer结合U-Net登上Nature子刊!最新成果让精度和效率都很美丽 2024-06-13 [779]
大撕裂理论:220亿年后宇宙终结,地球将在宇宙终结前几分钟毁灭 2024-06-08 [928]
我们看见暗物质了吗? 2024-06-07 [860]
如果不流浪地球,能直接住在流浪行星上吗? 2024-06-07 [836]
宇宙大爆炸并不存在?量子模型预测宇宙无始无终 2024-06-04 [976]
相关栏目更多文章
最新图文:
:浙江财经大学国际青年学者论坛的邀请函 (10/31-11/1) :美国加大审查范围 北大多名美国留学生遭联邦调查局质询 :天安门广场喜迎“十一”花团锦簇的美丽景象 马亮:做院长就能够发更多论文?论文发表是不是一场“权力的游戏”? :印裔人才在美碾压华裔:我们可以从印度教育中学到什么? :北京452万人将从北京迁至雄安(附部分央企名单) :《2019全球肿瘤趋势报告》 :阿尔茨海默病预防与干预核心讯息图解
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.