用户名:  密码:   
网站首页即时通讯活动公告最新消息科技前沿学人动向两岸三地人在海外历届活动关于我们联系我们申请加入
栏目导航 — 美国华裔教授专家网科技动向科技前沿
关键字  范围   
 
美国机器人产业前途探究
美国机器人产业前途探究
2014/1/4 14:22:02 | 浏览:3067 | 评论:0

美国机器人产业前途探究

  目前世界各地的各类机器人发明数量稳步提升,美国军方也丝毫不怠慢。几年之前,美国空军无人机执行任务逾一百万小时。机器人爱好者们使用如Arduno的平台建造自己的机器人,他们制造的机器人已有数千个。

  最近特斯拉宣布公司有意研发无人驾驶汽车,并在2018年将产品推向市场。Chris Anderson辞去《连线杂志》总编一职,成立并经营一家机器人公司。

  但是机器人产业正处于十字路口位置,其面临着一个选择,机器人技术到底应该封闭化还是开放化?

封闭软件 有碍创新

  将机器人封闭化就像现代的家用电器,他们被设定成只执行一种任务的平台。家电运行的是专用软件,就像洗碗机一样只能够洗碗而做不了其它工作。

  开放的机器人正好相反,他们没有预先制定的功能,运行第三方或者甚至是开放资源软件,可对外形进行修改和扩展,并且不会影响到性能。

  消费性机器人就属于封闭式,这也就是为什么消费性机器人的发展如此缓慢的原因。数年前仅有少数公司,如索尼,iRobot制造消费性机器人或编写机器人软件。

  个人电脑设计用于运行任何人编写的所有软件,的确,许多颇受欢迎的创新应用程序或“杀手应用”并非出自苹果公司或IBM,而是业余编码员之手。消费者购买个人电脑并非为了电脑会做什么,而是能做什么。

  开放性机器人也是如此,其具有可拓展性或者模块化的特性让开放性机器人具有第二优势,日后多种用途和有实际用途的机器人价格将会不断升高。

  两年之前消费者电子展会上iRobot推出了一款名为AVA的机器人,该款机器人可运行第三方应用程序。但是接踵而至的却是版权诉讼,索尼公司也为AIBO推出了一款软件开发工具,可用于教室或比赛。

  机器人开放平台的问题在于为制造商带来各种潜在的诉讼问题。如果机器人可以做任何事,那么也就可以做任何坏事。如果机器人可以运行各种软件,那么也可以运行病毒或恶意软件,甚至还有可能运行杀手应用程序,杀害人类。

阿西莫夫三大定律与机器人法则的现实性

  目前不少国家开发了智能战场机器人,这些机器人杀手让人们担心《圣经》中描述的审判之日离我们不远,出于对战场机器人的顾虑,不少政府开始更加关注对战场机器人问题,至少距离完全禁止生产机器人杀手迈出了第一步,当然,是在机器人杀手被造出来之前。

  2013年11月,CCW(《特定常规武器公约》)的成员国同意明年在日内瓦举办会议讨论“致命自主武器”的议题,这个名字是官方的叫法,抗议者们称之为“机器人杀手”。

  机器人对军方而言优势太大:无需报酬、不吃不喝不睡觉、自主执行上级命令、不会害怕、愤怒,也不会痛苦。还有,即便机器人在战场上轰成渣,也不会造成国内悲痛。

  从第一辆坦克投入战场到以色列研制的大卫的投石索飞弹,技术改变战争的例子不胜枚举。进来备受争议的战争用无人机便是例子,但是即便如此,无人机也需要人远程控制。无论是锁定目标还是发射导弹,做决定的都是人。

  无数专家关心的其实是下一代机器人武器:可以自行决定目标并杀死目标的武器。

禁止制造机器人杀手

美国机器人产业前途探究

  “明年开始全球国家将对机器人武器进行讨论,这对禁止制造机器人武器是一个巨大的进步,”人权观察的武器负责人Steve Goose说,“各国政府已经意识到全自动化武器带来巨大的立法压力和道德压力,问题已经刻不容缓。”

  目前完全自主机器人武器部署到战场可能还需要等上20-30年,由学者和专家组成的国际机器人控制委员会(ICRAC)担心可能发生的机器人武器军备竞赛,认为有必要禁止研发和使用自主武器系统。委员会指出:“机器不能做出谋杀人类的决定。”

  目前还没有那个国家制造出自主武器,但是这个提议绝非只是纸上谈兵。今年下半年美国国防部(DOD)发布了如何使用自主武器以及如何在战场部署自主武器的规划书。书中规定了如何操作自主武器,然而却没有只字提到禁止使用。

  国防部指导中写到:“自主和半自主武器应该能够听得懂指挥官或操作人员下令开火的合适命令。”规划中要求武器要做到“足够机动灵活,尽量避免执行计划外行动或让未授权使用者操控机器。”

  但是指导似乎的的确确放弃人工智能武器,而选用人类精确定位目标:“有人监控自主武器系统可以用于选择目标并向目标开火,但目标不可为人类,以应对拦截美国国内可能发生的袭击行动,这些行动经常是时敏目标或密集目标。”

  英国政府的态度则与美国相反,英国并不打算采用全自主武器。今年初英国外交部部长Alistair Burt向国会做陈述说“英国军队的武器控制权始终掌握在人类手中,以此保证武器由人类监督由人类掌管,并由人类负责使用武器。”但是随后Burt的言辞又让人寻味:“英国单方面做出承诺目前阶段绝不部署致命自助武器系统,但是这不表明英国会签署暂缓研发和使用自主机器人武器的条约。”

  ICRAC主席Norl Sharker是英国谢菲尔德大学研究人工智能和机器人的一名教授。这位教授看过了自主武器的军方计划书后大为震惊,因为“军方显然完全过分预估了这项技术,他们对自主机器人的看法更像是科幻小说的描写。”

  ICRAC 提议禁止研发和制造自主机器人武器的目的并不是抵抗自主机器人。“我家里用的吸尘器机器人就是自主机器人,我研究自主机器人的开发已经有30个年头了。”ICRAC真正希望是禁止机器人拥有“杀戮功能”。自主机器人一旦运行,就会自主寻找目标并打击目标,Sharkey说:“打击目标的意思是指杀死目标。把机器人设计成自己选择自己认为合适的目标进行打击,这就是ICRAC要阻止的。”

  对 Sharkey来说机器人根本不会遵循基本的战争法。机器人无法区分战斗人员和平民,也无法分辨出哪些人是伤兵或者那些建筑是符合战争法中规定的可打击目标。“没有任何人工智能机器人武器可以做到完全分辨目标,根本不可能。”Sharkey博士指着英国制造的可以区分人和汽车的机器人说“这太机器人可以分辨人和汽车,但却分不清对面站着的是一只跳舞的狗熊还是一条两条后腿站立的狗。”

  机器人武器也不能判断利弊,他说,机器人无法判断某次攻击行为造成的军事打击和平民伤亡孰重孰轻。“机器人怎么可能知道?军事打击获得的战争优势都可以让博士们发表好几篇论文了,战场上有太多变数,只有身经百战的指挥官身临战场才能做出判断。”

  Sharkey指出最大的问题其实还是负责制度。如果某次军事行动出错,机器人无法被问责,这也是与Sharkey交流过的指挥者们真正担心的问题:如果机器人出错了,倒霉的可是指挥官们。

  “这对指挥官不公平,机器人随时会崩溃当机,机器人有可能被人类诱骗,可能被黑,可能由于编程中的某次出错让黑客通过计算机控制开枪,机器人的传感器可能出现故障,而这一切又应该由谁来负责呢?是制造者?软件工程师?机器人工程师?还是指挥官?在战场上一旦出错必须清楚谁该负责。“

  Sharkey关心的是一旦技术上的限制被突破,战争机器人极有可能逐步推广到全世界的战场。“自主机器人技术并非用于战争,即便自主机器人武器被部署在战场,这项技术本身也不适合用于战争。”

  战场上的科技树越攀越高,自主机器人投入使用的可能行也越来越大。如果仅靠拦截通讯就可以阻拦敌方无人机,那么可以轻易自主执行任务的无人机就会被开发出来。同样的道理,遥控无人机驾驶员在遥控装置上发出一个指令到无人机真正执行之间有1.5秒的延时,人工操控无人机的反应速度会不如自主无人机,这也为自主无人机的推广给出了理由。

  ICRAC希望管制传统武器联合国大会此次讨论自主武器将为禁止自主机器人武器迈出第一步,对激光致盲武器的禁令就是这么走过来的。

  “机器人有权决定是否杀死人类,这是人们必须面对的道德抉择。”

  人们对自主机器人武器的误解达到了不可思议的地步,其中的原因是对人工智能抱有太大期望,实际上人工智能的水平还远没有达到人们的预期,或者,用 Sharkey教授的话说“因为科幻小说而导致的人们对人工智能的文化曲解。”机器人研究者指出AI目前的应用领域都是一些极为平常的领域,并非用于制造能够思考的机器人。

  “20年内可感知机器人会诞生,而在每个年代都有人扬言智能机器人就要诞生了,但是真正的机器人工作者们却从来不这么说,他们继续着他们的研究。人工智能在不断发展,它的身影遍布我们身边只是我们从没意识到——手机和汽车,这都是科学家们研究的内容。”

  有人指出在遥远的未来人工智能可能发展成熟,电脑可以遵守战争基本法,即便这样,最基本的道德问题依然没有消失。Sharkey说:“谁改负责的问题依然没有得到解决,人们还是要抉择是否应该让机器人有权杀死人类。”

机器人法则

  对机器人是否拥有权利杀人的讨论可能略显神秘,争论本身也还是很模糊,尤其是——杀人机器人还不存在。

  目前我们的工作是为特殊用途制定特殊的机器人规则,例如国防部的自主武器系统规划。另一个不那么雄伟的例子:美国一些州最近准备通过允许自主驾驶汽车上路的法案。我们正为不同的机器人应用领域制定不同的机器人规则,却很少去研究机器人杀人问题。

  然而,有许多人提出创建一系列新的规则和道德框架来掌握人工智能和机器人。这其中最出名的也是是阿西莫夫的机器人三大定律,这套规则在1942年首次被提出,至少在科幻世界中已经为机器人的行为准则制订了道德框架。

  无论是机器人还是人工智能都没有发展到足以理解或遵守这三条定律,亦或者是其他复杂的规则。吸尘机器人就不需要理解如此复杂的道德规则。

  “人类想出了阿西莫夫定律,但是定律本身就表明了简单的道德规则无法运作。如果你通读三大定律你会发现每条定律都说不通,阿西莫夫定律是不切实际的。”英国巴斯大学的Joanna Bryson教授说。

  Bryson 教授强调机器人和人工智能只能被视为最先进的工具——极端复杂的工具,但是仅此而已。她指出人工只能应该被当做人类智能的扩展,就像书写成书是人类记忆的扩展一样。“人工智能只是人类千百年来改造世界的无数工具之一,”她说“不同的是改造的速度比以前更快了。”

  无论机器人的自主能力和智能达到何种水平,对Bryson来说,机器人和人工智能都只属于工具范畴,因此需要规则的并非机器人而是人类。“人们需要在自身建立道德框架,机器人用不着拥有自己的道德框架。人类要做出选择,把机器人放在人的道德框架之内,才不会残杀地球上的其他生命。”

  英国工程和物理科学研究理事会(EPSRC)是少数几个致力于制定一套实用 的机器人规则的组织,但是很快EPSRC就意识到目前机器人并不需要这么一套规则。

  EPSRC的机器人守则中注明:“阿西莫夫定律的不恰当性在于规则规定了机器人应该怎么做,规则将机器人视作人类,但是现实中,设计和使用机器人的人类才必须成为类似这种规则的遵守者。如果在人类社会中考量机器人的道德规则,很明显所有责任不在机器人。”

  由此,EPSRC的专家包括Bryson博士制定的规则的目标针对机器人的设计者、制造者和使用者,对机器人本身并不适用。

  举例来说,五条规则包括:“人类,非机器人,是责任承担者。机器人的设计和操作必须遵守现行的各项法律法规和基本人权以及包括隐私权在内的自由权。”

  伦敦大学学院的Kathleen Richardson教授也表示无须为还不存在的机器人制定新的规则以保护人类不收其他机器的侵害,即便这些机器人被用于战场。

  “遥控杀人机器会导致一系列人与人之间暴力相处的新问题。在这种情况下,你必须了解机器会杀死“正确”目标……即便这样,遥控杀人机器和机器人道德还是没有关系,真正需要关心的是人类道德。”她说到。

  “目前我们制造的机器人不是科幻小说中的思考机器人,她说,因此健康标准和安全标准反而是最重要的问题。我们建造的机器人不是一不小心就攻击你的机器人,我们的工作是帮助机器人分清对错。”

  “人类要做出选择,把机器人放在人的道德框架之内。”

  “科学家研制的机器人类似自动便利设备,”她说,“我们应该把更多关注放到实际造出来的机器上面,我们要保证人们使用的机器是安全的机器。我们不需要为机器人制定“特殊”规则,人们口中讨论的能够掌握道德观的机器人还不存在并且未来也不太可能存在。”她也说到。

  也许我们需要的可能是保证我们家中使用的两足机器人的安全性,这是更实际的考量,这也是你在使用家庭中所有消费电器时要考虑的因素。

  “还有,道德观实际上比这些定律和规则负责得多,”她说:“道德观是一系列相异的见解,不同用途的机器人践行的道德观也是不同的。”

开放思想 去爱机器人

  确实,我们遭遇杀手机器人的概率十分渺茫(希望如此),机器人在关照日益增多的老年人生活起居方面也起着越来越重要的作用,这个问题就更加庞大而长久了。与其害怕机器人残害人类,人类在情感上更依赖机器人,机器人给我们的爱也多的数不胜数。

机器手和人手相握

美国机器人产业前途探究

  EPSRC 还有一条指导规则(再次声明,这是机器人领域为数不多的规则之一),规则中陈述:“机器人由人类制造,人类不允许以欺骗手段让机器人剥削弱势群体,机器人必须所言即所想。”规则提醒人们,某些没节操的制造商会通过机器人宠物或机器人伴侣让人产生机器人有感情的错觉,从中谋取利益。

  把机器人造的拥有感情,然后觉得有必要给它们套上道德的框架来指导它们的行为,这也许才是人类要面对的最大风险。我们冒险将机器人打造地和人一样——却因此也让机器人更容易忽略人类。

  Richardson教授说机器人科学家对机器人道德观的思考无可厚非,但是对机器人道德观的争论却忽略了另一个更严重的问题:为什么我们要用这些设备,尤其是在人与人交流的社会关怀领域。

现实的责任

  杀人机器人和强悍的疯狂人工智能常常在廉价的科幻小说里读到,但是关注这些可能的威胁让人们忽略了对自己生活的现实社会的思考。机器人道德观反映或者控诉了人类社会,表达了对于人类无法准确定位机器人的担忧。机器人无论是用于战争还是照看我们的长辈——其实都是人类自己不愿意去做的事情。

  让机器人来做这部分工作可能可以解决部分问题,但是潜在问题依然没有解决,更糟糕的是导致社会忽视机器人。机器人上战场让战争变得简单,机器人照看老人让我们更容易忽视我们敬老的责任和社会压力,尤其是处在这个老龄化社会。鉴于此,对机器人道德框架的担忧更多的是分散人们对于自己道德滑坡的注意力。

美国研制新型 触觉皮肤 可使机器人灵活躲避障碍物

  近年来,随着科技的不断进步,各种类型的机器人逐渐进入人们的生活。这些机器人能说话、会走路,还能帮助人类进行一些“不可能完成的任务”。那么您可能会问,机器人可以有感觉吗?美国佐治亚理工学院的科学家给出了答案。近日,这些科学家研制出了一种新型的机器人“皮肤”,可以赋予机器人灵敏的“触觉”,从而灵活避开前进中遇到的各种障碍。

  十年前,家住美国加利福尼亚州的亨利·埃文斯在中风后不幸高度瘫痪,仅有一根手指可以活动。当时的他可能根本不会想到,现在可以用这根手指操作一个制作精密的机器人,而这个机器人可以用一种“触觉”皮肤与他进行互动。埃文斯至今回忆起第一次和这个机器人互动的场景,都觉得很神奇。“通过这种“触感”皮肤我可以与机器人直接进行接触。我敢肯定它不会给我带来任何伤害。更确切的说,当机器人四处移动时,它可以感受到我的存在。”

  埃文斯所说的“触觉”皮肤就是美国佐治亚理工学院的科学家为机器人发明的机器人“皮肤”。这种皮肤包含数百个独立的传感器。将这种“皮肤”覆盖在机器人的机械手臂上,借助传感器收集的信息,机器人可以利用所谓的“触觉”来识别周围的情况,找出最佳的行进路线并控制移动方向。

  研究人员表示,他们研究机器人“电子皮肤”的初衷是使机器人可以更加人性化。佐治亚理工学院生物工程学的副教授查尔斯·肯普表示:“生物组织,像动物或昆虫它们全身都有触觉感知,并且非常敏感。机器人还没有这个能力,所以,我们首先要做的是先给机器人安装感应器,不只是眼睛、耳朵,甚至还有皮肤。”

  包裹着“皮肤”的机械臂十分灵活,还可以控制触碰物体时的力度。依靠这种“电子皮肤”,机器人不仅能感知到物体的地点和方位,还能获得物体的硬度和强度等。查尔斯·肯普解释道,“这款机器人拥有一个手臂的模型,机器人正是依靠它来感触外界的。机械臂会通过触感决定下一步动作和移动方向。基于一些巧妙的数学运算,机器人完全可以按照指令完成既定的任务。”

  目前,这款“电子皮肤”还处于研发的初级阶段,未来研究人员将探索如何将它应用在更多领域,包括用它来提高残疾人的生活质量。

相关栏目:『科技前沿
工信部:未来产业六大方向聚焦人形机器人、脑机接口、量子科技等领域 2024-11-06 [335]
Gartner 公布2025年十大战略技术趋势 2024-10-31 [488]
这样图解Transformer应该没人看不懂了吧——Transformer工作原理 2024-10-16 [859]
Nature:智能体涌现出语言 2024-10-16 [833]
50个顶级ChatGPT论文指令 2024-10-10 [1050]
推荐五种简单有效的数据可视化方式 2024-10-10 [975]
这么有深度的文章是ChatGPT写的? 2024-10-10 [974]
讲透一个强大的算法模型,CNN!! 2024-10-10 [966]
人类与 AI 协同的三种模式 2024-10-10 [557]
11 种经典时间序列预测方法! 2024-10-09 [490]
相关栏目更多文章
最新图文:
:美国加大审查范围 北大多名美国留学生遭联邦调查局质询 :天安门广场喜迎“十一”花团锦簇的美丽景象 马亮:做院长就能够发更多论文?论文发表是不是一场“权力的游戏”? :印裔人才在美碾压华裔:我们可以从印度教育中学到什么? :北京452万人将从北京迁至雄安(附部分央企名单) :《2019全球肿瘤趋势报告》 :阿尔茨海默病预防与干预核心讯息图解 :引力波天文台或有助搜寻暗物质粒子
更多最新图文
更多《即时通讯》>>
 
打印本文章
 
您的名字:
电子邮件:
留言内容:
注意: 留言内容不要超过4000字,否则会被截断。
未 审 核:  是
  
关于我们联系我们申请加入后台管理设为主页加入收藏
美国华裔教授专家网版权所有,谢绝拷贝。如欲选登或发表,请与美国华裔教授专家网联系。
Copyright © 2024 ScholarsUpdate.com. All Rights Reserved.