医学伦理准则的第一条是,不要作恶。而硅谷的信条是,先整出来,之后请求谅解。伦理显然不是硅谷顶级技术专家考虑的事。他们一贯将伦理视为技术创新和进步的拦路石。
然而,如今硅谷的科技巨头们遇上了麻烦——Facebook上的假新闻,Twitter上的僵尸粉,YouTube上的儿童色情视频。它们正疲于应对。最近发布的《恶意使用人工智能报告》集中讨论人工智能的滥用问题,汇集了全球多个人工智能学术研究机构的集体智慧。
可见,对于可能变革或者摧毁一切的新兴技术,硅谷开始变得焦虑了。科技伦理开始进入计算机科学的视野。谷歌、亚马逊、Facebook等越来越多的互联网和人工智能公司都开始拥抱科技伦理,甚至成立了专门的伦理中心或伦理委员会,招聘人工智能政策和伦理研究员。
美国高校开始将科技伦理引入计算机科学,人工智能伦理备受重视
考虑到互联网技术带来的诸多问题,以及人们对人工智能等新技术的诸多担忧和焦虑,曾经为硅谷培养了顶级技术专家的高校,开始将伦理理论引入计算机科学,希望藉此培养下一代技术人才。
诸多高校开始开设跨学科、跨领域的人工智能伦理课程。这个学期,哈佛和MIT合作开设了一门人工智能伦理和监管课程,名为“人工智能伦理与治理”(参见课程网站:https://www.media.mit.edu/courses/the-ethics-and-governance-of-artificial-intelligence/)。德克萨斯州大学开设了一门名为“计算机科学的伦理基础”的课程,希望所有的计算机专业最终都开设这门课。在作为互联网行业学术心脏的斯坦福大学,三个教授和一个研究人员正在开发一个计算机伦理课程,暂名“伦理、公共政策和计算机科学”,希望2019年正式向学生开放。纽约大学、康奈尔大学等都开设了类似的数据科学伦理或科技伦理课程。背后的理念是,希望下一代技术人员和政策制定者可以考虑创新(比如自主武器或自动驾驶汽车)的影响,并负责任地创新。这些课程希望探讨未来2年、3年、5年或10年的问题,那时毕业的学生将不得不面对这些问题。
机器学习等人工智能技术的流行将伦理从幕后推到了前台
伦理对计算机科学学生来说似乎不太相关。与运输业或医疗行业相比,互联网行业中的码农是写软件的,不大可能造成身体的伤害、疼痛或死亡。然而,科技伦理或人工智能伦理日益获得了硅谷和高校的关注。
美国高校现在开始推动科技伦理的一个理由是,机器学习(计算机算法可以通过分析大量数据来自主学习)等强大技术的流行。因为这些工具可能最终重塑人类社会,大学希望帮助学生理解其潜在后果。人们最终希望,计算机科学项目理应保证学生对与计算机相关的伦理问题具有一定的理解,甚至科技伦理课程应当成为授权学位的一个前提。
去年秋季,康奈尔大学开设了一门数据科学伦理和政策课程,聚焦数据科学的伦理挑战。这门课程旨在帮助学生理解数据科学家在其日常工作中可能遇到的问题,帮助他们系统思考这些挑战。康奈尔大学还开设了另外一门课程,名为“智能自主系统的伦理问题:机器人伦理“,聚焦科技公司的伦理问题。很多涉及伦理的问题和科技公司做出的选择有关:它们决定研发什么产品,对于用户数据它们采取什么做出。如果数据科学伦理仅关注数据科学家的个体责任,那就可能忽视企业的角色。
哈佛和MIT合开的课程则聚焦人工智能的伦理、政策和法律影响。这门课程涵盖算法歧视、责任、自主性、系统设计、信用评分、图像识别、数据所有权、AI治理、AI可解释性和可问责性、自动化对劳动力的影响、AI监管等热门问题。这门课程激发学生思考基本伦理问题,比如,技术是公平的吗?如何确保数据是无偏见的?机器应当评判人类吗?
当硅谷搭上科技伦理的列车……
我们看到,在人工智能快速发展和应用的今天,斯坦福、卡内基梅隆、伯克利、MIT、加利福尼亚理工学院等等都开始承担起责任,将这些科技伦理灌输给学生,让技术人员不仅仅局限于把技术和产品搞出来,而是更多地思考他们开发的技术和产品的广泛社会影响。因为技术不是中立的,科技公司在技术研发中做出的选择具有广泛的社会影响。其实,为互联网和科技行业培养下一代人才的所有机构都需要肩负起这个责任,搭上技术伦理这趟列车,确保未来方向。