在即将过去的2018,人工智能的炒作和“人工智能威胁论”都在降温。面对更前沿的技术突破、更广泛的应用场景和更充足的人才准备,这个被押注了未来的行业依然承载着人们对明日世界的广阔想象。
近日,由斯坦福大学主导的研究小组发布了2018年AI index年度报告,追踪了人工智能(AI)的发展现状和趋势。报告的要点可以归纳为以下三点:
· 美国AI综合实力最强
美国的AI论文发布数量虽然不是第一,但美国学者论文被引用的次数却是全球第一,比全球平均水平高出83%。
人工智能指数报告按世界平均值计算影响力,用“改良版”FWCI衡量各国在人工智能研究领域的影响力。(FWCI指的是领域权重引用影响系数。)
2018年美国AI创业公司的数量,比2015年增长2.1倍。而从2013年到2017年,美国AI初创企业获得的融资额增长了4.5倍。
· 中国AI追赶速度惊人
清华大学2017年学AI和机器学习的学生数量,是2010年16倍。
基于经同行评议论文数据库Scopus的数据,2018年发布AI论文最多的地区是欧洲(28%)、中国(25%)和美国(17%)。
与2000相比,2016年中国AI学者论文被引用的次数,提高了44%。
· 全球AI发展提速但仍不均衡
在全球范围内,AI 发展涨势喜人,但发展水平并不均衡。
据报告显示,2017年全球机器学习(ML)人才需求已经是2015年的35倍。自2016年以来,美国、加拿大、英国政府在国会及议会会议中有关人工智能和机器学习相关话题被提及次数明显增加。
在AI领域的从业者性别呈现一边倒的趋势——大多为男性。来自UC伯克利、斯坦福、伊利诺伊大学香槟分校(UIUC)、卡耐基梅隆大学(CMU)、伦敦大学学院(UCL)、牛津和苏黎世联邦理工学院的统计数据显示,80%的AI教授是男性,且美国AI工作岗位的应聘者中71%为男性。
斯坦福大学计算机科学系和电子工程系副教授、斯坦福人工智能实验室主任吴恩达总结了2018年全球人工智能发展的两个特点:
无论是在工业界和学界,人工智能都在迅速发展;
但是,人工智能的发展仍不均衡,在多样性、包容性方面仍需努力。
过去的一年,人工智能领域发生了哪些变化?存在哪些争议?未来又有哪些机遇?
情感计算,让机器人拥有“读心术”
人工智能领域专家李飞飞在出席2017未来论坛时曾表示,“下一步人工智能的发展,需要加强对情感、情绪的了解,要走进认知学、心理学。”
2018年4月,阿里巴巴人机自然交互实验室联合达摩院和浙江大学共同推出了一款人工智能产品Aliwood,在研发过程中引入了“情感计算”能力,给视频所配的音乐建立起了情感模型。
情感计算是为了让机器“具备人的感情”,它指的是关于情感、情感产生以及影响情感方面的计算。
MIT媒体实验室数据显示,在识别表情方面,计算机已经可以超越人类,对于真笑和苦笑的实验中,机器学习的成功率是92%,大幅优于人类。不过虽然情感计算已经深入生活,而要让机器人更加懂你却并非易事,还需要人机交互、心理学、认知学等多学科领域共同努力。
类脑智能以计算建模为手段,受脑结构与机制、认知行为机制启发,企图通过软硬件协同实现机器智能。目前,类脑计算研究还处在前期探索阶段:清华大学类脑计算研究中心已研发出具有自主知识产权的类脑计算芯片、软件工具链;中科院自动化研究所开发出了类脑认知引擎平台,具备哺乳动物脑模拟的能力,并在智能机器人上取得了多感觉融合、类脑学习与决策等多种应用,以及全球首个以类脑方式通过镜像测试的机器人等。
服务于人,人工智能让生活更美好
最近,阿里云披露的一份资料显示,其工程师正在同养猪科学家合作研发能判断母猪是否怀孕的算法,以提升猪场产仔量。除了监测母猪是否怀孕,AI还可以服务于农业智能生产系统、检测农作物病虫害、作用于农产品无损检测等,在农业领域大展拳脚。
听来有些不可思议,但人工智能技术带来的改变,确实发生在各个意想不到的领域。比如英国拉夫堡大学的研究人员和切尔西足球俱乐部联合开发了一套AI教练和球探系统,系统可以通过收集、分析球员近几个赛季的数据建模并科学训练球员,比如根据球员的特点制定赛前战术、赛后对技战术进行复盘等。
AI已经让一些技术边缘人群享受到技术进步带来的福利,这种福利“看得见、摸得着”。比如专为盲人研发的人工智能辅助视觉系统Seeing AI,为了帮助全球2.85亿视力受损人群实现无障碍的生活。
这套由可穿戴眼镜和智能APP组成的系统,能基于微软智能云上的视觉识别和自然语言处理技术,识别出摄像头拍摄到的场景,如“一个穿红衣服的女孩正在踢球”“一个男孩正在练习滑板”。
人工智能和公益的“跨界合作”正在激发更多有益于社会的创新,让更广泛的人群因技术的进步而受益。
AI诊疗,或成最佳落地领域
普华永道去年10月发布的全球AI报告分析了各个主要行业受人工智能技术发展的影响,认为影响最大的是医疗健康和生物制药产业。
今年,腾讯推出了将人工智能技术运用到医学领域的产品“腾讯觅影”,据介绍,截至7月,“腾讯觅影”已累计辅助医生阅读医学影像超1亿张,服务90余万患者,提示风险病变13万例。
特别是AI在新药研发中发挥的价值,让这个耗资巨大又常常收效甚微的行业看到了希望。目前,全球有近100家初创企业已在探索用于研发新药的人工智能方法。可以预见,人工智能技术对传统技术的改进以及由其引发产生的新型药物研发技术,将极大缩短新药研发周期、降低研发成本,显著提高药物研发的成功率。
不过业内专家也纷纷表示,我们距离真正的“人工智能+医疗”距离显然还很远,甚至AI诊疗究竟会不会成真,都需要打一个问号。要跨越的障碍很多,如医疗信息提取,医疗数据等。
PK内容升级,人机大战不断上演
今年,人机大战依然令人乐此不疲,人与机器孰强孰弱的问题总能瞬间点燃舆论,似乎誓要在每个领域分出高下。
写作大概是人类最自负的“山头”,不过AI也没打算放过,写诗有微软“小冰”,写文案也有了“莎士比亚”。这个专为写商品文案而生的AI一秒钟可以作出千条文案,号称让编辑下岗。
这套系统基于平台自身在商品标签和搜索数据库层面积累的大数据,从句子层面做结构解析、训练模型和语言生成,从而能够一秒钟生成千条文案,系统还能根据用户对文本的选择实现机器算法的优化。
另一场引发讨论的人机大战来自游戏领域,马斯克创立的人工智能非营利组织OpenAI宣布,由5个神经网络组成的OpenAI Five,已经能够组成5v5团队在经典战斗竞技类游戏《刀塔2》中击败人类业余玩家队伍。
这次事件更是被比尔·盖茨称为“里程碑”,因为OpenAI Five展现出了类似于人的长期规划和团队协作能力,也展现了极高的智能决策能力。
有偏见的数据和令人担忧的隐私
麻省理工学院媒体实验室曾出品一个名叫诺曼的“暗黑版AI”,它会以负面想法来理解它看到的图片。例如,一张在一般AI看来只是“树枝上的一群鸟”的普通图片,在诺曼眼中却是“一名男子触电致死”。
团队希望通过诺曼的表现提醒世人:用来教导或训练机器学习算法的数据,会对AI的行为造成显著影响。
当人们谈论人工智能算法存在偏差和不公平时,罪魁祸首往往不是算法本身,而是带有偏差、偏见的数据。因为当前的深度学习方法依赖大量的训练样本,网络识别的特性是由样本本身的特性所决定。尽管在训练模型时使用同样的方法,但使用了错误或正确的数据集,就会在图像中看到非常不一样的东西。
真正的“公正算法”或许是不存在的。但通过正确地校准标签、数据的均衡和可靠等,机器出现偏见、谬误甚至失控的可能会相应减少。
还有一个重要的忧虑来自隐私。毕竟,我们每天的吃住行都已经充分数字化,与之相伴的隐私暴露风险也指数级上升。
目前在人脸识别技术领域,我国尚无相应的安全监管机制。随着“刷脸支付”的普及,用户的姓名、性别、年龄、职业等身份信息,甚至用户在不同情境状态下的情绪等信息都被机器收集。这些信息如果得不到妥善保管而被泄露,用户个人信息就处在“裸奔”状态。
保护公民个人信息的安全,需要管理者、相关行业企业、公民个人的协同努力。