在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。我们不相信相关平台就是在有意地“偷听”,而更倾向于认为,这是大数据在自动生成“用户画像”。(图片来源:视觉中国)
人工智能算法能“偷听”用户信息
人工智能(AI)算法是否可以“偷听”你的信息?对于这样的疑问,许多人恐怕还半信半疑,难以给出确定答案。但剑桥大学的一项最新研究却表明:这是很有可能的。
“偷听”的原理是:当人们轻敲手机和平板电脑的屏幕时会产生声波,这些声波通过设备的内置麦克风收集、恢复,从而就可“听到”敲击屏幕的声音。结合人工智能算法,听到的声音与键盘位置关联,就可实现“偷听”用户信息。
开展这项研究的剑桥大学计算机实验室用其自己开发的算法模型进行了实验,结果表明,对于四位数密码而言,该模型在10次尝试后可以准确恢复54%的密码;20次尝试后可以恢复150个密码中的91个,识别准确率为61%。
该项研究的论文于3月26日发表,题目就叫《听到你的触摸:智能手机上的新声学侧通道》。
对于已经基本离不开智能手机的我们来说,这项研究结果无疑是当头一棒。就在前不久,某些手机APP“偷听”用户信息的消息,在很短时间内刷爆朋友圈,引发了巨大质疑。相关平台迅速出面辟谣,而许多针对性的测试也一时拿不出确凿证据。
坦率地说,我们不相信相关平台就是在有意地“偷听”,而更倾向于认为,这是大数据在自动生成“用户画像”。只是画像的精准度,也着实让人害怕。
扎紧技术伦理和法律篱笆
但从另一个角度来看,怀疑“偷听”不啻为一声响亮的警钟,它再次对我们发出警示:在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。
同时,对以“进步”为名的技术发展,我们也必须保持高度警惕和怀疑,并时刻从人类尊严和技术伦理的高度详加审视。这是必要的审慎,绝不是螳臂当车的保守,因为墨菲定律早就说得非常清楚——如果事情有变坏的可能,不管这种可能性有多小,它总会发生,并造成最大可能的破坏。
“偷听”有可能发生吗?剑桥大学的研究已经表明:肯定会的。虽然囿于技术的局限,目前尚无法偷听得那样精确。但假以时日,人工智能算法装备的智能手机等设备,肯定会把人“偷”得赤条条。而以技术发展在当今的迅猛之势,这个时日其实并不多么遥远。
我们已清楚地看到“灰犀牛”就在那里,它正在向我们冲来。可是出于无数的利益计算和犹疑,人类就是找不到切实的预防、应对之策。
这正是我们当前面临的恼人困惑。对于公民个人信息安全,目前能够想到的办法,无外乎以繁多的法律法规条款,尽可能扎紧篱笆,同时加大惩处力度。但这种办法,受制于差异极大的文化环境和执法力度,常常很难从纸面上真正落地。
而更加薄弱的是,技术伦理明显还未受到应有的重视,更缺乏现实的灌输培育。很多科技者仅仅醉心于技术突破,由于和远端的技术应用者以及被影响者相隔着明显距离,他们几乎不可能感受到技术发展可能带来的麻烦与痛苦。对于“偷听”的怀疑,其实恰恰反证了技术伦理的缺位可能带来的问题。
人工智能、大数据是当今社会发展的趋势,没有任何力量能够阻止它们前进的步伐。我们认可并且也愿意享受这样的进步,但前提条件是,它们应是为人类服务,而不是羞辱、奴役人类。
AI伦理准则:紧箍咒还是变速器?
通过创建道德伦理上的标准,以及对人工智能算法进行监管,是否反而会阻碍欧洲人工智能的创新,是一个不得不考虑的问题。
欧盟出台这些指导准则,是否真能达成其促进欧洲人工智能发展的目的,却也是存疑的。(图片来源:东方IC)
4月8日,欧盟委员会发布了人工智能(AI)伦理准则,提出了实现可信赖人工智能的七个要素。具体来说,其涵盖了保证人类的自主性、人工智能技术的稳健性和安全性,保证隐私和数据管理,保证AI算法系统的透明性,要求AI提供多样性、无歧视、公平的服务等方面的内容。
与去年欧盟通过的《通用数据保护条例》一样,这些准则的出现,旨在树立起欧盟在道德伦理领域的领导者角色,确立其公民数据隐私与安全的守护者的形象。
当然,不仅于此,欧盟人工智能伦理准则的出台,也是为了提升欧盟在人工智能领域的竞争力,确保其能领导或是引导全球人工智能的发展。
在部分人士看来,欧盟试图扮演这种角色是源于客观环境,即当前人工智能领域无论是投资或是尖端研究应用上,欧盟无法与中美两国相竞争。因而,欧盟只能从道理伦理上着力,让其成为欧盟的竞争力与优势。
但这种观点可能高估了中美目前在人工智能领域的实力,同时也低估了人工智能的多样性和广阔程度。
首先当前中美在人工智能领域的优势,很大程度上源于对深度学习的掌握。深度学习依赖于海量数据以及计算能力,比如中国拥有近14亿人口,其数据就远远比其他国家多,应用场景也更为丰富,因此也就更易获得优势。
但问题在于,人工智能并非仅仅如此,其未来具备无限可能。深度学习之父杰弗里·辛顿就曾公开号召摒弃现有深度学习范式,转向不过度依赖数据的无监督学习算法。
更何况,随着公众对数据隐私要求越来越高,过度依赖海量数据的算法,迟早会遭遇到瓶颈,发展陷入停滞。就此而言,欧盟未来未必不能在人工智能的其他赛道上形成优势和竞争力。
但欧盟出台这些指导准则,是否真能达成其促进欧洲人工智能发展的目的,却也是存疑的。因为仅仅通过创建道德伦理上的标准,以及对人工智能算法进行监管,是否反而阻碍欧洲人工智能的创新,却是一个不得不考虑的问题。
当前人工智能刚刚起步,在很多领域的应用并不成熟。在此过程中就引入监管机制是否恰当,值得讨论。尤其是人工智能技术与过往的经验并不相同。没有人知道,最终人工智能领域的监管体制会是怎样的。
在此种情况下,规则应该与技术一同成长。换句话说,有关的准则与监管方式,应该是基于现实的证据进行。
欧盟的这种态度事实上很好理解,这很大程度上与公众对人工智能过于恐惧的心理有关。但过度恐惧而采取的保护措施,却很可能对其自身造成不必要的伤害或威胁。运用更多更高质量的数据和密切的监测,以形成更多的实际案例和证据,是建立更为合理的监管体制与问责框架的关键。
欧盟为了促进人工智能发展而采取的措施,反而有可能限制了欧洲企业和机构这一领域自然的创新本能与发展机遇,最终无法打造出其期望的竞争力和领导力。
在这一点上,欧盟的行为虽然能被理解,却值得商榷。(郑伟彬)