智能设备给人们的生活带来了方便,但同时也给人们带来了监听的烦恼。它们甚至被嵌入麦克风,从手机、手表、电视、音响到语音助手等。不过,哥伦比亚大学工程学院(Columbia Enginering)的科学家找到了一种解决方法。
哥伦比亚大学工程学院的研究人员开发了一个新技术Neural Voice Camouflage,可以产生低语的声音,你可以在任何房间、任何情况下播放,以阻止智能设备对你的监听。而且它很容易在电脑和智能手机等硬件上执行,使人们有能力保护自己的声音隐私。
新技术使用“对抗性攻击”,采用机器学习(算法在数据中发现模式)来调整声音,从而导致人工智能(而不是人类)将其误认为是其它东西。从本质上讲,就是使用一种人工智能(Artificial Intelligence,AI)来愚弄另一种。
然而,这个过程并不像听起来那麽容易。机器学习 AI 需要先处理整个声音片段,然后才能知道如何对其进行调整,这在您想要进行即时伪装时不起作用。
在这项新研究中,研究人员训练了一个神经网络,一种受大脑启发的机器学习系统,其可以有效地预测未来。他们对它进行了数小时的录制语音训练,因此它可以不断地处理2秒的音频片段并预设接下来可能要说的内容。
“我们的算法能够通过预测一个人接下来会以什麽样的语气说什麽来跟上节奏,有足够的时间来生成正确的耳语”,该研究的主要作者、冯德里克实验室的博士生奇基耶(Mia Chiquier)说,“到目前为止,我们的方法对大多数英语词汇有效,我们计划将该算法应用于更多语言,以及最终使耳语完全无法察觉。”
领导该研究的哥伦比亚大学计算机科学助理教授冯德里克(Carl Vondrick)说,实现这一目标的一个关键技术挑战是使其运作速度足够快。目前该算法能够在80%的时间内阻止恶意麦克风准确监听。
“这只是针对恶意AI保护隐私的第一步。人工智能收集有关人们的声音、面部和行为的数据”,冯德里克强调,“我们需要有尊重我们隐私的新一代技术。”
冯德里克补充说,新系统的预测部分对于其它需要实时处理的应用程序(例如自动驾驶汽车)具有巨大潜力。“你必须预测汽车接下来会在哪里,行人可能在哪里”。
虽然没有参与该研究,密歇根大学(University of Michigan)的计算机科学家、研究音频处理的欧文斯(Andrew Owens)对这项新技术印象深刻。他说:“它将预测未来(机器学习中的一个经典问题)与另一个对抗性机器学习问题相结合,这种方式非常棒。” |