语音助手不可靠?研究者成功攻击文本语音转换系统

互联网 | 编辑: 潘翔城 2018-01-11 10:31:05转载

北京时间1月11日上午消息,加州大学伯克利分校的计算机科学家开发出一种人工智能(AI)技术,可以攻击“文本-语音”转换系统。

利用他们的方法,不管音频文件听起来是怎样的,文本输出结果都能变成攻击者想要的样子。技术很酷,但是却向我们发出警告:用AI作恶是完全可能的。

计算机专家尼克拉斯·卡利尼(Nicholas Carlini)和大卫·瓦格纳(David Wagner)成功欺骗Mozilla最流行的DeepSpeech开源文本-语音转换系统。给出任意一段音频声波,科学家就可以制作出另一段音频声波,相似度超过99.9%,转录时科学家可以选择任意短语,速度最高可以达到每秒50字符。攻击的成功率高达100%,不论想要转录的语音是怎样的,最初所说的源短语是怎样的,都可以成功。如果输入的是任意波形的声音,但不是语音,比如输入音乐,科学家可以将语音插入音频,你无法识别它是语音;让语音保持静默,就可以将音频隐藏到文本-语音转换系统。

也就是说,从理论上讲,科学家可以处理任意音频文件,欺骗文本-语音转换器,让它们相信音频是其它东西。当今的世界到处都是智能音箱和语音助手,新攻击技术无疑是一枚重磅炸弹。

相关阅读

每日精选

点击查看更多

首页 手机 数码相机 笔记本 游戏 DIY硬件 硬件外设 办公中心 数字家电 平板电脑