В Беркли научились обманывать системы распознавания речи

Татьяна Новак

Учёные из Калифорнийского университета в Беркли научились встраивать в аудиофайлы скрытые сообщения и обманывать системы распознавания речи, используемые в голосовых ассистентах. Препринт исследования доступен на Arxive.org.

Разработанный авторами алгоритм глубого обучения позволяет незаметно подделать любой аудиосигнал, подменив его другим (идентичным на 99,9%), с котором содержится зашифрованная фразу-команда или же любое сообщение, искажающее смысл исходного послания.

«Мы можем вставить команду в аудио, которое вообще не должно распознаваться как речь — например, в музыкальную запись»,- пишут авторы разработки. Таким образом, можно устраивать даже массовые взломы голосовых помощников, встраивая скрытые команды, например, в популярные песни или рекламные ролики.

Свою разработку авторы протестировали на популярной системе перевода речи в текст DeepSpeech, разработанной компанией Mozilla. Они утверждают, что атака сработала успешно в 100%.

Ранее эта же команда учёных научились взламывать программы распознавания речи Siri и Google Now с помощью наложения белого шума на запись человеческого голоса.

Загрузить еще