В Беркли научились обманывать системы распознавания речи
Учёные из Калифорнийского университета в Беркли научились встраивать в аудиофайлы скрытые сообщения и обманывать системы распознавания речи, используемые в голосовых ассистентах. Препринт исследования доступен на Arxive.org.
Разработанный авторами алгоритм глубого обучения позволяет незаметно подделать любой аудиосигнал, подменив его другим (идентичным на 99,9%), с котором содержится зашифрованная фразу-команда или же любое сообщение, искажающее смысл исходного послания.
«Мы можем вставить команду в аудио, которое вообще не должно распознаваться как речь — например, в музыкальную запись»,- пишут авторы разработки. Таким образом, можно устраивать даже массовые взломы голосовых помощников, встраивая скрытые команды, например, в популярные песни или рекламные ролики.
Свою разработку авторы протестировали на популярной системе перевода речи в текст DeepSpeech, разработанной компанией Mozilla. Они утверждают, что атака сработала успешно в 100%.
Ранее эта же команда учёных научились взламывать программы распознавания речи Siri и Google Now с помощью наложения белого шума на запись человеческого голоса.