Голосовыми помощниками можно управлять с помощью замаскированных в аудиоконтенте звуковых команд, утверждает новейшее исследование экспертов Рурского университета Бохума.
Сири Эппла, Гугл Ассистент и Алекса Амазона не только прекрасно распознают не воспринимаемые человеческим слухом, слишком тихие или слишком высокие (ультразвук) аудиосигналы, но и могут выполнять все заложенные в них команды. К примеру, отключить видеокамеры слежения, совершить покупку или выслать требуемые сведения.
Рурские эксперты отметили фундаментальный характер проблемы: замаскированные под птичий щебет, неразборчивое бормотание в аудиотреке или рекламе атаки возможны благодаря особенностям алгоритмов глубоких нейронных сетей, положенных в основу голосовых помощников. Злоумышленники могут замаскировать свои команды голосовым помощникам и интегрировать их в мобильные приложения, аудио- и видеоролики и распространить огромным тиражом. Тысячи владельцев голосовых помощников могут пострадать. Ввиду большой реальности такой угрозы эксперты советуют заранее ограничивать работу голосовых помощников и настраивать их на менее автономный режим.