Мошенники научились подделывать голоса в реальном времени
Технологии искусственного интеллекта развиваются стремительно, и вместе с этим совершенствуются и методы обмана. Эксперты из международной компании NCC Group, занимающейся кибербезопасностью, сообщили о новой опасной тенденции — теперь мошенники способны имитировать голос человека во время телефонного разговора в реальном времени. Это открывает перед злоумышленниками практически безграничные возможности для обмана и шантажа.
По данным специалистов, чтобы создать правдоподобный голосовой клон, достаточно иметь короткую аудиозапись речи человека — например, фрагмент из видео, интервью или голосового сообщения. С помощью стандартного ноутбука с обычной видеокартой программа за считанные секунды обучается воспроизводить интонации, тембр и манеру речи конкретного человека. В результате собеседник по телефону практически не может отличить реальный голос от синтезированного.
Эксперты называют новую схему «речевым фишингом» или «вокальным дипфейком». Она уже используется для совершения телефонных мошенничеств, в том числе при попытках получить доступ к банковским счетам или личным данным. В ходе экспериментов NCC Group исследователи продемонстрировали, как с помощью голосового клона и подмены телефонного номера можно убедительно выдать себя за родственника или коллегу. Большинство испытуемых не заподозрили подделку, даже разговаривая с «знакомым» голосом.
Особую тревогу вызывает то, что для создания такого дипфейка не требуется дорогостоящее оборудование — достаточно программ с открытым исходным кодом и базового ноутбука. Даже видеокарта уровня RTX A1000 способна выполнять такие операции без заметных задержек. Таким образом, голосовые подделки становятся доступны не только профессиональным хакерам, но и обычным пользователям, обладающим минимальными техническими знаниями.
Комментарии
Добавление комментария
Комментарии