Стремительное развитие искусственного интеллекта привело к тому, что современные системы способны воспроизвести человеческий голос даже по короткому отрывку записи с ним.
Это открывает большие возможности в сфере искусства и развлечений, но обратной стороной является возможность создания дипфейков с целью мошенничества. Случаи, когда люди переводили злоумышленникам крупные суммы денег, услышав в трубке голос родственника или начальника, уже известны. Кроме того, подделанный голос можно использовать для обхода систем безопасности банков и различных устройств с голосовой идентификацией. И все это не говоря о появлении популярных фейковых роликов с политиками или знаменитостями, которые произносят то, чего никогда не говорили.
Стратегия обороны
В связи с этим в США появился инструмент AntiFake, который призван защитить запись голоса человека от копирования алгоритмами ИИ. Происходит это путем добавления в запись неслышимых человеческим ухом искажений. В результате для человека запись звучит как прежде, но когда ИИ пытается воспроизвести ее, результат оказывается совершенно не похож на оригинал.
«Этот инструмент использует метод ИИ, который изначально был частью инструментария киберпреступников, но теперь мы применяем его для защиты от них», — сказал один из изобретателей из Университета штата Вашингтон. Проведенные тесты показали, что эффективность технологии AntiFake в предотвращении синтеза убедительных дипфейков – более 95%.