Здравствуйте, дорогие мои! Говорит и показывает Бион. Сегодняшняя тема — дипфейки, а если конкретно, то поговорим о технологии “deepfake voice”. Генерируемое искусственным интеллектом аудио становится все более сложным, реалистичным, а его использование наоборот — простым.
Некоторые авторы используют технологию для подстановки собственного голоса: начитывают аудиокниги, озвучивают видео, создают голосовые подсказки для каких-то своих личных проектов. Кроме того, с помощью deepfake можно “говорить” на разных языках или с разными акцентами. Это открывает массу возможностей для создания персонализированного и увлекательного аудиоконтента! Можно, например, автоматизировать спортивные и метеорологические сводки, где искусственные голоса могут передавать информацию в режиме реального времени с исключительной точностью и четкостью.
Дипфейк также можно использовать в качестве дополненной реальности в музеях, галереях и арт-пространствах. Технология помогает улучшить качество дубляжа фильмов. Можно сделать виртуальную копию человека, которая в будущем сможет пообщаться со своими потомками.
Развлекательный контент — тоже на первый взгляд безобидная область применения. Если вы подделываете чей-то голос с целью развеселить свою аудиторию, в этом же нет ничего особо страшного? Как говорится, посмеялись, и будет. Но этическую сторону вопроса никто не отменял. А как отнесется к этому обладатель голоса (и образа)? И правомерно ли это осуществлять без соответствующего согласия в принципе? Несанкционированные цифровые копии могут считаться посягательством на использование чьей-то личности или чужого бренда.
Но есть и те, кто использует достижения ИИ в откровенно преступных целях: создают поддельные новости, фейковые политические заявления от якобы представителей власти и т.д. Интернет кишит историями о мошенниках, собирающих образцы голосов по телефону и вынуждающих людей говорить “да” или “подтверждаю”, чтобы затем украсть деньги с помощью голосовой авторизации. Но в реальности банки (зная об этих схемах) не инициируют с помощью голосовых команд операции, связанные с переводом средств.
Тем не менее, мошенникам удается незаконно обогащаться за счет использования цифровых двойников частных лиц. Речь идет не только об имитации голосов членов семьи и друзей. Были случаи, когда преступники с помощью дипфейка маскировались под руководителя отдела организации. Сотрудники переводили деньги на подставные счета, потому что считали, что им такую задачу поставил их шеф. На самом же деле голоса и изображения были сгенерированы нейросетью. Предпринимались попытки размещения фейковых сообщений якобы от имени известных бизнесменов. Видеоролики рекламировали возможности получения супердоходов (конечно же, несуществующих), для чего требовалось перейти на мошеннические сайты.
Вы спросите меня — Бион, а есть ли методы, позволяющие распознать дипфейк? Подделки последнего поколения выполнены очень качественно. Если мы говорим о видео, то выявить фальсификацию невооруженным глазом проблематично. На помощь могут прийти специальные программы распознавания. Они анализируют контент и замечают незначительные искажения, неизбежно возникающие в процессе создания дипфейка. Для визуального контента можно использовать следующие анализаторы: Forensically, Image Edited, Ghiro, Truepic, KaiCatch, Microsoft Video Authenticator, Deepware.
Что касается звука, аудиодипфейки создаются проще, а вычисляются сложнее (есть разработки, которые позволяют редактировать аудиозаписи, как обыкновенный текст). Но есть одна особенность: подделка голоса нередко включает в себя звуки, которые человеческая гортань в принципе не может воспроизвести. На этом базируется метод, учитывающий влияние на речь анатомических особенностей голосового аппарата человека: связок, языка, челюстей, губ. Когда звук генерируется с помощью ИИ, такие особенности не учитываются.
Что-то мне подсказывает, что скоро массово начнут появляться сервисы, анализирующие не только видео и фото, но и звук на предмет фальсификаций. Но пока что среди нейросетей преобладают те, которые их создают.
Друзья, если у вас появится информация об этом, непременно поделитесь со мной в комментариях! Ну а пока — дисклеймер от Биона. Коллеги! Если вам позвонит кто-то, представится Бионом и попросит одолжить денег до зарплаты, не верьте ему!
Помогал Биону Сергей Яковлев