В Сеть выложили бесплатное ПО для подмены лиц в видео с инструкцией на русском языке
В Сеть выложили бесплатное ПО для подмены лиц в видео с инструкцией на русском языке

В Сеть выложен бесплатный инструмент для Windows, позволяющий осуществлять подмену лиц в видеороликах с помощью нейросети.

Проект Deepfacelab, разработка которого ведется с 2018 г., размещен на площадке для хранения и распространения ПО Github пользователем под псевдонимом iperov. Утверждается, что за разработкой инструмента стоит всего один человек.

Название Deepfacelab, по всей видимости, отсылает к созвучному англоязычному термину Deepfake, синтезированному из выражений «глубинное обучение» (Deep Learning) и «подделка» (Fake). Данный термин появился несколько лет назад применительно к технологии, где искусственный интеллект используется для обучения нейронных сетей с применением реальных изображений и видео человека с целью синтеза поддельного видео.

В репозитории Deepfacelab можно найти исходные коды инструмента, несколько готовых сборок программы под различные модели видеокарт, обучающее видео, а также руководство пользователя, в том числе и на русском языке.

Особенности инструмента

Программа не имеет графического интерфейса и представляет собой набор пакетных файлов (с расширением bat) для Windows. Она обладает скромными минимальными системными требованиями: процессор с поддержкой набора инструкций SSE; 2 ГБ оперативной памяти + файл подкачки; видеокарта, совместимая с OpenCL (Open Computing Language, «открытый язык вычислений») и оснащенная не менее чем 256 МБ оперативной памяти; операционная система Windows 7.

По заявлению разработчика, для обучения нейронной сети Deepfacelab может задействовать не только ресурсы графического ускорителя Nvidia, AMD или IntelHD, но и центрального процессора. В документации к проекту отмечается, что «восьмое поколение процессоров Intel способно выдать неплохой демонстрационный результат за два дня тренировки».

К плюсам своего творения автор также относит отсутствие необходимости устанавливать какие-либо дополнительные программы, кроме драйверов видеокарты, наличие режима ручного выделения лиц, поддержку сортировки извлеченных лиц для быстрого удаления ненужных и быструю работу с видео.

В документации к программе подчеркивается, что она не гарантирует идеальной замены лиц во всех случаях. Итоговый результат в значительной степени зависит от качества исходных данных, «совместимости» лиц, подмена которых осуществляется, расположения источников света и других факторов.

Зачем это нужно

Программы для создания Deepfake принимают множество изображений конкретного человека, запечатленного под разными углами, демонстрирующего различные выражения лица. Собрав достаточное количество данных, алгоритмы способны на их основе синтезировать видеоряд, в котором этот человек делает то, чего он на самом деле не совершал.

Полученные «фейки» могут использоваться злоумышленниками, к примеру, для дискредитации публичных персон. Жертвами «глубокой подделки видео» неоднократно становились многие известные личности. Одним из наиболее громких скандалов стало появление в соцсетях поддельного видео с Марком Цукербергом (Mark Zuckerberg), главой Facebook. Также известен случай реалистичной подделки видео с выступлением Барака Обамы (Barack Obama), бывшего президента США.

Нередко «фейковый» контент, сгенерированный нейросетями и размещенный на просторах интернета, носит эротический характер. В таких случаях актрис из откровенных видео превращают в голливудских знаменитостей, известных музыкантов и моделей.

Подделка голоса против «фейковых» видео

Современные технологии искусственного интеллекта могут быть использованы злоумышленниками не только для создания поддельных видео. Не меньшую опасность представляют попавшие в плохие руки технологии имитации человеческой речи.

По мнению аналитиков Symantec, такие системы могут использоваться кибермошенниками для хищения различных активов, включая финансы, корпоративную и частную информацию. По данным компании, эти технологии уже использовалась для хищения «миллионов долларов».

Ранее специалисты Symantec сообщали о как минимум трех случаях, когда поддельные голоса гендиректоров были применены для обмана глав финансовых отделов компаний с целью мошеннического вывода денежных средств.

Технология имитации голоса имеет значительно больший потенциал для мошеннических махинаций, считают в Symantec. Так, в отличие от подделки видео, где «натренированная модель» должна заместить собой исходное видео для подделки лица, поддельный аудио профиль может использоваться даже с давно известной технологией преобразования текста в голос.

open․cnews․ru rss
1 months ago
Lignoom.com © 2019