Российский разработчик улучшил технологию Deepfake

0

Технология способна генерировать "фейки" по единственной фотографии

Российский разработчик улучшил технологию Deepfake


По словам программиста, его версия алгоритма модифицирует не только лицо, но всю «персону» целиком: необходима лишь одна исходная фотография, целевое изображение, пять приблизительных параметров комплекции и «0.1 секунда терпения» пользователя.

После этапа 3D-фикации (3Dfying) исходной фотографии (создания трехмерного варианта двухмерного изображения), на выходе получается целиком видоизмененная «персона», голова, волосы, цвет кожи, а также комплекция, которые повторяют таковые на исходной фотографии.

В отличие от старого Deepfake, новая версия изменяет не только лицо, но и голову, волосы, цвет кожи и даже фигуру. Более того, технология может изменить любое фото, а не заранее встроенное в алгоритм.

Как утверждает Чаплыгин, данную технологию он разрабатывал в одиночку в течение двух лет, и было «весьма непросто создать то, чего никому раньше не удавалось, особенно если ты работаешь один». На данный момент программа работает на его «домашнем компьютере», и для того, чтобы масштабировать проект, разработчику нужны «сервера, высокоскоростной Интернет и команда, поддерживающая весь сетап». Средства на массовое внедрение новой технологии Чаплыгин планирует найти у заинтересованных лиц или организаций методом «шести рукопожатий».

По признанию разработчика, такие «дипфейки» вполне можно использовать для «кражи/подделки личности», но, как утверждает Чаплыгин, Deepfake 2.0 создан для «благих целей», одной из которых является создание виртуальной примерочной для Интернет-магазинов одежды, где каждый может загрузить своё фото, чтобы оценить будущую покупку.

Deepfake 2.0 можно будет встроить в качестве плагина (подпрограммы) в любое ПО или устройство, чтобы пользователь мог моментально увидеть себя на любом фото. Также технология может быть использована в фоторедакторах, кинопроизводстве, при создании анимации и др.

Качество работы нового алгоритма можно оценить на опубликованном в YouTube на канале Alexey Chaplygin демонстрационном видео.

Источник