Пятница, 13 сентября 2024 года
Выбор редакции

Новости сегодня

10 : 14
Астрологический прогноз для всех знаков зодиака на 14 сентября 2024 года
10 : 09
Мужской гороскоп на 14 сентября 2024 года: каким знакам зодиака необходимо избегать проявления негативных эмоций
09 : 45
Гороскоп от Павла Глобы на 14 сентября 2024 года поможет знакам зодиака справиться с трудностями дня
09 : 37
Какой праздник 14 сентября 2024 года отметят в России и в мире
09 : 30
Зачем у славян было принято хоронить мух, поведают поверья и приметы на 14 сентября 2024 года
09 : 15
14 сентября православная церковь отмечает Церковное новолетие
09 : 11
Славянский новый год, Воздвижение Креста Господня и другие праздники 14 сентября 2024 года
08 : 55
Эндокринолог поделилась секретами похудения сына Никаса Сафронова
02 : 05
Обновленный макроэкономический прогноз Минэка до 2027 года прокомментировали эксперты
00 : 15
Археологи в Египте обнаружили меч Рамзеса II: открытие, меняющее представления о древней истории
Больше новостей

Дипфейки на Ура: Как Различить Реальность и Манипуляцию?

Дипфейки на Ура: Как Различить Реальность и Манипуляцию?

Дипфейки — это видеоролики, в которых одно лицо заменяется другим с помощью технологий машинного обучения. Если несколько лет назад эти видео были довольно грубыми и вызывали смех, то сейчас качество дипфейков значительно возросло. К сожалению, это привело к тому, что преступники начали использовать эту технологию в своих целях. Например, мошенники могут создать видео с голосом начальника, который требует перевести деньги, или подделать порноролики с участием известных личностей. Эксперты предупреждают, что с ростом биометрических данных увеличивается и риск мошенничества. Важно знать, как можно определить дипфейк, а также какие меры принимаются для борьбы с такими манипуляциями. Об этом пишет comandir.com

10 признаков, которые помогут распознать дипфейк

В конце 2017 года на платформе Reddit появились первые дипфейки, когда пользователь с ником Deepfakes загрузил порнографические видео, в которых лица актеров были заменены на лица популярных голливудских звезд. Эта новая технология быстро распространилась по интернету, породив множество аналогичного контента. После того как пользователи попробовали различные варианты с интимными роликами, они начали создавать забавные видео с Николасом Кейджем. С помощью приложения FakeApp, запущенного в январе 2018 года, актер был добавлен в фильмы, в которых он никогда не снимался, и несовершенство технологии только добавляло комичности этим роликам.

С течением времени эксперименты с дипфейками становились все более разнообразными. Так, Сильвестр Сталлоне «перевоплотился» в мальчика Кевина из фильма «Один дома», Арнольд Шварценеггер «сыграл» всех персонажей во «Властелине колец», а Илон Маск «исполнил» песню «Трава у дома». При этом стоит отметить, что существует несколько методов создания дипфейков. Один из них — Face2Face, который позволяет пользователям «примерять маску» знаменитых политиков, добавляя им свою артикуляцию и заставляя говорить необычные вещи. Этот метод работает в реальном времени и искажает мимику исходного объекта, не заменяя одно лицо другим. В последние годы термин «дипфейк» стал использоваться в более широком смысле, охватывая все виды видео, созданные с помощью искусственного интеллекта.

Как это создается и как работает

Создание дипфейков осуществляется с применением генеративно-состязательных сетей (GAN), где две нейросети — генератор и дискриминатор — находятся в постоянном соперничестве. Генератор создает фальшивые изображения, в то время как дискриминатор пытается отличить их от настоящих. Чем более убедительные подделки производит генератор, тем лучше результат его работы.

Ранее результаты, полученные с помощью GAN, имели низкое разрешение, и их легко можно было распознать как искусственные. Однако с появлением ProGAN разрешение изображений возросло до 1024×1024 пикселей, что значительно повысило качество создаваемых картинок.

Кроме того, существует модель StyleGAN, которая специализируется на генерации лиц несуществующих людей. Эта нейросеть была обучена на большом массиве реальных изображений и теперь может создавать правдоподобные человеческие лица. Например, на одной из трех представленных фотографий изображена настоящая девушка, находящаяся в центре.

Как распознать манипуляцию?

Развитие технологий дипфейков привело к созданию видеоконтента, который выглядит крайне реалистично, что, в свою очередь, вызвало рост недоверия у пользователей интернета. Несмотря на высокое качество таких видео, внимательное изучение может выявить некоторые цифровые недостатки, или артефакты, которые указывают на их искусственное происхождение. Ученые из Университета Эрлангена–Нюрнберга провели исследование, в котором описали, как можно распознать дипфейки, обращая внимание на определенные особенности лиц. К примеру, у многих созданных моделей глаза могут отличаться по цвету, что является редким явлением в реальной жизни. Также важно, чтобы расстояние от центра глаза до края радужной оболочки было одинаковым, а контуры лимба выглядели правильно. Эти наблюдения могут стать полезными индикаторами для распознавания дипфейков.


Новости партнеров