Об этом 'РИА Новости' рассказали в компании 'Инфосистемы Джет', работающей в сфере защиты информации. Мошенники начали воровать деньги россиян с помощью фейковых видео с лицами звёзд.
Эта технология позволяет заменить движения губ и речь человека на видео. 'Deep fake — это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий Deep Learning (нейронных сетей). Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету', — пояснили в компании.
Злоумышленник по видом шоумена приглашает пользователей перейти по ссылке, чтобы получить приз. Например, в интернете распространялось видео с использованием образа Дмитрия Нагиева.
Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей', — рассказали в 'Инфосистемы Джет'. 'Такие сайты обычно перестают отвечать через пару дней, потому что попадают в чёрные списки мошеннических.
Если персонаж ролика не моргает, его глаза всё время открыты и тени на лице не меняются при смещении источника освещения, то скорее всего вы столкнулись с deep fake. Отличить фейковые видео можно по нескольким признакам, объяснили в компании. Своеобразными сигналами также могут быть разная чёткость изображения в одном видео или наличие шлейфов вокруг головы героя во время резких движений.
По материалам klops.ru
Материал к публикации подготовил Honna.