ЦБ предупредил, что мошенники научились использовать дипфейки
Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.
Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.
Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.
В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:
- обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
- если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
- проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.
В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.
В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.
Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.