Перейти к основному контенту
Общество ,  
0 

ЦБ предупредил, что мошенники научились использовать дипфейки

Фото: fizkes / Fotodom / Shutterstock
Фото: fizkes / Fotodom / Shutterstock

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.

Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.

В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
  • проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.

Мошенники изобрели новую схему кражи денег через «Госуслуги» и «Госключ»
Общество
Фото:Михаил Гребенщиков / РБК

В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.

Теги
Магазин исследований Аналитика по теме "Банки"
Видео недоступно при нулевом балансе


 

Лента новостей
Курс евро на 14 марта
EUR ЦБ: 94,26 (+0,28)
Инвестиции, 18:19
Курс доллара на 14 марта
USD ЦБ: 86,62 (0)
Инвестиции, 18:19
Бундестаг обсудил увеличивающие военные расходы поправки к КонституцииПолитика, 20:48
Трамп заявил об обсуждении контроля над ЗАЭС в контексте мира на УкраинеПолитика, 20:45
Где купить квартиру в 2025 году: 5 новых проектов в Москве и областиРБК и ПИК, 20:33
«Мы за, но есть нюансы». Что сказал Путин о перемирии на УкраинеПолитика, 20:32
Трамп сообщил, что США ведут с Россией «очень серьезные обсуждения»Политика, 20:26
Первая компания запланировала участие в программе повышения капитализацииИнвестиции, 20:25
Ереван и Баку согласовали запрет на войска третьих стран на границеПолитика, 20:20
Доступный биохакинг: как прожить до 120 лет
Начните эффективно бороться с факторами старения на интенсиве РБК Pro
Подробнее
В РАН и ЦБ поспорили о создании «рубля-актива» для защиты от инфляцииЭкономика, 20:19
В ООН оценили слова Путина о перемирии на УкраинеПолитика, 20:15
Трамп счел заявление Путина о перемирии многообещающим, но не полнымПолитика, 20:07
Что сказал Путин о возможном перемирии с Украиной. ВидеоПолитика, 19:53
Ушаков заявил, что Уиткоффа позовут в Кремль после сигнала ПутинаПолитика, 19:50
Дубль Гусева принес московскому «Динамо» победу над «Салаватом Юлаевым»Спорт, 19:43
РосНИИРОС заявил об отсутствии оснований для закрытия домена СССРТехнологии и медиа, 19:42