Перейти к основному контенту
Общество ,  
0 

ЦБ предупредил, что мошенники научились использовать дипфейки

Фото: fizkes / Fotodom / Shutterstock
Фото: fizkes / Fotodom / Shutterstock

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.

Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.

В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
  • проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.

Мошенники изобрели новую схему кражи денег через «Госуслуги» и «Госключ»
Общество
Фото:Михаил Гребенщиков / РБК

В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.

Теги
Магазин исследований Аналитика по теме "Банки"
Видео недоступно при нулевом балансе


 

Лента новостей
Курс евро на 14 марта
EUR ЦБ: 94,26 (+0,28)
Инвестиции, 13 мар, 18:19
Курс доллара на 14 марта
USD ЦБ: 86,62 (0)
Инвестиции, 13 мар, 18:19
На заводах Volkswagen хотят производить БТР. Реанимирует ли это компаниюPro, 08:57
Дрон сбили на окраине ОбнинскаПолитика, 08:42
Новая налоговая эпоха: что делать бизнесу в условиях тотальной слежки ФНСPro, 08:39
Российские сериалы заняли почти половину библиотек онлайн-кинотеатровТехнологии и медиа, 08:30
Les Echos заметила, что Путин в речи об остановке огня не упомянул ЕвропуПолитика, 08:30
Воробьев рассказал, где в Подмосковье сбили беспилотникиПолитика, 08:21
«Работа» vs «семья и отдых»: опыт основателя гастропроекта DVK farmРБК и WEY, 08:15
Как добиваться желаемого в любом разговоре
Овладейте действенными техниками на интенсиве РБК Pro «Искусство убеждать»
Подробнее
Bloomberg узнал об обсуждении США с Россией сотрудничества с «Газпромом»Бизнес, 08:07
Генпрокуратура обнаружила хищения в институте РособрнадзораОбщество, 08:01
Россияне стали чаще заказывать воду по утрам и чипсы с сырками ночьюВино, 08:00
В Госдуме предложили ежемесячно платить прожиточный минимум домохозяйкамОбщество, 07:55
Цена золота впервые в истории превысила $3000 за унциюИнвестиции, 07:54
Семь летевших во Внуково самолетов ушли на запасные аэродромыОбщество, 07:40
Военная операция на Украине. ОнлайнПолитика, 07:35