Перейти к основному контенту
Общество ,  
0 

ЦБ предупредил, что мошенники научились использовать дипфейки

Фото: fizkes / Fotodom / Shutterstock
Фото: fizkes / Fotodom / Shutterstock

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.

Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.

В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
  • проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.

Мошенники изобрели новую схему кражи денег через «Госуслуги» и «Госключ»
Общество
Фото:Михаил Гребенщиков / РБК

В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.

Теги
Магазин исследований Аналитика по теме "Банки"
Видео недоступно при нулевом балансе

Лента новостей
Курс евро на 19 сентября
EUR ЦБ: 102,04 (+0,53)
Инвестиции, 18 сен, 17:52
Курс доллара на 19 сентября
USD ЦБ: 91,67 (+0,24)
Инвестиции, 18 сен, 17:52
Гладков сообщил об атаке дронов-камикадзе на Белгородскую областьПолитика, 11:31
Синоптик рассказал, когда в России начнется бабье летоОбщество, 11:30
Облигации обошли акции по соотношению риск/доходность. Какие купитьPro, 11:23
Украина объявила в розыск обвиняемого в коррупции депутата Рады ОдарченкоПолитика, 11:15
Курс биткоина превысил $62,5 тыс. после снижения ставки ФРСКрипто, 11:11
РФС назвал лучшего футболиста РоссииСпорт, 11:09
В посольстве Ливана в Москве заявили, что не пользуются пейджерамиПолитика, 11:03
Онлайн-курс Digital MBA от РБК Pro
Объединили экспертизу профессоров MBA из Гарварда, MIT, INSEAD и опыт передовых ИТ-компаний
Оставить заявку
Казахстан с 2022 года вернул в госсобственность активы на $2,3 млрдПолитика, 11:02
Альфа-Лизинг: «От роста ключевой ставки пострадает МСБ, но недолго»РБК Компании, 11:00
Игра с кадастровой ценой недвижимости: как изменить с выгодой для фирмыPro, 10:56
ФСБ накрыла канал переправки африканцев в ЕС через РоссиюОбщество, 10:40
Внутренний аудит: как повысить эффективность бизнеса и снизить его рискиОтрасли, 10:39
Что такое экспирация и почему о ней важно знать инвесторуИнвестиции, 10:35
Неизвестные в Киеве вновь сожгли машины военнослужащихПолитика, 10:32