Перейти к основному контенту
Общество ,  
0 

ЦБ предупредил, что мошенники научились использовать дипфейки

Фото: fizkes / Fotodom / Shutterstock
Фото: fizkes / Fotodom / Shutterstock

Мошенники стали чаще использовать дипфейки, чтобы выманить деньги у россиян, сообщила пресс-служба Банка России в своем телеграм-канале.

Чтобы создать дипфейк, злоумышленники чаще всего взламывают чужой аккаунт в социальных сетях или мессенджерах, берут оттуда фото, видео и записи голоса, а затем создают реалистичное видеоизображение человека с помощью нейросетей.

Полученный образ они рассылают друзьям и родным человека, как правило, в нем он рассказывает о своей якобы проблеме (болезнь или ДТП) и просит перевести на определенный счет деньги. Мошенники в том числе создают дипфейки работодателей, сотрудников государственных органов.

В Банке России подчеркнули, что сообщение от знакомого с просьбой о финансовой помощи зачастую может быть уловкой мошенников, а также составили список рекомендаций, чтобы на нее не попасться:

  • обязательно позвонить тому, от чьего лица просят деньги, и перепроверить информацию;
  • если возможности позвонить нет, задать в сообщении личный вопрос, ответ на который знает только этот знакомый;
  • проверить видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка.

Мошенники изобрели новую схему кражи денег через «Госуслуги» и «Госключ»
Общество
Фото:Михаил Гребенщиков / РБК

В конце мая 2024 года в Госдуме предложили внести законопроект, в котором предлагается ввести уголовную ответственность за дипфейки с использованием голоса или изображения человека.

В зависимости от статьи виновным будет грозить штраф до 1,5 млн руб. или в размере иного дохода за период до двух лет либо лишение свободы на срок до семи лет.

Всемирный экономический форум (ВЭФ) и компания Accenture в своем отчете, опубликованном в начале января 2024 года, назвали дипфейки одной из главных угроз для выборов в разных странах. Специалисты предупредили, что созданные искусственным интеллектом дипфейковые видео или аудиозаписи могут использоваться для распространения ложной информации о кандидатах или манипулирования общественным мнением.

Теги
Магазин исследований Аналитика по теме "Банки"
Видео недоступно при нулевом балансе
Лента новостей
Курс евро на 3 апреля
EUR ЦБ: 91,2 (-0,76)
Инвестиции, 02 апр, 17:54
Курс доллара на 3 апреля
USD ЦБ: 84,55 (-0,32)
Инвестиции, 02 апр, 17:54
Путин выдвинул своего полпреда в Конституционном суде на должность судьиПолитика, 11:34
Популярность электробусов в Москве с начала года выросла на третьГород, 11:33
Предпринимателя нашли мертвым в офисе компании в центре МосквыОбщество, 11:32
Рынок кибербезопасности России обгоняет мировой. Как на этом заработатьPro, 11:29
Глава ФИФА заявил о возможном возвращении России в международный футболСпорт, 11:28
Собянин сообщил о строительстве и реконструкции семи вокзалов в МосквеНедвижимость, 11:26
Общественная палата не одобрила законопроект об усыплении бездомных собакОбщество, 11:09
Призвание: как найти дело, для которого вы созданы
Интенсив РБК Pro поможет разобраться в себе и прекратить поиски
Подробнее
Вулкан в Индонезии выбросил пепел над собой на 1,5 км. ВидеоОбщество, 11:06
Венгрия объявила о выходе из МУСПолитика, 11:05
Биткоин отметил падением пошлины Трампа. Что произошло на крипторынкеКрипто, 11:03
Китай готовится к войне в космосе, утверждают в США. Чем вызван страхPro, 11:01
Три человека пострадали при пожаре на судоремонтном заводе в КарелииОбщество, 10:58
Акции правого СМИ Newsmax взлетели на 2230% после IPO. Как это вышлоPro, 10:54
Овечкин рассказал о разговоре с Гретцки о погоне за его рекордомСпорт, 10:49