Приёмы мошенников становятся всё более изощрёнными за счёт нейросетей

Они создают виртуальных клонов, чтобы обманывать жертв

Фото: Игорь Лесовских / Артемовский зефир

Центробанк России предупреждает о новых ухищрениях злоумышленников. Теперь мошенники используют реальные фото, видео и записи голоса, которые они крадут из чужих мессенджеров и социальных сетей. С помощью данных, «угнанных» у реальных людей, они создают виртуальных клонов, подделывают с помощью нейросетей фейковые голосовые и видеосообщения. Эти клоны выглядят очень реалистично.

«Сгенерированный образ [мошенники] рассылают друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определённый счёт», – предупреждают о новой схеме, раскрытой Центробанком.

Злоумышленники могут подделать видео или голосовые работодателей, или чиновников, или даже известных людей.

«Если вам пришло сообщение от знакомого с просьбой о финансовой помощи, не спешите переводить деньги: аккаунт могли взломать мошенники. Иногда для рассылки таких сообщений злоумышленники создают поддельные страницы с именем и фото человека», – сообщает Центробанк.

Что нужно проверить? В первую очередь, позвоните вашему знакомому на телефон и перепроверьте, правда ли это было его видео- или голосовое сообщение. Если не можете ему набрать, то задайте личный вопрос, на который может ответить лишь ваш знакомый. «Проверьте видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука – наиболее заметных признаков дипфейка», – призывают в Центробанке.

Еще больше новостей в Telegram-канале «Артёмовского Зефира».