Аферисты взламывают чужой аккаунт, берут оттуда фотографии, видео- и аудиозаписи человека и загружают их в нейросеть. Искусственный интеллект анализирует черты лица, движения, голос и создает дипфейк — цифровой образ, максимально похожий на свой прототип.
Затем преступники записывают ролик с виртуальным двойником. Он говорит, что оказался в беде, например серьезно заболел, попал в аварию или лишился работы, и просит помочь ему деньгами. Это фальшивое видео обманщики рассылают родным, друзьям и коллегам человека и добавляют свои реквизиты для перевода денег.
Иногда мошенники создают дипфейки известных людей, популярных блогеров и отправляют видеосообщения всем их подписчикам.
«Дипфейк-технологии пока еще несовершенны, к тому же для создания реалистичной копии требуется большое количество данных. Поэтому подделку можно распознать по некоторым признакам: монотонному голосу, несвойственной человеку мимике или интонациям, дефектам звука и изображения. Но даже если видео не вызывает сомнений, стоит настороженно относиться к просьбам о деньгах и помнить, что аккаунт могли взломать», — гласит информация на портале «Финансовая культура» ЦБ РФ.
Помните, что прежде чем переводить деньги на неизвестные счета, лучше позвонить знакомому и убедиться, что ему действительно нужна помощь. Если у вас нет возможности поговорить по телефону или лично, в сообщении задайте человеку вопрос, ответ на который знает только он.
Напомним, ранее стало известно, что прокуратура помогла жительнице Балахтинского района Красноярского края вернуть 970 тыс. рублей, украденных кибермошенниками.
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев