Авторская колонка Екатерины Малашенко.
Дело о мошенничестве, жертвой которого стала народная артистка Лариса Долина, обсуждает вся страна. Мало того, что злоумышленники продали ее квартиру в Хамовниках, так еще и понабрали кредитов больше чем на 50 миллионов рублей.
Долина, которая вовсе не Долина. Выяснилось, что украинские аферисты сгенерировали двойника певицы и от ее имени обратились в микрофинансовую организацию. Там подвоха не заметили и выдали все требуемые суммы. Известно, например, что кредит в 50 миллионов рублей Долина якобы брала на юбилейный гастрольный тур. В деле фигурируют и другие суммы. Ход расследования контролирует прокуратура. Получается, если мошенники сумели воспользоваться нейродвойником Долиной, то обмануть подобным образом можно каждого из нас.
Представьте ситуацию: вечером выкладываешь в соцсети пару видео и фото, а утром на тебе уже с десяток кредитов на миллионы. А все потому, что кто-то взял твои данные, написал толковое ТЗ и загрузил в нейросеть.
Как это происходит? Директор по развитию направления «Кибербезопасность для населения» ГК «Солар» Олег Седов в интервью нашим коллегам из «Известий» заявил, что для создания дипфейка достаточно всего нескольких образцов голоса или записей его выступления. Причем содержание этих записей для ИИ значения не имеет. Потом мошенники заставляют двойника подать заявку на кредит и пройти собеседование с банком. Тот перечисляет деньги аферистам, а долг ложится на плечи ни в чем не повинного человека.
Процессы цифровали для удобства пользователей, а получилось, подсказали мошенникам новые способы обмана. Злоумышленники, действительно, стали активнее использовать дипфейки в секторе финансовых технологий. По данным The Wall Street Journal, за год количество таких инцидентов выросло в семь раз.
Страдают как пользователи, так и банки. Банкам приходится тратить огромные суммы на постоянное обновление программного обеспечения для лучшей идентификации клиентов. А IT-компаниям, которые занимаются разработкой подобного ПО, — учитывать все больше и больше факторов. Они применяют тот же искусственный интеллект, только работает он уже на другой стороне.
Например, для идентификации пользователя приложения некоторых американских банков запрашивают не просто селфи, а видео с поворотом головы вправо, влево, вверх и вниз. Такое дипфейкам не под силу. Пока.
100% защиты от обмана с помощью ИИ ни один защитный механизм не гарантирует.
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Комментарии 14
А эта трагедия, как оказывается, может коснуться каждого. В том числе и вас.