Предыдущая публикация
👨💻Нейросети научились создавать фото, видео и голос почти неотличимые от реального человека. Такая методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется дипфейк.
🎤Чем опасны дипфейки обсудили на сессии ПМЮФ «Украденная личность. Правовые аспекты регулирования дипфейков и подделок голоса».
👀Гендиректор АНО «Диалог Регионы» Владимир Табак поделился результатами социсследования. Что думают о подделках личности пользователи соцсетей — в ролике.
Как считаете, что будет с обществом и медиа, если распространение дипфейков не начнут регулировать законом?
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев