Предыдущая публикация
Новые ИИ-модели научились подделывать лица и голоса так, что отличить подделку становится всё сложнее. Экспертов встревожила нейросеть OmniHuman-1, которая создаёт правдоподобные видео по одной фотографии и аудиофайлу.
В 2025 году специалисты ожидают бум правдоподобных дипфейков — знаменитостей, политиков или ваших знакомых, которые на видео произносят слова, которых в реальности никогда не говорили. Дипфейки научатся использовать в реальном времени, в том числе во время звонков и прямых эфиров.
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев