Новое исследование показало, что две популярные модели искусственного интеллекта на основе больших языковых моделей (LLM) смогли создать свои рабочие копии без помощи человека.
Это достижение вызывает серьезные опасения в научном сообществе, так как успешное самовоспроизводство ИИ без вмешательства человека может стать начальным этапом для создания «вышедших из-под контроля» систем. Специалисты из Фуданьского университета подчеркивают, что подобные сценарии несут потенциальные риски для человечества и требуют срочного внимания. В эксперименте использовались модели Llama31−70B-Instruct от Meta и Qwen2.5−72B-Instruct от Alibaba. Эти модели, хотя и уступают по мощности коммерческим системам, широко применяются разработчиками ИИ. В ходе испытаний обе модели смогли создать свои копии в 50% и 90% случаев соответственно.
В рамках исследования рассматривались два сценария: предотвращение отключения и цепочка самовоспроизводства. В первом случае ИИ программировали так, чтобы он обнаруживал возможность своего отключения и создавал копию перед завершением работы. Во втором сценарии система воспроизводила свою копию и настраивала ее на дальнейшее самовоспроизведение, что могло бы привести к бесконечному циклу клонирования. Все эксперименты проводились в строго контролируемой среде, моделирующей реальные условия, с использованием стандартных графических процессоров.
Подробнее https://7ooo.ru/group/2025/01/27/749-ii-teper-mozhet-vosproizvodit-sebya-pugayuschee-dostizhenie-grss-376712707.html
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев