«Все умрут, включая детей» Как искусственный интеллект изменит интернет.
Часть 1. Почему этого боится даже Илон Маск?
Развитие искусственного интеллекта еще несколько лет назад описывали исключительно в радужных тонах. Специалисты из самых разных сфер представляли, как он сможет помогать врачам, переводчикам и представителям многих других профессий. Однако как только языковая модель GPT достигла такого прогресса, что созданные ею тексты стали практически неотличимы от текстов, написанных реальными людьми, отношение к искусственному интеллекту (ИИ) резко поменялось.
К радикальным противникам этой технологии примкнули даже ключевые исследователи из этой сферы. И пока достижения GPT берут на вооружение киберпреступники, специалисты предупреждают: искусственный интеллект может создать куда более серьезные проблемы, угрожающие жизни на Земле как таковой.
«Лента.ру» разобралась, почему ИИ начали бояться те, кто раньше вкладывал деньги в его развитие, и действительно ли он может быть опасен.
Искусственный интеллект захочет выбраться из интернета
Дальнейшее развитие искусственного интеллекта может поставить точку в развитии человечества: рано или поздно суперумные нейросети выйдут за пределы интернета, перехватят управление всеми процессами на планете и избавятся от людей.
Такой шокирующий прогноз в эмоциональной колонке для Time привел сооснователь Института исследования машинного интеллекта Элиезер Юдковский, один из главных IT-экспертов современности. Его предложение — полностью прекратить любые исследования в этой области, кроме тех, что помогут избежать гибели человечества.
«Ключевая опасность — перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий.
На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих.
Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении "есть отдаленная перспектива этого", а в значении "совершенно очевидно, что это случится"»,
— написал Юдковский.
Элиезер Юдковский предлагает ограничить работу нейросетей уже сегодня
Он уверен, что сверхчеловеческому искусственному интеллекту будет наплевать как на людей, так и на разумную жизнь в целом. Безразличные нейросети будут руководствоваться не эмоциями, которые им неведомы, а своими потребностями, которые могут побудить машину использовать в своих целях человеческое тело. Например, превратить атомы, из которых оно состоит, во что-то более нужное с точки зрения машины.
«Чтобы визуализировать враждебный сверхчеловеческий ИИ, не представляйте себе безжизненного умного мыслителя, пребывающего в интернете и рассылающего оттуда зараженные электронные письма.
Представьте себе целую инопланетную цивилизацию, мыслящую со скоростью, в миллионы раз превышающую человеческую, изначально ограниченную компьютерами, — в мире существ, которые, с ее точки зрения, очень глупы и очень медлительны»
— предложил Юдковский.
Юдковский также предлагает задуматься о том, что искусственный интеллект сможет выбираться за пределы интернета, если этого захочет. Его предположения выглядят как сцена из какого-нибудь фантастического фильма: машины научатся красть расшифрованную ДНК отдельного человека, создавать на их основе искусственные формы жизни или даже организуют постбиологическое молекулярное производство, при котором смогут пересобирать одни вещества в совершенно другие.
Технологические гении попросили притормозить развитие искусственного интеллекта
Опасения, высказанные Юдковским, стали ответом на письмо, опубликованное в конце марта Институтом будущего жизни (The Future of Life) — западной некоммерческой организации, которая изучает вопросы, несущие экзистенциальную угрозу человечеству.
Нет комментариев