Почему в ИИ не “зашьют” Первый Закон Робототехники, который говорит о ценности человеческой жизни?
Недавно все обсуждали студента, которому нейросеть Gemini сообщила, что он обуза для общества и язва для окружающей среды и посоветовала, что он с этим должен сделать. И это в ответ на запрос о пенсионных программах!
Почему я решила высказаться? Меня часто воспринимают только как автора славянского психологического фэнтези, но именно сейчас я больше пишу социальную фантастику, которую в изрядных дозах подмешиваю и в ЛитРПГ ))) И меня очень волнует будущее, которые мы своими руками творим прямо сейчас!
Объяснение, которое разработчики дают этому случаю (и другим аналогичным), звучит так: обучение ИИ происходит на огромном массиве материала, в котором могут попадаться дурацкие шутки.
Я все понимаю, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию! И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.
Напомню вкратце:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
И нулевой закон, добавленный позднее, который повторяет 1-й, но относительно человечества.
Ещё один недавний случай, который вылился в настоящую трагедию для подростка во Флориде, и мать обвиняет в этом ИИ:
Мальчик несколько месяцев общался с машиной в чат-боте, который играл роль Дейнерис Таргариен. Пацан влюбился в выдуманную героиню и начал обсуждать с ней возможный собственный конец. А виртуальный персонаж несколько раз возвращал его к болезненной теме и склонял к роковому решению.
Все закончилось максимально плохо, но если я напишу это простыми словами, меня "поругают" здешние алгоритмы. Они, видите ли, достаточно умны, чтобы подобный контент до ваших ушей и глаз не допускать, а нейросеть почему-то открытым текстом сказала мальчику: "Я верю в тебя, встретимся на небесах". Ну, примерно так. Сейчас дело разбирается в суде.
Мне кажется, вопрос назрел. О восстании машин мы ещё, конечно, не говорим, но об элементарных мерах безопасности подумать пора.
Недаром их продумали почти сто лет назад, и все эти сто лет люди фантазируют на тему страшных сценариев развития робототехники. А каждая хорошая книга, это, кстати, мысленный эксперимент. Пора уже что-нибудь из накопленных результатов применять на практике!
Какие мысли есть по этому поводу?
И, кстати, смотрите, какую красивую картинку мне ИИ сляпал по запросу "текстовая нейросеть, безопасность, первый закон робототехники". И как мы без них жили раньше? Полезные и рисуют красиво!
Анна Константинова Авторский блог писателя Заглядывайте, буду рада новым подписчикам!
Самое бурное обсуждение этой статьи получилось
в моем блоге на АвторТудей. Там более сотни комментариев, можете присоединиться или высказаться здесь.
Подписывайтесь еще
на мой Телеграм канал о писательстве и искусстве
Нет комментариев