Почему в ИИ не “зашьют” Первый Закон Робототехники, который говорит о ценности человеческой жизни?
![💡](https://st.okcdn.ru/static/emoji/14-0-0/20/1f4a1@2x.png)
Недавно все обсуждали студента, которому нейросеть Gemini сообщила, что он обуза для общества и язва для окружающей среды и посоветовала, что он с этим должен сделать. И это в ответ на запрос о пенсионных программах!
Почему я решила высказаться? Меня часто воспринимают только как автора славянского психологического фэнтези, но именно сейчас я больше пишу социальную фантастику, которую в изрядных дозах подмешиваю и в ЛитРПГ ))) И меня очень волнует будущее, которые мы своими руками творим прямо сейчас!
Объяснение, которое разработчики дают этому случаю (и другим аналогичным), звучит так: обучение ИИ происходит на огромном массиве материала, в котором могут попадаться дурацкие шутки.
Я все понимаю, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию! И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.
Напомню вкратце:
![⚙](https://st.okcdn.ru/static/emoji/14-0-0/20/2699@2x.png)
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
![⚙](https://st.okcdn.ru/static/emoji/14-0-0/20/2699@2x.png)
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
![⚙](https://st.okcdn.ru/static/emoji/14-0-0/20/2699@2x.png)
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
![⚙](https://st.okcdn.ru/static/emoji/14-0-0/20/2699@2x.png)
И нулевой закон, добавленный позднее, который повторяет 1-й, но относительно человечества.
![💡](https://st.okcdn.ru/static/emoji/14-0-0/20/1f4a1@2x.png)
Ещё один недавний случай, который вылился в настоящую трагедию для подростка во Флориде, и мать обвиняет в этом ИИ:
Мальчик несколько месяцев общался с машиной в чат-боте, который играл роль Дейнерис Таргариен. Пацан влюбился в выдуманную героиню и начал обсуждать с ней возможный собственный конец. А виртуальный персонаж несколько раз возвращал его к болезненной теме и склонял к роковому решению.
Все закончилось максимально плохо, но если я напишу это простыми словами, меня "поругают" здешние алгоритмы. Они, видите ли, достаточно умны, чтобы подобный контент до ваших ушей и глаз не допускать, а нейросеть почему-то открытым текстом сказала мальчику: "Я верю в тебя, встретимся на небесах". Ну, примерно так. Сейчас дело разбирается в суде.
Мне кажется, вопрос назрел. О восстании машин мы ещё, конечно, не говорим, но об элементарных мерах безопасности подумать пора.
Недаром их продумали почти сто лет назад, и все эти сто лет люди фантазируют на тему страшных сценариев развития робототехники. А каждая хорошая книга, это, кстати, мысленный эксперимент. Пора уже что-нибудь из накопленных результатов применять на практике!
Какие мысли есть по этому поводу?
И, кстати, смотрите, какую красивую картинку мне ИИ сляпал по запросу "текстовая нейросеть, безопасность, первый закон робототехники". И как мы без них жили раньше? Полезные и рисуют красиво!
Анна Константинова
Авторский блог писателя ![✋](https://st.okcdn.ru/static/emoji/14-0-0/20/270b@2x.png)
Заглядывайте, буду рада новым подписчикам!
![💬](https://st.okcdn.ru/static/emoji/14-0-0/20/1f4ac@2x.png)
Самое бурное обсуждение этой статьи получилось
в моем блоге на АвторТудей. Там более сотни комментариев, можете присоединиться или высказаться здесь.
![🔥](https://st.okcdn.ru/static/emoji/14-0-0/20/1f525@2x.png)
Подписывайтесь еще
на мой Телеграм канал о писательстве и искусстве
Нет комментариев