«Помутнение» искусственного разума чаще всего происходит у чат-ботов. Пример: вы спросили, сколько зарабатывает компания Tesla. ИИ не знает ответ, но уверенно выдаст вам какую-нибудь цифру, которую сочтет более-менее подходящей. Если переспросить, чат-бот будет настаивать на ответе, который он дал ранее.
ИИ с галлюцинациями может не только придумывать ответы, но и просто вводить в заблуждение. Так, например, в феврале этого года Google представила чат-бота Bard, который отвечал на вопросы о космическом телескопе Джеймса Уэбба. Одно из утверждений бота, что телескоп сделал самый первый снимок экзопланеты за пределами нашей Солнечной системы — оказалось абсолютно неверным.
Почему же чат-боты ошибаются? Из-за огромного массива данных, что в них загружают. Большую часть информации ИИ берет из первых ссылок поисковика. Но далеко не каждый сайт является достоверно-проверенным.
Теперь вы знаете +1 ответ на вопрос в игре «Мозг на прочность». Подключайтесь и выигрываете крутые призы:
naukagame.ruВопросы мы подготовили вместе с научно-популярными блогерами. За этот спасибо сообществу
Логово ИИ!
Комментарии 4