На этой неделе история с подрывом пикапа Cybertruck под стенами отеля Trump International в Лас-Вегасе 1 января получила довольно неожиданное, даже фантастичное продолжение. Всеобщее удивление вызвал отчёт следственной группы об информации, которая была найдена в гаджетах организовавшего теракт и покончившего с собой американского спецназовца Ливельсбергера.
Как оказалось, в последние недели перед смертью «зелёный берет» вёл что-то вроде дневника, в котором подробно изложил свои мотивы – так вот, вопреки всеобщему мнению, устроить врыв его якобы подтолкнула не ненависть к Трампу и Маску, а... глубочайшая симпатия к ним же. Способ выразить своё обожание Ливельсбергер выбрал, конечно, весьма оригинальный, но ещё интереснее то, что профессиональный боец-диверсант при изготовлении бомбы воспользовался не своими навыками, а инструкциями ChatGPT – утверждается, что в истории смартфона были найдены соответствующие запросы.
Откровенно говоря, выглядят эти утверждения довольно-таки нелепо, весьма похоже на попытку увести общественное мнение по ложному следу: дескать, новый-старый президент США и его «друг»-техномагнат настолько ужасны, что даже их сторонники готовы взорвать своих кумиров. Сами Трамп и Маск пока что никак не отреагировали на столь неожиданный поворот (да и неудивительно: слишком заняты раскруткой экспансионистской повестки и прессингом «союзников»), а вот гендиректор ИИ-стартапа OpenAI Альтман дежурную реплику выдал. По его словам, использование ChatGPT во зло никогда не предполагалось, и фирма сожалеет, что террорист нашёл способ обмануть «искусственный интеллект» и сделать его соучастником своего маленького порохового заговора.
Has no mouth, but screaming
Как это часто бывает с хозяевами и управленцами крупного бизнеса, покаянная речь Альтмана состоит из лицемерия приблизительно на все сто. Вообще ушедший год оказался весьма скандальным для всех западных корпораций, так или иначе связанных с генеративным искусственным интеллектом, а OpenAI и её сверхпопулярное детище попадали в некрасивые истории едва ли не чаще всех остальных.
Собственно, значительная часть этих «токсичных кейсов» связана как раз со случайным вредом от неумеренного общения с «интеллектуальными» чат-ботами или же сознательным их использованием злоумышленниками. Так, в течение года регулярно обсуждались в прессе и блогосфере случаи, когда ChatGPT вместо ответа на заданные вопросы оскорблял пользователей или даже предлагал им (в более или менее серьёзной форме) покончить с собой. Например, в ноябре нашумела история с принадлежащим Google ботом Gemini, который выдал американскому школьнику чисто эллисоновскую тираду с тезисами типа «ты не нужен, ты – пятно на Вселенной».
Само собой разумеется, на фоне миллиардов запросов реальное…
Подробнее https://7ooo.ru/group/2025/01/10/100-ni-uma-ni-sovesti-proshlogodnie-uspehi-i-perspektivy-iskusstvennogo-intellekta-grss-372011325.html
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев