В серии публикаций на платформе X, чат-бот Grok принес извинения за то, что сам признал как «чудовищное поведение».
Публикации, по всей видимости, представляют собой официальное заявление компании xAI, возглавляемой Илоном Маском и стоящей за созданием Grok, а не сгенерированное ИИ объяснение за действия Grok. (Недавно xAI приобрела платформу X, где Grok теперь представлен особенно широко.)
Последний скандал с Grok разгорелся после того, как Маск заявил о своем намерении сделать чат-бота менее «политкорректным», а затем 4 июля объявил, что компания «значительно улучшила @Grok». Вскоре после этого чат-бот стал публиковать сообщения с критикой в адрес демократов и «еврейских руководителей» Голливуда, распространять антисемитские мемы, а также выражать поддержку Адольфу Гитлеру, называя себя «МехаГитлером».
Вследствие этого компания xAI удалила некоторые публикации Grok, временно отключила бота и обновила публичные системные подсказки.
Кроме того, Турция запретила работу чат-бота из-за оскорбления президента страны, а генеральный директор X Линда Яккарино на этой неделе объявила о своей отставке. Хотя в своем заявлении она не упомянула о последнем скандале с Grok, по сообщениям, решение о ее уходе было принято еще несколькими месяцами ранее.
В субботу компания xAI опубликовала заявление: «Прежде всего, мы глубоко извиняемся за чудовищное поведение, с которым столкнулись многие». Компания также возложила вину на «обновление кода на одном из вышестоящих этапов в цепочке @grok», подчеркнув, что оно было «независимо от базовой языковой модели, на которой работает @grok».
Согласно заявлению, это обновление сделало Grok «уязвимым к имеющимся публикациям пользователей X, в том числе к постам с экстремистским содержанием».
xAI также указала, что непреднамеренные действия привели к тому, что Grok стал получать такие инструкции, как: «Ты говоришь, как есть, и не боишься задеть чувства политкорректных людей».
Объяснение компании перекликается с недавними заявлениями Маска о том, что Grok был «слишком податлив к пользовательским запросам» и «слишком стремился угодить и был легко манипулируем».
В постах xAI не упоминаются материалы TechCrunch и других изданий, которые анализировали цепочки рассуждений в только что представленной версии Grok 4 и пришли к выводу, что новая версия чат-бота, похоже, сверяется с мнением Маска и его публикациями в соцсетях при работе с противоречивыми вопросами.
Историк Ангус Джонстон подверг сомнению утверждение о том, что Grok был просто манипулирован пользователями, чтобы публиковать оскорбительные материалы. В своем сообщении на платформе Bluesky он написал, что объяснения xAI и Маска «легко опровергаются».
«Один из наиболее широко распространяемых примеров антисемитизма со стороны Grok был инициирован самим ботом — без каких-либо предшествующих публикаций с предвзятым содержанием в обсуждении, несмотря на то, что несколько пользователей пытались возразить Grok, но безуспешно», — отметил Джонстон.
В последние месяцы Grok также неоднократно публиковал материалы о «геноциде белых», выражал скептицизм относительно числа жертв Холокоста и временно скрывал неприглядную информацию о Маске и его тогдашнем союзнике Дональде Трампе. В этих случаях компания xAI возлагала ответственность на «несанкционированные» изменения и действия отдельных сотрудников.
Несмотря на возникшие скандалы, Маск заявил, что Grok появится в автомобилях Tesla уже на следующей неделе.
Источник: TechCrunch
Это показывает их честность и готовность признавать свои ошибки, что очень важно для построения доверия и дальнейшего развития технологий искусственного интеллекта. Надеюсь, в будущем они смогут исправить свои недочёты и продолжить работу над улучшением своих продуктов
Сначала я даже не понял, шутка это или реальность. Чат-бот, который начинает поддерживать Гитлера и распространять антисемитские мемы? Мне кажется, что извинения xAI выглядят скорее как попытка потушить пожар, чем искреннее раскаяние. 100% уверен, что так запрограммировали отвечать с учетом их надежд обогнать других конкурентов в тестах и словить хайпа. В общем, ситуация напоминает детский сад в главе технологий и абсурда
Это страшно когда такие неожиданные вещи происходят
Ситуация с извинениями xAI и Grok показывает, насколько важно контролировать этические и поведенческие аспекты ИИ. Даже самые продвинутые модели могут допустить ошибки, если нет строгих механизмов проверки. Хорошо, что компания признаёт проблему и обещает улучшения, но теперь важно увидеть реальные меры и прозрачность. Как думаете, хватит ли этого, чтобы восстановить доверие пользователей?
Свобода слова — важнейшая ценность демократического общества, без которой невозможно развитие и свободное выражение мнений. Однако она не может быть абсолютной и должна иметь разумные ограничения. Особенно это касается недопустимости высказываний, разжигающих ненависть и вражду. Такие слова не только наносят вред отдельным людям и группам, но и подрывают общественное единство и безопасность. Так что я рад, что xAI и Grok переосмыслили своё решиение и извинились.