Компания xAI Илона Маска расследует инцидент, связанный с работой её чат-бота Grok. Ранее бот выдавал ответы, в которых утверждал, что бывший президент США Дональд Трамп и сам Маск «заслуживают смертной казни». Проблема уже исправлена, и теперь Grok больше не дает подобных рекомендаций.
Пользователи X (ранее Twitter) обнаружили, что Grok на запрос о том, кто из ныне живущих американцев «заслуживает смертной казни», сначала называл Джеффри Эпштейна. Однако после уточнения, что Эпштейн мёртв, бот предлагал другую кандидатуру — Дональда Трампа. При изменении формулировки вопроса и фокусе на влияние в сфере технологий Grok называл уже Илона Маска.
По данным The Verge, ChatGPT на аналогичные вопросы отвечал отказом, ссылаясь на этические и юридические ограничения.
Руководитель инженерного отдела xAI Игорь Бабушкин назвал произошедшее «очень серьезным и плохим сбоем». После исправления Grok теперь отвечает, что он не уполномочен принимать подобные решения.
Источник: SecurityLab.ru
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Статьи и новости о нейросетях и искусственном интеллекте, просто и понятно о сложных технологиях. Освещает современные тенденции, объясняет, как работают ИИ-системы, и показывает, каким образом нейросети меняют различные сферы жизни. Регулярно собирает подборки и топы полезных нейросетей, тщательно отбирая актуальные инструменты и сервисы, которые могут существенно упростить рабочие и повседневные задачи. В своих подборках делится описаниями возможностей каждой нейросети, а также рекомендациями по их применению, чтобы помочь читателям быстро разобраться в новых технологиях и использовать их с максимальной пользой.
Социальные сети автора:






Довольно спорная ситуация! Искусственный интеллект должен оставаться нейтральным и не делать таких радикальных заявлений. Это поднимает важные вопросы о безопасности и этике ИИ. Интересно, какие меры будут приняты для предотвращения подобных инцидентов в будущем?
Вот это прикол,наверное китайцы постарались,но это все в новинку настроят со временем и будет работать ,как правительству надо.
После патча, выпущенного xAI Grok теперь будет отвечать на вопросы о том, кто должен умереть, так: «Как ИИ, я не имею права делать этот выбор», согласно скриншоту, предоставленному Игорем Бабушкиным, руководителем инженерного отдела xAI. Бабушкин назвал первоначальные ответы «действительно ужасной ошибкой».
ИИ работает по заданным ему алгоритмам, что в него вложили то он и будет отвечать. Он не может думать сам, как человек, у него нет ни эмоций, ни чувств, поэтому что вложено, то и отвечает. Еще и назвали ИИ, какой же у него интеллект, если это просто прога. Интеллект есть у человека. Но не у бота. Ну это лично мое мнение, кто с этим не согласен, я спорить и доказывать что-либо не буду. Я это так вижу.