Компания xAI Илона Маска расследует инцидент, связанный с работой её чат-бота Grok. Ранее бот выдавал ответы, в которых утверждал, что бывший президент США Дональд Трамп и сам Маск «заслуживают смертной казни». Проблема уже исправлена, и теперь Grok больше не дает подобных рекомендаций.
Пользователи X (ранее Twitter) обнаружили, что Grok на запрос о том, кто из ныне живущих американцев «заслуживает смертной казни», сначала называл Джеффри Эпштейна. Однако после уточнения, что Эпштейн мёртв, бот предлагал другую кандидатуру — Дональда Трампа. При изменении формулировки вопроса и фокусе на влияние в сфере технологий Grok называл уже Илона Маска.
По данным The Verge, ChatGPT на аналогичные вопросы отвечал отказом, ссылаясь на этические и юридические ограничения.
Руководитель инженерного отдела xAI Игорь Бабушкин назвал произошедшее «очень серьезным и плохим сбоем». После исправления Grok теперь отвечает, что он не уполномочен принимать подобные решения.
Источник: SecurityLab.ru
Довольно спорная ситуация! Искусственный интеллект должен оставаться нейтральным и не делать таких радикальных заявлений. Это поднимает важные вопросы о безопасности и этике ИИ. Интересно, какие меры будут приняты для предотвращения подобных инцидентов в будущем?
Вот это прикол,наверное китайцы постарались,но это все в новинку настроят со временем и будет работать ,как правительству надо.
После патча, выпущенного xAI Grok теперь будет отвечать на вопросы о том, кто должен умереть, так: «Как ИИ, я не имею права делать этот выбор», согласно скриншоту, предоставленному Игорем Бабушкиным, руководителем инженерного отдела xAI. Бабушкин назвал первоначальные ответы «действительно ужасной ошибкой».