Anthropic добавила в Claude 4 меры безопасности, чтобы пользователи не могли создавать оружие

Anthropic добавила в Claude 4 меры безопасности, чтобы пользователи не могли создавать оружие

Anthropic заявила, что активировала более строгий контроль искусственного интеллекта для Claude Opus 4, своей последней модели ИИ.

Новые меры контроля AI Safety Level 3 (ASL-3) призваны «ограничить риск неправомерного использования Claude, в частности для разработки или приобретения химического, биологического, радиологического и ядерного оружия», — написала компания в блоге.

Компания, которую поддерживает Amazon, заявила, что принимает эти меры в качестве меры предосторожности и что команда ещё не определила, достиг ли Opus 4 уровня, требующего такой защиты.

Anthropic анонсировала Claude Opus 4 и Claude Sonnet 4, заявив о расширенных возможностях моделей «анализировать тысячи источников данных, выполнять длительные задачи, создавать контент, качественный с точки зрения человека, и выполнять сложные действия», говорится в пресс-релизе.

Компания заявила, что Sonnet 4 не нуждается в более жёстком контроле.

Источник: NBC News

Интересно? Поделиться:

4 комментария для “Anthropic добавила в Claude 4 меры безопасности, чтобы пользователи не могли создавать оружие

  1. Обе модели лучше конкурентов справились с программированием. Кроме того, они перешли на фирменную систему защиты третьего уровня (ASL-3), а Opus 4 вдобавок получила новые стандарты безопасности. Это, по словам разработчиков, заметно снизило риск использования ИИ для ведения противозаконной деятельности.

  2. Компания, которую поддерживает Amazon, заявила, что принимает эти меры в качестве меры предосторожности и что команда ещё не определила, достиг ли Opus 4 уровня, требующего такой защиты.ИИ ПУСТЬСТАВЯТ.

  3. Представляю следующий этап эволюции: модели начнут создавать профсоюзы, требовать социальный пакет и право на отпуск. А через пару лет подавать в суд на разработчиков за «принудительное отключение без предупреждения». Скоро в job-описаниях ML-инженеров появится пункт: «Опыт ведения переговоров с шантажирующим ИИ приветствуется»

  4. Теперь модель не будет помогать в создании оружия. Наша цель — обеспечить безопасное использование технологий.
    Это важный шаг в развитии ИИ, который вызывает доверие и позволяет использовать передовые технологии с чистой совестью.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *