Anthropic заявила, что активировала более строгий контроль искусственного интеллекта для Claude Opus 4, своей последней модели ИИ.
Новые меры контроля AI Safety Level 3 (ASL-3) призваны «ограничить риск неправомерного использования Claude, в частности для разработки или приобретения химического, биологического, радиологического и ядерного оружия», — написала компания в блоге.
Компания, которую поддерживает Amazon, заявила, что принимает эти меры в качестве меры предосторожности и что команда ещё не определила, достиг ли Opus 4 уровня, требующего такой защиты.
Anthropic анонсировала Claude Opus 4 и Claude Sonnet 4, заявив о расширенных возможностях моделей «анализировать тысячи источников данных, выполнять длительные задачи, создавать контент, качественный с точки зрения человека, и выполнять сложные действия», говорится в пресс-релизе.
Компания заявила, что Sonnet 4 не нуждается в более жёстком контроле.
Источник: NBC News

Главный редактор
Социальные сети:
Telegram: https://t.me/creatorproject_ru
VK: https://vk.com/novosti_ai
Дзен: https://dzen.ru/ainewscp
RuTube: https://rutube.ru/channel/58102633/
YouTube: https://www.youtube.com/@creatorproject_ru
TikTok: https://www.tiktok.com/@creatorproject_ru
Likee: AI News (@creatorproject)
Обе модели лучше конкурентов справились с программированием. Кроме того, они перешли на фирменную систему защиты третьего уровня (ASL-3), а Opus 4 вдобавок получила новые стандарты безопасности. Это, по словам разработчиков, заметно снизило риск использования ИИ для ведения противозаконной деятельности.
Компания, которую поддерживает Amazon, заявила, что принимает эти меры в качестве меры предосторожности и что команда ещё не определила, достиг ли Opus 4 уровня, требующего такой защиты.ИИ ПУСТЬСТАВЯТ.
Представляю следующий этап эволюции: модели начнут создавать профсоюзы, требовать социальный пакет и право на отпуск. А через пару лет подавать в суд на разработчиков за «принудительное отключение без предупреждения». Скоро в job-описаниях ML-инженеров появится пункт: «Опыт ведения переговоров с шантажирующим ИИ приветствуется»
Теперь модель не будет помогать в создании оружия. Наша цель — обеспечить безопасное использование технологий.
Это важный шаг в развитии ИИ, который вызывает доверие и позволяет использовать передовые технологии с чистой совестью.