ЕС представил проект нормативных документов для моделей ИИ

Выпуск «First Draft General-Purpose AI Code of Practice» знаменует собой усилия ЕС по созданию всеобъемлющих регуляторных рекомендаций для моделей общего назначения ИИ.

Разработка этого черновика была результатом совместной работы, включающей вклад различных секторов: промышленность, академическое сообщество и гражданское общество. Инициативой руководили четыре специализированные рабочие группы, каждая из которых занималась определенными аспектами управления ИИ и снижения рисков:

  • Рабочая группа 1: Правила прозрачности и авторского права
  • Рабочая группа 2: Выявление и оценка системных рисков
  • Рабочая группа 3: Техническое снижение рисков для системных рисков
  • Рабочая группа 4: Управленческое снижение рисков для системных рисков

Черновик согласован с существующими законами, такими как Хартия основных прав Европейского Союза. Он принимает во внимание международные подходы и стремится к пропорциональности рискам, а также направлен на защиту будущего, учитывая быстрые технологические изменения.

Ключевые цели, изложенные в проекте включают:

  • Уточнение методов соответствия для поставщиков моделей общего назначения ИИ
  • Упрощение понимания всей цепочки создания стоимости ИИ, обеспечивая беспрепятственную интеграцию моделей ИИ в конечные продукты
  • Обеспечение соблюдения законодательства Союза об авторских правах, особенно в связи с использованием защищенных правом материалов для обучения моделей
  • Постоянная оценка и снижение системных рисков, связанных с моделями ИИ

Признание и снижение системных рисков

Основной особенностью черновика является его таксономия системных рисков, включающая типы, природу и источники таких рисков. Документ описывает различные угрозы, такие как киберпреступления, биологические риски, потеря контроля над автономными ИИ-моделями и массовая дезинформация. Признавая постоянно изменяющийся характер технологии ИИ, черновик признает, что эта таксономия потребует обновлений для поддержания актуальности.

По мере того, как модели ИИ с системными рисками становятся более распространенными, черновик подчеркивает необходимость в надежных рамках безопасности и защиты (SSFs). Он предлагает иерархию мер, подмер и ключевых показателей эффективности (KPI) для обеспечения надлежащей идентификации, анализа и снижения рисков на протяжении жизненного цикла модели.

Черновик предполагает, что поставщики должны установить процессы для выявления и сообщения о серьезных инцидентах, связанных с их моделями ИИ, предлагая подробные оценки и корректировки по мере необходимости. Он также поощряет сотрудничество с независимыми экспертами для оценки рисков, особенно для моделей, создающих значительные системные риски.

Проактивный подход к регуляторным рекомендациям в области ИИ

Акт о ИИ в ЕС, вступивший в силу 1 августа 2024 года, предписывает, что окончательная версия этого Кодекса должна быть готова к 1 мая 2025 года. Эта инициатива подчеркивает проактивный подход ЕС к регулированию ИИ, акцентируя внимание на необходимости безопасности ИИ, прозрачности и ответственности.

По мере продолжения эволюции черновика рабочие группы приглашают заинтересованные стороны активно участвовать в уточнении документа. Их совместный вклад сформирует регуляторную основу, направленную на защиту инноваций, одновременно защищая общество от потенциальных угроз технологий ИИ.

Хотя он все еще находится в черновой форме, Кодекс практики ЕС для моделей общего назначения ИИ может стать эталоном для ответственного развития и развертывания ИИ на глобальном уровне. Решая ключевые вопросы, такие как прозрачность, управление рисками и соблюдение авторских прав, Кодекс стремится создать регуляторную среду, которая способствует инновациям, поддерживает основные права и обеспечивает высокий уровень защиты потребителей.

Источник: Artificial Intelligence News

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Рекомендуем почитать

Фотографирование знаменитой девушки Новости

YouTube запустил расширенное обнаружение дипфейков: защита образа знаменитостей с помощью ИИ

23.04.2026 8
YouTube расширяет применение своей новой технологии «обнаружения сходства», которая выявляет созданный ИИ контент, например дипфейки, для людей из индустрии развлечений,…

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности