ЕС представил проект нормативных документов для моделей ИИ

Флаг Евросоюза

Выпуск «First Draft General-Purpose AI Code of Practice» знаменует собой усилия ЕС по созданию всеобъемлющих регуляторных рекомендаций для моделей общего назначения ИИ.

Разработка этого черновика была результатом совместной работы, включающей вклад различных секторов: промышленность, академическое сообщество и гражданское общество. Инициативой руководили четыре специализированные рабочие группы, каждая из которых занималась определенными аспектами управления ИИ и снижения рисков:

  • Рабочая группа 1: Правила прозрачности и авторского права
  • Рабочая группа 2: Выявление и оценка системных рисков
  • Рабочая группа 3: Техническое снижение рисков для системных рисков
  • Рабочая группа 4: Управленческое снижение рисков для системных рисков

Черновик согласован с существующими законами, такими как Хартия основных прав Европейского Союза. Он принимает во внимание международные подходы и стремится к пропорциональности рискам, а также направлен на защиту будущего, учитывая быстрые технологические изменения.

Ключевые цели, изложенные в проекте включают:

  • Уточнение методов соответствия для поставщиков моделей общего назначения ИИ
  • Упрощение понимания всей цепочки создания стоимости ИИ, обеспечивая беспрепятственную интеграцию моделей ИИ в конечные продукты
  • Обеспечение соблюдения законодательства Союза об авторских правах, особенно в связи с использованием защищенных правом материалов для обучения моделей
  • Постоянная оценка и снижение системных рисков, связанных с моделями ИИ

Признание и снижение системных рисков

Основной особенностью черновика является его таксономия системных рисков, включающая типы, природу и источники таких рисков. Документ описывает различные угрозы, такие как киберпреступления, биологические риски, потеря контроля над автономными ИИ-моделями и массовая дезинформация. Признавая постоянно изменяющийся характер технологии ИИ, черновик признает, что эта таксономия потребует обновлений для поддержания актуальности.

По мере того, как модели ИИ с системными рисками становятся более распространенными, черновик подчеркивает необходимость в надежных рамках безопасности и защиты (SSFs). Он предлагает иерархию мер, подмер и ключевых показателей эффективности (KPI) для обеспечения надлежащей идентификации, анализа и снижения рисков на протяжении жизненного цикла модели.

Черновик предполагает, что поставщики должны установить процессы для выявления и сообщения о серьезных инцидентах, связанных с их моделями ИИ, предлагая подробные оценки и корректировки по мере необходимости. Он также поощряет сотрудничество с независимыми экспертами для оценки рисков, особенно для моделей, создающих значительные системные риски.

Проактивный подход к регуляторным рекомендациям в области ИИ

Акт о ИИ в ЕС, вступивший в силу 1 августа 2024 года, предписывает, что окончательная версия этого Кодекса должна быть готова к 1 мая 2025 года. Эта инициатива подчеркивает проактивный подход ЕС к регулированию ИИ, акцентируя внимание на необходимости безопасности ИИ, прозрачности и ответственности.

По мере продолжения эволюции черновика рабочие группы приглашают заинтересованные стороны активно участвовать в уточнении документа. Их совместный вклад сформирует регуляторную основу, направленную на защиту инноваций, одновременно защищая общество от потенциальных угроз технологий ИИ.

Хотя он все еще находится в черновой форме, Кодекс практики ЕС для моделей общего назначения ИИ может стать эталоном для ответственного развития и развертывания ИИ на глобальном уровне. Решая ключевые вопросы, такие как прозрачность, управление рисками и соблюдение авторских прав, Кодекс стремится создать регуляторную среду, которая способствует инновациям, поддерживает основные права и обеспечивает высокий уровень защиты потребителей.

Источник: Artificial Intelligence News

Интересно? Поделиться:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *