Выпуск «First Draft General-Purpose AI Code of Practice» знаменует собой усилия ЕС по созданию всеобъемлющих регуляторных рекомендаций для моделей общего назначения ИИ.
Разработка этого черновика была результатом совместной работы, включающей вклад различных секторов: промышленность, академическое сообщество и гражданское общество. Инициативой руководили четыре специализированные рабочие группы, каждая из которых занималась определенными аспектами управления ИИ и снижения рисков:
- Рабочая группа 1: Правила прозрачности и авторского права
- Рабочая группа 2: Выявление и оценка системных рисков
- Рабочая группа 3: Техническое снижение рисков для системных рисков
- Рабочая группа 4: Управленческое снижение рисков для системных рисков
Черновик согласован с существующими законами, такими как Хартия основных прав Европейского Союза. Он принимает во внимание международные подходы и стремится к пропорциональности рискам, а также направлен на защиту будущего, учитывая быстрые технологические изменения.
Ключевые цели, изложенные в проекте включают:
- Уточнение методов соответствия для поставщиков моделей общего назначения ИИ
- Упрощение понимания всей цепочки создания стоимости ИИ, обеспечивая беспрепятственную интеграцию моделей ИИ в конечные продукты
- Обеспечение соблюдения законодательства Союза об авторских правах, особенно в связи с использованием защищенных правом материалов для обучения моделей
- Постоянная оценка и снижение системных рисков, связанных с моделями ИИ
Признание и снижение системных рисков
Основной особенностью черновика является его таксономия системных рисков, включающая типы, природу и источники таких рисков. Документ описывает различные угрозы, такие как киберпреступления, биологические риски, потеря контроля над автономными ИИ-моделями и массовая дезинформация. Признавая постоянно изменяющийся характер технологии ИИ, черновик признает, что эта таксономия потребует обновлений для поддержания актуальности.
По мере того, как модели ИИ с системными рисками становятся более распространенными, черновик подчеркивает необходимость в надежных рамках безопасности и защиты (SSFs). Он предлагает иерархию мер, подмер и ключевых показателей эффективности (KPI) для обеспечения надлежащей идентификации, анализа и снижения рисков на протяжении жизненного цикла модели.
Черновик предполагает, что поставщики должны установить процессы для выявления и сообщения о серьезных инцидентах, связанных с их моделями ИИ, предлагая подробные оценки и корректировки по мере необходимости. Он также поощряет сотрудничество с независимыми экспертами для оценки рисков, особенно для моделей, создающих значительные системные риски.
Проактивный подход к регуляторным рекомендациям в области ИИ
Акт о ИИ в ЕС, вступивший в силу 1 августа 2024 года, предписывает, что окончательная версия этого Кодекса должна быть готова к 1 мая 2025 года. Эта инициатива подчеркивает проактивный подход ЕС к регулированию ИИ, акцентируя внимание на необходимости безопасности ИИ, прозрачности и ответственности.
По мере продолжения эволюции черновика рабочие группы приглашают заинтересованные стороны активно участвовать в уточнении документа. Их совместный вклад сформирует регуляторную основу, направленную на защиту инноваций, одновременно защищая общество от потенциальных угроз технологий ИИ.
Хотя он все еще находится в черновой форме, Кодекс практики ЕС для моделей общего назначения ИИ может стать эталоном для ответственного развития и развертывания ИИ на глобальном уровне. Решая ключевые вопросы, такие как прозрачность, управление рисками и соблюдение авторских прав, Кодекс стремится создать регуляторную среду, которая способствует инновациям, поддерживает основные права и обеспечивает высокий уровень защиты потребителей.
Источник: Artificial Intelligence News