Аналитический центр призывает создать систему отчетности об инцидентах с искусственным интеллектом

Мужчина в сумерках за столом

Центр долгосрочной устойчивости (CLTR) призвал к созданию комплексной системы отчетности о происшествиях для срочного устранения критического пробела в планах регулирования ИИ.

Согласно данным CLTR, ИИ имеет историю сбоев в неожиданных ситуациях, и с 2014 года в развернутых системах ИИ средствами массовой информации зафиксировано более 10,000 инцидентов, касающихся вопросов безопасности. По мере интеграции ИИ в общество, частота и влияние этих инцидентов, вероятно, будут увеличиваться.

По мнению аналитического центра, эффективная система отчетности о происшествиях является необходимым условием для успешного регулирования ИИ, аналогично системам безопасности в критических отраслях, таких как авиация и медицина. Эта точка зрения поддерживается широким консенсусом экспертов, а также правительствами США и Китая и Европейским Союзом.

В отчете выделены три ключевых преимущества внедрения системы отчетности о происшествиях:

1. Мониторинг рисков безопасности ИИ в реальном мире для информирования о регуляторных корректировках
2. Координация быстрых реакций на крупные инциденты и расследование их коренных причин
3. Выявление ранних признаков возможных масштабных будущих угроз

В настоящее время в системе регулирования ИИ в Великобритании отсутствует эффективная структура отчетности о происшествиях. Этот пробел оставляет Департамент науки, инноваций и технологий (DSIT) без информации о различных критических инцидентах, включая:

— Проблемы с высокоэффективными базовыми моделями
— Инциденты, связанные с использованием ИИ правительством Великобритании в государственных услугах
— Злоупотребления ИИ системами в злонамеренных целях
— Вред, причиняемый ИИ-компаньонами, наставниками и терапевтами

CLTR предупреждает, что без надлежащей системы отчетности о происшествиях DSIT рискует узнавать о новых угрозах из новостных источников, а не через установленные процессы отчетности.

Для устранения этого пробела аналитический центр рекомендует три неотложных шага для правительства Великобритании:

1. Система отчетности о происшествиях в государственном секторе: Создать систему для отчетности о происшествиях с участием ИИ, используемых в государственных услугах. Это может быть прямое расширение Стандарта записи алгоритмической прозрачности (ATRS) для включения инцидентов с ИИ в государственном секторе, что будет передаваться в государственный орган и потенциально делиться с общественностью для обеспечения прозрачности.
2. Взаимодействие с регуляторами и экспертами: Поручить регуляторам и консультироваться с экспертами для выявления наиболее значимых пробелов, обеспечивая эффективное покрытие приоритетных инцидентов и понимание потребностей заинтересованных сторон для функциональной структуры.
3. Укрепление возможностей DSIT: Развивать способность DSIT к мониторингу, расследованию и реагированию на инциденты, возможно, через пробную базу данных инцидентов с ИИ. Это будет частью центральной функции DSIT, первоначально сосредоточиваясь на наиболее срочных пробелах, но в конечном итоге расширяя охват до всех отчетов от регуляторов Великобритании.

Эти рекомендации направлены на повышение способности правительства ответственно улучшать государственные услуги, обеспечить эффективное покрытие приоритетных инцидентов и развить необходимую инфраструктуру для сбора и реагирования на отчеты о происшествиях с участием ИИ.

Вира Сийвонен, директор по связям с общественностью и партнер в Saidot, прокомментировала:

«Этот отчет Центра долгосрочной устойчивости появился очень вовремя. По мере того как Великобритания приближается к всеобщим выборам, политика следующего правительства в области ИИ станет краеугольным камнем экономического роста. Однако это требует точности в нахождении баланса между регулированием и инновациями, предоставляя необходимые ограничения, не сокращая потенциал отрасли для экспериментов. Хотя внедрение централизованной системы отчетности о неполадках и злоупотреблениях ИИ будет похвальным первым шагом, предстоит еще много задач.

Новое правительство Великобритании должно обеспечить предприятиям уверенность и понимание с помощью четких требований к управлению, одновременно мониторя и снижая наиболее вероятные риски. Интегрируя различные стратегии управления ИИ с централизованной отчетностью о происшествиях, Великобритания может использовать экономический потенциал ИИ, обеспечивая его пользу для общества и защиту демократических процессов и общественного доверия».

По мере того как ИИ продолжает развиваться и проникать в различные аспекты общества, внедрение надежной системы отчетности о происшествиях может оказаться решающим в снижении рисков и обеспечении безопасного развития и развертывания технологий ИИ.

Источник: Artificial Intelligence News

Интересно? Поделиться: