Код и совесть: Поиск UMD этичного и инклюзивного ИИ

Университет Мэриленд

По мере того как системы искусственного интеллекта всё больше проникают в критически важные процессы принятия решений в нашей повседневной жизни, интеграция этических рамок в разработку ИИ становится приоритетом для исследователей. В Университете Мэриленда (UMD) междисциплинарные команды исследуют сложное взаимодействие между нормативным мышлением, алгоритмами машинного обучения и социально-техническими системами.

В недавнем интервью для Artificial Intelligence News постдокторальные исследователи Иллария Канавотто и Вайшнав Камешваран, комбинируя экспертизу в философии, информатике и взаимодействии человека с компьютером, обсуждают актуальные вызовы в области этики ИИ. Их работа охватывает как теоретические основы включения этических принципов в архитектуру ИИ, так и практические последствия развертывания ИИ в таких важных областях, как трудоустройство.

Нормативное понимание систем ИИ

Иллария Канавотто, исследовательница инициативы UMD «Ценностно-ориентированный искусственный интеллект» (VCAI), связана с Институтом перспективных компьютерных исследований и философским факультетом. Она рассматривает фундаментальный вопрос: как можно наделить системы ИИ нормативным пониманием? С увеличением влияния ИИ на решения, затрагивающие права и благополучие людей, системы должны уметь понимать этические и правовые нормы.

«Вопрос, который я изучаю, заключается в следующем: как нам ввести этот вид информации, это нормативное понимание мира, в машину, будь то робот, чат-бот или что-то подобное?» — объясняет Канавотто.

Её исследование сочетает два подхода:

  • Сверху вниз: Традиционный метод, предполагающий явное программирование правил и норм в систему. Однако Канавотто отмечает: «Просто невозможно все описать настолько легко. Всегда появляются новые ситуации».
  • Снизу вверх: Новый метод, использующий машинное обучение для извлечения правил из данных. Он более гибкий, но уступает в прозрачности: «Проблема с этим подходом заключается в том, что мы на самом деле не знаем, чему система учится, и очень сложно объяснить её решения», — подчёркивает Канавотто.

Канавотто и её коллеги, Джефф Хорти и Эрик Пакуит, разрабатывают гибридный подход, сочетающий преимущества обоих методов. Их цель — создать системы ИИ, которые могут обучаться на данных, сохраняя при этом объяснимость решений, основанных на правовом и нормативном мышлении.

«Наш подход основан на области, которая называется искусственный интеллект и право. В этой области разработаны алгоритмы для извлечения информации из данных. Мы хотим обобщить некоторые из этих алгоритмов и создать систему, которая сможет более широко извлекать информацию, опираясь на правовое и нормативное мышление», — объясняет она.

Влияние ИИ на практики найма и инклюзию людей с инвалидностью

В то время как Канавотто сосредоточена на теоретических основах, Вайшнав Камешваран, работающий на факультете Института NSF по надёжному ИИ, праву и обществу UMD, изучает реальные последствия ИИ, в частности, его влияние на людей с инвалидностью.

Исследования Камешварана касаются использования ИИ в процессах найма и выявления того, как эти системы могут непреднамеренно дискриминировать соискателей с инвалидностью. Он объясняет: «Мы работаем над тем, чтобы приоткрыть “чёрный ящик”, пытаясь понять, что делают эти алгоритмы за кулисами и как они начинают оценивать кандидатов».

Его выводы показывают, что многие платформы найма на основе ИИ сильно зависят от нормативных поведенческих сигналов, таких как зрительный контакт и мимика, для оценки кандидатов. Этот подход может значительно дискриминировать людей с определёнными инвалидностями. Например, кандидаты с нарушением зрения могут иметь трудности с поддержанием зрительного контакта, что системы ИИ могут трактовать как недостаток вовлечённости.

«Зацикливаясь на таких качествах и оценивая кандидатов на их основе, эти платформы усугубляют существующие социальные неравенства», — предупреждает Камешваран. Он считает, что эта тенденция может ещё больше маргинализировать людей с инвалидностью на рынке труда, где они и так сталкиваются с серьёзными трудностями в трудоустройстве.

Широкий этический контекст

Оба исследователя подчёркивают, что этические проблемы, связанные с ИИ, выходят далеко за рамки их конкретных областей изучения. Они обращают внимание на несколько ключевых вопросов:

  • Приватность данных и согласие: Исследователи подчёркивают недостаточность существующих механизмов согласия, особенно в отношении сбора данных для обучения ИИ. Камешваран приводит примеры из своей работы в Индии, где уязвимые группы населения неосознанно передавали свои персональные данные платформам для займов, управляемым ИИ, во время пандемии COVID-19.
  • Прозрачность и объяснимость: Оба исследователя подчёркивают важность понимания того, как системы ИИ принимают решения, особенно когда эти решения значительно влияют на жизни людей.
  • Общественные установки и предвзятости: Камешваран утверждает, что одних технических решений недостаточно для устранения дискриминационных проблем. Необходимы более широкие общественные изменения в отношении к маргинализированным группам, включая людей с инвалидностью.
  • Междисциплинарное сотрудничество: Работа исследователей в UMD демонстрирует важность сотрудничества между философией, информатикой и другими дисциплинами для решения вопросов этики ИИ.

Взгляд в будущее: решения и вызовы

Хотя вызовы значительны, оба исследователя работают над возможными решениями:

  • Гибридный подход Канавотто к нормативному ИИ может привести к созданию более этично осведомлённых и понятных систем ИИ.
  • Камешваран предлагает разработать инструменты аудита, позволяющие общественным организациям оценивать платформы найма на основе ИИ на предмет возможной дискриминации.
  • Оба подчеркивают необходимость изменений в политике, таких как обновление Закона о защите прав людей с ограниченными возможностями (Americans with Disabilities Act), чтобы учесть дискриминацию, связанную с ИИ.

Однако они также признают сложность этих вопросов. Как отмечает Камешваран: «К сожалению, я не думаю, что техническое решение обучения ИИ на определённых видах данных и инструменты аудита смогут решить проблему сами по себе. Это требует комплексного подхода».

Ключевой вывод из их работы заключается в росте необходимости повышения осведомлённости общества о влиянии ИИ на нашу жизнь. Люди должны знать, какие данные они предоставляют и как они используются. Как отмечает Канавотто, компании часто стремятся скрыть эту информацию, утверждая: «Компании пытаются убедить вас, что их сервис станет лучше для вас, если вы предоставите им свои данные».

Исследователи считают, что необходимо делать гораздо больше для образования общественности и привлечения компаний к ответственности. В конечном итоге междисциплинарный подход Канавотто и Камешварана, сочетающий философские исследования с практическими приложениями, прокладывает правильный путь вперёд, чтобы системы ИИ были не только мощными, но и этичными и справедливыми.

Источник: Artificial Intelligence News

Интересно? Поделиться:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *