По мере того как системы искусственного интеллекта всё больше проникают в критически важные процессы принятия решений в нашей повседневной жизни, интеграция этических рамок в разработку ИИ становится приоритетом для исследователей. В Университете Мэриленда (UMD) междисциплинарные команды исследуют сложное взаимодействие между нормативным мышлением, алгоритмами машинного обучения и социально-техническими системами.
В недавнем интервью для Artificial Intelligence News постдокторальные исследователи Иллария Канавотто и Вайшнав Камешваран, комбинируя экспертизу в философии, информатике и взаимодействии человека с компьютером, обсуждают актуальные вызовы в области этики ИИ. Их работа охватывает как теоретические основы включения этических принципов в архитектуру ИИ, так и практические последствия развертывания ИИ в таких важных областях, как трудоустройство.
Нормативное понимание систем ИИ
Иллария Канавотто, исследовательница инициативы UMD «Ценностно-ориентированный искусственный интеллект» (VCAI), связана с Институтом перспективных компьютерных исследований и философским факультетом. Она рассматривает фундаментальный вопрос: как можно наделить системы ИИ нормативным пониманием? С увеличением влияния ИИ на решения, затрагивающие права и благополучие людей, системы должны уметь понимать этические и правовые нормы.
«Вопрос, который я изучаю, заключается в следующем: как нам ввести этот вид информации, это нормативное понимание мира, в машину, будь то робот, чат-бот или что-то подобное?» — объясняет Канавотто.
Её исследование сочетает два подхода:
- Сверху вниз: Традиционный метод, предполагающий явное программирование правил и норм в систему. Однако Канавотто отмечает: «Просто невозможно все описать настолько легко. Всегда появляются новые ситуации».
- Снизу вверх: Новый метод, использующий машинное обучение для извлечения правил из данных. Он более гибкий, но уступает в прозрачности: «Проблема с этим подходом заключается в том, что мы на самом деле не знаем, чему система учится, и очень сложно объяснить её решения», — подчёркивает Канавотто.
Канавотто и её коллеги, Джефф Хорти и Эрик Пакуит, разрабатывают гибридный подход, сочетающий преимущества обоих методов. Их цель — создать системы ИИ, которые могут обучаться на данных, сохраняя при этом объяснимость решений, основанных на правовом и нормативном мышлении.
«Наш подход основан на области, которая называется искусственный интеллект и право. В этой области разработаны алгоритмы для извлечения информации из данных. Мы хотим обобщить некоторые из этих алгоритмов и создать систему, которая сможет более широко извлекать информацию, опираясь на правовое и нормативное мышление», — объясняет она.
Влияние ИИ на практики найма и инклюзию людей с инвалидностью
В то время как Канавотто сосредоточена на теоретических основах, Вайшнав Камешваран, работающий на факультете Института NSF по надёжному ИИ, праву и обществу UMD, изучает реальные последствия ИИ, в частности, его влияние на людей с инвалидностью.
Исследования Камешварана касаются использования ИИ в процессах найма и выявления того, как эти системы могут непреднамеренно дискриминировать соискателей с инвалидностью. Он объясняет: «Мы работаем над тем, чтобы приоткрыть “чёрный ящик”, пытаясь понять, что делают эти алгоритмы за кулисами и как они начинают оценивать кандидатов».
Его выводы показывают, что многие платформы найма на основе ИИ сильно зависят от нормативных поведенческих сигналов, таких как зрительный контакт и мимика, для оценки кандидатов. Этот подход может значительно дискриминировать людей с определёнными инвалидностями. Например, кандидаты с нарушением зрения могут иметь трудности с поддержанием зрительного контакта, что системы ИИ могут трактовать как недостаток вовлечённости.
«Зацикливаясь на таких качествах и оценивая кандидатов на их основе, эти платформы усугубляют существующие социальные неравенства», — предупреждает Камешваран. Он считает, что эта тенденция может ещё больше маргинализировать людей с инвалидностью на рынке труда, где они и так сталкиваются с серьёзными трудностями в трудоустройстве.
Широкий этический контекст
Оба исследователя подчёркивают, что этические проблемы, связанные с ИИ, выходят далеко за рамки их конкретных областей изучения. Они обращают внимание на несколько ключевых вопросов:
- Приватность данных и согласие: Исследователи подчёркивают недостаточность существующих механизмов согласия, особенно в отношении сбора данных для обучения ИИ. Камешваран приводит примеры из своей работы в Индии, где уязвимые группы населения неосознанно передавали свои персональные данные платформам для займов, управляемым ИИ, во время пандемии COVID-19.
- Прозрачность и объяснимость: Оба исследователя подчёркивают важность понимания того, как системы ИИ принимают решения, особенно когда эти решения значительно влияют на жизни людей.
- Общественные установки и предвзятости: Камешваран утверждает, что одних технических решений недостаточно для устранения дискриминационных проблем. Необходимы более широкие общественные изменения в отношении к маргинализированным группам, включая людей с инвалидностью.
- Междисциплинарное сотрудничество: Работа исследователей в UMD демонстрирует важность сотрудничества между философией, информатикой и другими дисциплинами для решения вопросов этики ИИ.
Взгляд в будущее: решения и вызовы
Хотя вызовы значительны, оба исследователя работают над возможными решениями:
- Гибридный подход Канавотто к нормативному ИИ может привести к созданию более этично осведомлённых и понятных систем ИИ.
- Камешваран предлагает разработать инструменты аудита, позволяющие общественным организациям оценивать платформы найма на основе ИИ на предмет возможной дискриминации.
- Оба подчеркивают необходимость изменений в политике, таких как обновление Закона о защите прав людей с ограниченными возможностями (Americans with Disabilities Act), чтобы учесть дискриминацию, связанную с ИИ.
Однако они также признают сложность этих вопросов. Как отмечает Камешваран: «К сожалению, я не думаю, что техническое решение обучения ИИ на определённых видах данных и инструменты аудита смогут решить проблему сами по себе. Это требует комплексного подхода».
Ключевой вывод из их работы заключается в росте необходимости повышения осведомлённости общества о влиянии ИИ на нашу жизнь. Люди должны знать, какие данные они предоставляют и как они используются. Как отмечает Канавотто, компании часто стремятся скрыть эту информацию, утверждая: «Компании пытаются убедить вас, что их сервис станет лучше для вас, если вы предоставите им свои данные».
Исследователи считают, что необходимо делать гораздо больше для образования общественности и привлечения компаний к ответственности. В конечном итоге междисциплинарный подход Канавотто и Камешварана, сочетающий философские исследования с практическими приложениями, прокладывает правильный путь вперёд, чтобы системы ИИ были не только мощными, но и этичными и справедливыми.
Источник: Artificial Intelligence News