Код и совесть: Поиск UMD этичного и инклюзивного ИИ

По мере того как системы искусственного интеллекта всё больше проникают в критически важные процессы принятия решений в нашей повседневной жизни, интеграция этических рамок в разработку ИИ становится приоритетом для исследователей. В Университете Мэриленда (UMD) междисциплинарные команды исследуют сложное взаимодействие между нормативным мышлением, алгоритмами машинного обучения и социально-техническими системами.

В недавнем интервью для Artificial Intelligence News постдокторальные исследователи Иллария Канавотто и Вайшнав Камешваран, комбинируя экспертизу в философии, информатике и взаимодействии человека с компьютером, обсуждают актуальные вызовы в области этики ИИ. Их работа охватывает как теоретические основы включения этических принципов в архитектуру ИИ, так и практические последствия развертывания ИИ в таких важных областях, как трудоустройство.

Нормативное понимание систем ИИ

Иллария Канавотто, исследовательница инициативы UMD «Ценностно-ориентированный искусственный интеллект» (VCAI), связана с Институтом перспективных компьютерных исследований и философским факультетом. Она рассматривает фундаментальный вопрос: как можно наделить системы ИИ нормативным пониманием? С увеличением влияния ИИ на решения, затрагивающие права и благополучие людей, системы должны уметь понимать этические и правовые нормы.

«Вопрос, который я изучаю, заключается в следующем: как нам ввести этот вид информации, это нормативное понимание мира, в машину, будь то робот, чат-бот или что-то подобное?» — объясняет Канавотто.

Её исследование сочетает два подхода:

  • Сверху вниз: Традиционный метод, предполагающий явное программирование правил и норм в систему. Однако Канавотто отмечает: «Просто невозможно все описать настолько легко. Всегда появляются новые ситуации».
  • Снизу вверх: Новый метод, использующий машинное обучение для извлечения правил из данных. Он более гибкий, но уступает в прозрачности: «Проблема с этим подходом заключается в том, что мы на самом деле не знаем, чему система учится, и очень сложно объяснить её решения», — подчёркивает Канавотто.

Канавотто и её коллеги, Джефф Хорти и Эрик Пакуит, разрабатывают гибридный подход, сочетающий преимущества обоих методов. Их цель — создать системы ИИ, которые могут обучаться на данных, сохраняя при этом объяснимость решений, основанных на правовом и нормативном мышлении.

«Наш подход основан на области, которая называется искусственный интеллект и право. В этой области разработаны алгоритмы для извлечения информации из данных. Мы хотим обобщить некоторые из этих алгоритмов и создать систему, которая сможет более широко извлекать информацию, опираясь на правовое и нормативное мышление», — объясняет она.

Влияние ИИ на практики найма и инклюзию людей с инвалидностью

В то время как Канавотто сосредоточена на теоретических основах, Вайшнав Камешваран, работающий на факультете Института NSF по надёжному ИИ, праву и обществу UMD, изучает реальные последствия ИИ, в частности, его влияние на людей с инвалидностью.

Исследования Камешварана касаются использования ИИ в процессах найма и выявления того, как эти системы могут непреднамеренно дискриминировать соискателей с инвалидностью. Он объясняет: «Мы работаем над тем, чтобы приоткрыть “чёрный ящик”, пытаясь понять, что делают эти алгоритмы за кулисами и как они начинают оценивать кандидатов».

Его выводы показывают, что многие платформы найма на основе ИИ сильно зависят от нормативных поведенческих сигналов, таких как зрительный контакт и мимика, для оценки кандидатов. Этот подход может значительно дискриминировать людей с определёнными инвалидностями. Например, кандидаты с нарушением зрения могут иметь трудности с поддержанием зрительного контакта, что системы ИИ могут трактовать как недостаток вовлечённости.

«Зацикливаясь на таких качествах и оценивая кандидатов на их основе, эти платформы усугубляют существующие социальные неравенства», — предупреждает Камешваран. Он считает, что эта тенденция может ещё больше маргинализировать людей с инвалидностью на рынке труда, где они и так сталкиваются с серьёзными трудностями в трудоустройстве.

Широкий этический контекст

Оба исследователя подчёркивают, что этические проблемы, связанные с ИИ, выходят далеко за рамки их конкретных областей изучения. Они обращают внимание на несколько ключевых вопросов:

  • Приватность данных и согласие: Исследователи подчёркивают недостаточность существующих механизмов согласия, особенно в отношении сбора данных для обучения ИИ. Камешваран приводит примеры из своей работы в Индии, где уязвимые группы населения неосознанно передавали свои персональные данные платформам для займов, управляемым ИИ, во время пандемии COVID-19.
  • Прозрачность и объяснимость: Оба исследователя подчёркивают важность понимания того, как системы ИИ принимают решения, особенно когда эти решения значительно влияют на жизни людей.
  • Общественные установки и предвзятости: Камешваран утверждает, что одних технических решений недостаточно для устранения дискриминационных проблем. Необходимы более широкие общественные изменения в отношении к маргинализированным группам, включая людей с инвалидностью.
  • Междисциплинарное сотрудничество: Работа исследователей в UMD демонстрирует важность сотрудничества между философией, информатикой и другими дисциплинами для решения вопросов этики ИИ.

Взгляд в будущее: решения и вызовы

Хотя вызовы значительны, оба исследователя работают над возможными решениями:

  • Гибридный подход Канавотто к нормативному ИИ может привести к созданию более этично осведомлённых и понятных систем ИИ.
  • Камешваран предлагает разработать инструменты аудита, позволяющие общественным организациям оценивать платформы найма на основе ИИ на предмет возможной дискриминации.
  • Оба подчеркивают необходимость изменений в политике, таких как обновление Закона о защите прав людей с ограниченными возможностями (Americans with Disabilities Act), чтобы учесть дискриминацию, связанную с ИИ.

Однако они также признают сложность этих вопросов. Как отмечает Камешваран: «К сожалению, я не думаю, что техническое решение обучения ИИ на определённых видах данных и инструменты аудита смогут решить проблему сами по себе. Это требует комплексного подхода».

Ключевой вывод из их работы заключается в росте необходимости повышения осведомлённости общества о влиянии ИИ на нашу жизнь. Люди должны знать, какие данные они предоставляют и как они используются. Как отмечает Канавотто, компании часто стремятся скрыть эту информацию, утверждая: «Компании пытаются убедить вас, что их сервис станет лучше для вас, если вы предоставите им свои данные».

Исследователи считают, что необходимо делать гораздо больше для образования общественности и привлечения компаний к ответственности. В конечном итоге междисциплинарный подход Канавотто и Камешварана, сочетающий философские исследования с практическими приложениями, прокладывает правильный путь вперёд, чтобы системы ИИ были не только мощными, но и этичными и справедливыми.

Источник: Artificial Intelligence News

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Рекомендуем почитать

Фотографирование знаменитой девушки Новости

YouTube запустил расширенное обнаружение дипфейков: защита образа знаменитостей с помощью ИИ

23.04.2026 8
YouTube расширяет применение своей новой технологии «обнаружения сходства», которая выявляет созданный ИИ контент, например дипфейки, для людей из индустрии развлечений,…

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности