Судьям апелляционного суда Нью-Йорка потребовалась всего пара секунд, чтобы понять, что человек, обращавшийся к ним с видеоэкрана, — тот, кто собирался представить аргументы в судебном процессе, — не только не имел юридического образования, но и вообще не существовал.
Последняя странная глава в истории неуклюжего появления искусственного интеллекта в мире юриспруденции открылась 26 марта под витражным куполом Первого судебного департамента Апелляционного отдела Верховного суда штата Нью-Йорк, где коллегия судей должна была заслушать Джерома Девальда, истца по трудовому спору.
«Апеллянт представил видеозапись своих доводов, — сказала судья Салли Манзанет-Дэниелс. — Хорошо. Сейчас мы прослушаем это видео».
На видеоэкране появился улыбающийся молодой мужчина с причёской, в рубашке на пуговицах и свитере.
— Да будет так, — начал мужчина. — Сегодня я смиренно предстаю перед судом в составе пяти уважаемых судей.
— Хорошо, подождите, — сказала Манзанет-Дэниелс. — Это адвокат по делу?
— Я это сгенерировал. Это не реальный человек, — ответил Девальд.
На самом деле это был аватар, созданный искусственным интеллектом. Судья был недоволен.
— Было бы неплохо знать об этом, когда вы подавали заявку. Вы не сказали мне об этом, сэр, — сказал Манзанет-Дэниелс, прежде чем крикнуть через всю комнату, чтобы видео выключили.
— Я не люблю, когда меня вводят в заблуждение, — сказала она, прежде чем позволить Дьюолду продолжить спор.
Позже Девальд написал в суд извинение, в котором говорилось, что он не имел в виду ничего плохого. У него не было адвоката, который представлял бы его интересы в суде, поэтому ему пришлось самому приводить свои юридические аргументы. И он решил, что аватар сможет выступить без его обычного бормотания, запинаний и спотыканий на словах.
В интервью Associated Press Девальд сказал, что обратился в суд за разрешением воспроизвести заранее записанное видео, а затем использовал продукт, созданный технологической компанией из Сан-Франциско, для создания аватара. Изначально он пытался создать цифровую копию, похожую на него, но не смог сделать это до слушания.
«Суд был очень расстроен этим, — признал Девальд. — Они меня хорошенько отчитали».
Даже у настоящих юристов возникали проблемы, когда они использовали искусственный интеллект не по назначению.
В июне 2023 года федеральный судья в Нью-Йорке оштрафовал двух адвокатов и юридическую фирму на 5000 долларов каждого за то, что они использовали инструмент искусственного интеллекта для проведения юридических исследований и в результате ссылались на вымышленные судебные дела, созданные чат-ботом. Фирма заявила, что допустила «добросовестную ошибку», не поняв, что искусственный интеллект может что-то выдумывать.
Позже в том же году в юридических документах, поданных адвокатами Майкла Коэна, бывшего личного адвоката президента Дональда Трампа, были упомянуты другие вымышленные судебные решения, созданные ИИ. Коэн взял на себя вину, заявив, что не осознавал, что инструмент Google, который он использовал для юридических исследований, также способен создавать так называемые галлюцинации ИИ.
Это были ошибки, но в прошлом месяце Верховный суд Аризоны намеренно начал использовать два сгенерированных ИИ аватара, похожих на того, которого Девальд использовал в Нью-Йорке, чтобы обобщать судебные решения для общественности.
На сайте суда аватары «Дэниел» и «Виктория» сообщают, что они здесь «чтобы поделиться новостями».
Дэниел Шин, адъюнкт-профессор и заместитель директора по исследованиям в Центре правовых и судебных технологий при юридической школе Уильяма и Мэри, сказал, что он не удивился, узнав о том, что Девальд использовал подставное лицо для подачи апелляции в суд Нью-Йорка.
С моей точки зрения, это было неизбежно.
Он сказал, что маловероятно, что адвокат стал бы так поступать из-за традиций и правил суда, а также из-за того, что его могли бы лишить лицензии. Но отметил, что людям, которые приходят без адвоката и просят разрешения выступить в суде, обычно не сообщают о рисках, связанных с использованием видео, созданного искусственным интеллектом, для представления их дела.
Девальд сказал, что старается идти в ногу с технологиями и недавно посетил вебинар, организованный Американской ассоциацией юристов, на котором обсуждалось использование ИИ в юридической сфере.
Что касается дела Девальда, то по состоянию на четверг оно всё ещё находилось на рассмотрении апелляционного суда.
Источник: AP

Главный редактор
Социальные сети:
Telegram: https://t.me/creatorproject_ru
VK: https://vk.com/novosti_ai
Дзен: https://dzen.ru/ainewscp
RuTube: https://rutube.ru/channel/58102633/
YouTube: https://www.youtube.com/@creatorproject_ru
TikTok: https://www.tiktok.com/@creatorproject_ru
Likee: AI News (@creatorproject)
Чат-боты создают уже вымышленные дела. Хотя что тут удивляться если они обвиняют людей в несуществующих преступлениях. Как-то мне уже неспокойно. Я иногда консультируюсь с чат-ботом по вопросам своей работы, она не с юриспруденцией связана, но тем не менее. И вот теперь у меня возник вопрос, а насколько ИИ вообще можно доверять, как часто он выдумывает несуществующие «факты»?
Почему бы и нет. Если это поможет простым гражданам в защите их интересов в суде. Замена коррумпированных чиновников на ИИ вообще будет сказкой:) ИИ может помочь сторонам в судебном процессе и фактически расширяет возможности сторон, не имеющих представителя, поскольку дает им голос, которого у них обычно нет в зале суда.
Очень любопытный кейс! Попытка использовать ИИ-аватара в реальном судебном процессе — это серьёзный вызов традиционной системе правосудия. Понятно, почему судьи могли отреагировать с недоверием: такие технологии всё ещё вызывают много вопросов — от юридической ответственности до этики и конфиденциальности. Но сам факт, что мы уже обсуждаем ИИ как потенциального участника судебного процесса, говорит о том, насколько далеко продвинулись технологии. Интересно, как скоро появятся юридические рамки, которые позволят ИИ действительно участвовать в таких делах — хотя бы в роли помощника.