Старший адвокат в Австралии принес извинения судье за представление в деле об убийстве материалов, содержащих вымышленные цитаты и несуществующие судебные решения, сгенерированные при помощи искусственного интеллекта.
Эта ошибка в Верховном суде штата Виктория стала еще одним примером цепочки инцидентов, связанных с использованием искусственного интеллекта в судебных системах по всему миру.
Защитник Риши Натвани, обладающий почетным званием королевского адвоката (King’s Counsel), взял на себя «полную ответственность» за предоставление недостоверной информации в материалах по делу в отношении несовершеннолетнего, обвиняемого в убийстве, согласно судебным документам.
«Мы глубоко сожалеем и испытываем смущение по поводу произошедшего», — заявил Натвани судье Джеймсу Эллиотту в среду от имени команды защиты.
Ошибки, созданные искусственным интеллектом, привели к задержке рассмотрения дела на 24 часа; изначально Эллиотт рассчитывал завершить его в среду. В четверг судья признал подзащитного Натвани, имя которого не разглашается в связи с несовершеннолетием, невиновным по обвинению в убийстве вследствие психического расстройства.
«Не вдаваясь в подробности, отмечу, что способ, которым развивались эти события, неудовлетворителен», — прокомментировал Эллиотт в четверг.
«Возможность суда полагаться на достоверность предоставляемых адвокатами материалов является основополагающей для надлежащего отправления правосудия», — добавил он.
В недостоверных документах содержались не только вымышленные цитаты из выступления в законодательном органе штата, но и фальшивые ссылки на решения Верховного суда.
Ошибки были выявлены помощниками Эллиотта, которые не смогли найти упомянутые дела и обратились к адвокатам с просьбой предоставить их копии.
Юристы признали, что указанные судебные решения «не существуют», а предоставленные цитаты являются «выдуманными», следует из материалов суда.
Адвокаты пояснили, что проверили лишь первоначальные ссылки, ошибочно полагая, что остальные также достоверны.
Материалы были переданы и прокурору Даниэлу Порседду, который аналогично не проверил их достоверность.
Судья отметил, что Верховный суд ещё в прошлом году выпустил рекомендации по использованию искусственного интеллекта юристами.
«Недопустимо использовать искусственный интеллект, если результаты его применения не были независимо и тщательно проверены», — подчеркнул Эллиотт.
В судебных документах не указано, какую именно генеративную систему искусственного интеллекта использовали адвокаты.
Для сравнения, в аналогичном деле в США в 2023 году федеральный судья назначил штраф в размере 5 000 долларов двум адвокатам и юридической фирме после того, как в их материалах по иску о травмах в авиационной отрасли были выявлены вымышленные юридические исследования, созданные с помощью ChatGPT.
Судья П. Кевин Кастел отметил, что они действовали недобросовестно, но учёл их извинения и принятые меры, объяснив, почему не счёл необходимым применять более строгие санкции, чтобы предостеречь их и других от повторного использования ИИ для создания фальшивых юридических прецедентов.
Позднее в том же году вымышленные судебные постановления, созданные ИИ, были процитированы в материалах, подготовленных юристами Майкла Коэна, бывшего личного адвоката Дональда Трампа. Коэн взял вину на себя, заявив, что не знал о так называемых «галлюцинациях ИИ», на которые способен использовавшийся им сервис Google для юридических исследований.
Верховный судья Великобритании Виктория Шарп в июне предупредила, что предоставление ложной информации под видом подлинной может рассматриваться как неуважение к суду или, в «наиболее вопиющих случаях», как попытка воспрепятствовать отправлению правосудия, что влечет за собой наказание вплоть до пожизненного заключения.
Источник: AP
Этот случай вызвал много обсуждений и важность внимательности при использовании ИИ в юридических и других профессиональных областях что довольно интересно.