Старший адвокат в Австралии принес извинения судье за представление в деле об убийстве материалов, содержащих вымышленные цитаты и несуществующие судебные решения, сгенерированные при помощи искусственного интеллекта.
Эта ошибка в Верховном суде штата Виктория стала еще одним примером цепочки инцидентов, связанных с использованием искусственного интеллекта в судебных системах по всему миру.
Защитник Риши Натвани, обладающий почетным званием королевского адвоката (King’s Counsel), взял на себя «полную ответственность» за предоставление недостоверной информации в материалах по делу в отношении несовершеннолетнего, обвиняемого в убийстве, согласно судебным документам.
«Мы глубоко сожалеем и испытываем смущение по поводу произошедшего», — заявил Натвани судье Джеймсу Эллиотту в среду от имени команды защиты.
Ошибки, созданные искусственным интеллектом, привели к задержке рассмотрения дела на 24 часа; изначально Эллиотт рассчитывал завершить его в среду. В четверг судья признал подзащитного Натвани, имя которого не разглашается в связи с несовершеннолетием, невиновным по обвинению в убийстве вследствие психического расстройства.
«Не вдаваясь в подробности, отмечу, что способ, которым развивались эти события, неудовлетворителен», — прокомментировал Эллиотт в четверг.
«Возможность суда полагаться на достоверность предоставляемых адвокатами материалов является основополагающей для надлежащего отправления правосудия», — добавил он.
В недостоверных документах содержались не только вымышленные цитаты из выступления в законодательном органе штата, но и фальшивые ссылки на решения Верховного суда.
Ошибки были выявлены помощниками Эллиотта, которые не смогли найти упомянутые дела и обратились к адвокатам с просьбой предоставить их копии.
Юристы признали, что указанные судебные решения «не существуют», а предоставленные цитаты являются «выдуманными», следует из материалов суда.
Адвокаты пояснили, что проверили лишь первоначальные ссылки, ошибочно полагая, что остальные также достоверны.
Материалы были переданы и прокурору Даниэлу Порседду, который аналогично не проверил их достоверность.
Судья отметил, что Верховный суд ещё в прошлом году выпустил рекомендации по использованию искусственного интеллекта юристами.
«Недопустимо использовать искусственный интеллект, если результаты его применения не были независимо и тщательно проверены», — подчеркнул Эллиотт.
В судебных документах не указано, какую именно генеративную систему искусственного интеллекта использовали адвокаты.
Для сравнения, в аналогичном деле в США в 2023 году федеральный судья назначил штраф в размере 5 000 долларов двум адвокатам и юридической фирме после того, как в их материалах по иску о травмах в авиационной отрасли были выявлены вымышленные юридические исследования, созданные с помощью ChatGPT.
Судья П. Кевин Кастел отметил, что они действовали недобросовестно, но учёл их извинения и принятые меры, объяснив, почему не счёл необходимым применять более строгие санкции, чтобы предостеречь их и других от повторного использования ИИ для создания фальшивых юридических прецедентов.
Позднее в том же году вымышленные судебные постановления, созданные ИИ, были процитированы в материалах, подготовленных юристами Майкла Коэна, бывшего личного адвоката Дональда Трампа. Коэн взял вину на себя, заявив, что не знал о так называемых «галлюцинациях ИИ», на которые способен использовавшийся им сервис Google для юридических исследований.
Верховный судья Великобритании Виктория Шарп в июне предупредила, что предоставление ложной информации под видом подлинной может рассматриваться как неуважение к суду или, в «наиболее вопиющих случаях», как попытка воспрепятствовать отправлению правосудия, что влечет за собой наказание вплоть до пожизненного заключения.
Источник: AP
Этот случай вызвал много обсуждений и важность внимательности при использовании ИИ в юридических и других профессиональных областях что довольно интересно.
очень мило. отличная работа.
Этот инцидент подчеркивает необходимость строгого контроля и проверки информации, предоставляемой ИИ, особенно в сфере правосудия, где точность и достоверность имеют первостепенное значение. В будущем важно разработать стандарты и протоколы для использования ИИ в юридической сфере, чтобы избежать подобных инцидентов и повысить доверие к технологиям.
История показательная — ИИ действительно может быть полезным инструментом, но слепо доверять ему опасно. Использование вымышленных цитат и решений подрывает доверие к юристу и вредит репутации профессии. Нужно чётко понимать границы применения технологий и всегда проверять результат.
Случай с австралийским адвокатом, признавшимся в использовании вымышленных ИИ-цитат и фальшивых судебных решений, подчёркивает несколько важных моментов. Во-первых, он демонстрирует риски чрезмерного доверия к инструментам генеративного ИИ без тщательной проверки фактов. Во-вторых, это ставит под сомнение профессиональную этику и обязательства юристов перед клиентами и судом: адвокат обязан предоставлять только достоверную информацию. Наконец, это указывает на необходимость разработки строгих стандартов проверки источников и более жёсткого контроля над использованием ИИ в юридической практике.
Помощники судьи молодцы, что провели глубокую проверку. Как говорится » доверяй- но проверяй».
Юридические эксперты подчеркивают, что подобные случаи поднимают важные этические и профессиональные вопросы, связанные с прозрачностью и ответственностью при применении ИИ в судопроизводстве. В результате данного инцидента были предложены рекомендации по более строгому регулированию использования искусственного интеллекта в юридической деятельности, чтобы избежать подобных ошибок в будущем.
Честно говоря, я в полном недоумении — как можно было не проверить такие материалы перед тем, как подавать их в суд? Ведь это же не студенческое эссе, а дело об убийстве, где на кону человеческие судьбы. Разве адвокат не обязан удостовериться, что цитаты и решения реально существуют? Похоже, доверие к ИИ у некоторых людей превысило элементарный здравый смысл.
Вместо доказательств выдуманные решения, вместо цитат галлюцинации ИИ, а адвокаты извиняются, как школьники, забывшие сделать домашнее задание. Когда юристы начинают подсовывать суду фейки, пусть даже по наивности, они подрывают саму основу правосудия, где решают судьбы людей. Пугает не то, что использовали ИИ. Пугает, что не проверили и поверили машине больше, чем собственной профессии
Новость конечно интересна, но кто скажет сколько не пойманных за руку работает и в ус не дует. Да и дальше будет только нарастать использование таких технологий. Технологический прогресс не остановить.
Несмотря на то, что ИИ может значительно ускорить подготовку документов и анализировать большое количество информации, такие случаи показывают необходимость строгого контроля и верификации данных, чтобы избегать распространения ложной информации, которая может навредить участникам процесса. Юридические организации и суды должны разработать четкие руководящие принципы по использованию ИИ, чтобы предотвратить подобные инциденты в будущем.
Как можно доверять юридической системе, если даже самые высокие профессионалы допускают такие нарушения? Неужели мы живем в мире, где правда и ложь стали неразличимы? И что ждет наше общество, если такие практики станут нормой?
Дело вызвало более широкую дискуссию о том, как адвокаты и суды должны использовать генеративный ИИ и какие установки или правила необходимы, чтобы избежать таких ошибок.
ИИ все же нельзя доверять на 100%, все результаты его работы нужно проверять, иначе создаются по меньшей мере неловкие ситуации. А в крайних случаях возможны и судебные (как описано в обзоре) или другие совершенно неприемлемые ошибки. ИИ еще расти и учиться, и сколько займет весь этот процесс пока неизвестно никому.