В постановлении, объединяющем два недавних дела, судья Виктория Шарп написала, что инструменты генеративного искусственного интеллекта, такие как ChatGPT, «не способны проводить достоверные юридические исследования».
«Такие инструменты могут выдавать на первый взгляд связные и правдоподобные ответы на запросы, но эти связные и правдоподобные ответы могут оказаться совершенно неверными, — написала судья Шарп. — Ответы могут содержать уверенные утверждения, которые просто не соответствуют действительности».
Это не значит, что юристы не могут использовать ИИ в своих исследованиях, но, по её словам, у них есть профессиональная обязанность «проверять точность таких исследований, обращаясь к авторитетным источникам, прежде чем использовать их в своей профессиональной деятельности».
Судья Шарп предположила, что в связи с растущим числом дел, в которых адвокаты ссылаются на то, что, по-видимому, является ложью, созданной ИИ, «необходимо сделать больше, чтобы обеспечить соблюдение рекомендаций и выполнение адвокатами своих обязанностей перед судом». Она сказала, что её решение будет направлено в профессиональные организации, включая Совет адвокатов и Юридическое общество.
В одном из рассматриваемых дел адвокат, представлявший интересы человека, подавшего иск о возмещении ущерба против двух банков, представил документы с 45 ссылками. 18 из этих дел не существовали, а многие другие «не содержали приписываемых им цитат, не подтверждали тезисы, на которые они ссылались, и не имели никакого отношения к предмету иска», — сказала судья Шарп.
В другом случае адвокат, представлявший интересы человека, которого выселили из его лондонского дома, подал в суд заявление, в котором ссылался на пять дел, которых, по всей видимости, не существовало. (Адвокат отрицал использование ИИ, хотя и сказал, что ссылки могли быть взяты из сгенерированных ИИ резюме, которые появились в «Google или Safari».) Судья Шарп заявила, что, хотя суд решил не возбуждать дело о неуважении к суду, это «не является прецедентом».
«Адвокаты, не выполняющие свои профессиональные обязательства в этом отношении, рискуют столкнуться с серьёзными санкциями», — добавила она.
Оба адвоката были либо направлены, либо сами обратились в профессиональные регулирующие органы. Судья Шарп отметила, что, когда адвокаты не выполняют свои обязанности перед судом, полномочия суда варьируются от «публичного предупреждения», взыскания судебных издержек, судебного разбирательства за неуважение к суду и даже до «обращения в полицию».
Источник: TechCrunch
Правильно делают, что предупреждают. Судебная система — не место для фантазий ИИ. Юристы должны нести ответственность за проверку информации, которую используют, особенно если она сгенерирована нейросетями. Иначе доверие к юриспруденции просто рухнет.
Появление ИИ-технологий привело к опасениям, что такие инструменты могут использоваться для создания ложной информации или манипуляций с данными и это конечно волнительно.
Решение Высокого суда подчеркивает необходимость баланса между инновациями и этическими стандартами. Юристы сохраняют ответственность за точность предоставленных данных, даже если они опираются на технологии. Как отметила судья Виктория Шарп, «ИИ — мощный инструмент, но его использование сопряжено с рисками».
Как ни странно, появление ИИ-технологий вызвало опасения, что эти инструменты могут использоваться для манипуляций с данными или создания ложной информации.
Абсолютно справедливо юристы должны проверять информацию ИИ инструмен но ответственность всегда на человеке
Сама идея справедливости стала жертвой лени и слепого доверия к алгоритмам, которые, которые с легкостью плетут «правдоподобную ложь. Знать, что твой «труд» с выдуманными цитатами мог перевернуть ход дела, лишить кого-то компенсации или, хуже того, усугубить ситуацию обманутого клиента. И более того, в скором времени получим систему, где справедливость решают не факты, а выдуманные «факты».