Адвокат, представляющий Anthropic, признал, что использовал ошибочную цитату, созданную чат-ботом Claude AI, в продолжающемся судебном разбирательстве с музыкальными издательствами, согласно заявлению, поданному в суд Северной Калифорнии в четверг.
Anthropic сообщила, что Claude «придумал цитату». Юристы компании объяснили, что их «ручная проверка цитат» не выявила ни эту, ни несколько других ошибок, вызванных галлюцинациями Claude.
Anthropic извинилсь за ошибку и назвала её «честной ошибкой при цитировании, а не подделкой под авторитетный источник».
Ранее на этой неделе адвокаты, представляющие Universal Music Group и других музыкальных издателей, обвинили свидетеля-эксперта Anthropic — одну из сотрудниц компании Оливию Чен — в том, что она использовала Claude, чтобы цитировать в своих показаниях поддельные статьи. Федеральный судья Сьюзан ван Кеулен затем приказала Anthropic ответить на эти обвинения.
Иск музыкальных издателей — один из нескольких споров между правообладателями и технологическими компаниями по поводу предполагаемого неправомерного использования их работ для создания инструментов генеративного искусственного интеллекта.
Это последний случай, когда юристы использовали ИИ в суде, а затем пожалели об этом. Ранее на этой неделе судья из Калифорнии раскритиковал пару юридических фирм за то, что они представили в его суд «поддельные исследования, созданные ИИ». В январе австралийского юриста поймали на использовании ChatGPT при подготовке судебных документов, и чат-бот выдал неверные цитаты.
Однако эти ошибки не мешают стартапам привлекать огромные средства для автоматизации юридической работы. Компания Harvey, которая использует генеративные модели ИИ для помощи юристам, по имеющимся данным, ведёт переговоры о привлечении более 250 миллионов долларов при оценке в 5 миллиардов долларов.
Источник: TechCrunch
Представляющий интересы компании Anthropic адвокат признался в использовании ошибочной цитаты, сгенерированной чат-ботом Claude. На поддельную цитату в судебных документах обратил внимание юрист музыкальных лейблов Universal Music, Concord и ABKCO. Последние подали иск к Anthropic из-за незаконного использования компанией текстов песен для обучения моделей на базе искусственного интеллекта.
Интересно наблюдать, как юристы используют материалы, созданные с помощью искусственного интеллекта, для представления вымышленных источников, только для того, чтобы быть пойманными на месте преступления. Спасибо, что обратили внимание на эту тему. Последствия таких действий значительны и поднимают вопросы об этике и подотчетности в юридической профессии.
Это последний случай, когда юристы использовали ИИ в суде, а затем пожалели об этом.Вот я и говорю мы пожалеем что часто используем ИИ к хорошему это не приведет.
Вот почему ИИ нельзя использовать вслепую, особенно в юридической сфере. Если даже адвокаты пропустили выдуманную цитату, это серьёзный сигнал. Такие инструменты должны быть помощниками, а не источниками фальсификаций — надеюсь, выводы будут сделаны и пользователями, и разработчиками.
Ну это уже совсем перебор — липовые цитаты от Claude AI. Такие ошибки — это не просто ляп, а реальная угроза для правосудия. Если боты начинают подсовывать выдумки, а юристы их поверяют спустя рукова, можно и до судебных абсурдов дойти. Нужно серьёзно задуматься о проблеме: насколько вообще безопасно допускать ИИ в юридическую сферу.
Вот еще одно доказательство что нельзя использовать без проверок и контроля «творчество» ИИ в таком серьезном деле, как юриспруденция. Иногда от фразы или факта в суде зависит и судьба и иногда жизнь людей. Все должно быть точно и доказательно.
Вот именно так бывает, когда люди не знают сути. Такие у нас специалисты-юристы. Машина(ИИ) тут не виновата. Гнать надо водителя-дурака. Знание на первом месте.