Deloitte обязана компенсировать Австралии $440 тысяч за отчёт, выполненный искусственным интеллектом

Deloitte предоставит федеральному правительству частичный возврат средств за отчет стоимостью 440 000 долларов, в котором были выявлены многочисленные ошибки, признав, что при его подготовке использовался генеративный искусственный интеллект.

Министерство занятости и трудовых отношений (DEWR) подтвердило, что Deloitte вернет последний платеж по контракту. Информация об этом будет опубликована после завершения транзакции. Это произошло после того, как один из сенаторов от Лейбористской партии обвинил консалтинговую фирму в наличии «проблем с человеческим интеллектом».

Смотрите видео на удобном для вас ресурсе!

В декабре 2024 года министерство поручило Deloitte провести обзор таргетированной системы комплаенса и ее ИТ-системы, используемой для автоматического назначения санкций в системе соцобеспечения при невыполнении соискателями работы взаимных обязательств.

В ходе проведенного обзора были выявлены серьезные проблемы, включая отсутствие «прослеживаемости» между правилами комплаенса и соответствующим законодательством, а также «дефекты системы». В отчете отмечается, что ИТ-система «базируется на карательных предположениях о несоблюдении участниками требований».

Впервые отчет был опубликован 4 июля, а затем повторно размещен на сайте DEWR в пятницу, после того как в августе Australian Financial Review сообщил о множественных ошибках, включая несуществующие ссылки и цитаты.

Преподаватель Сиднейского университета доктор Кристофер Радж обратил внимание на ошибки, указав, что отчет содержал «галлюцинации» — случаи, когда ИИ дополняет пробелы, неверно интерпретирует данные или пытается угадать ответы.

«Вместо того, чтобы заменить одну вымышленную ссылку на новую “настоящую”, они вставили еще больше поддельных источников — теперь их стало пять, шесть, семь или даже восемь», — сказал он.

«Это говорит о том, что исходное утверждение в тексте отчета не основывалось ни на каком конкретном доказательном источнике».

В обновленной версии обзора отмечено «небольшое количество исправлений в ссылках и сносках», однако министерство заявило, что рекомендации отчета остались без изменений.

«Deloitte провела независимый аудит и подтвердила, что некоторые сноски и ссылки были ошибочными», — заявил представитель министерства.

«Существо независимого обзора сохранено, и рекомендации не изменились».

В обновленную версию отчета Deloitte добавила указание на использование генеративного ИИ в приложении. Там сказано, что часть отчета «включала использование инструментальной цепочки на базе генеративной искусственной интеллектуальной (Azure OpenAI GPT – 4o), лицензированной DEWR и размещенной в облаке Azure, принадлежащем DEWR».

Deloitte не сообщила, что именно применение искусственного интеллекта стало причиной ошибок в первоначальном отчете. Компания продолжила поддерживать выводы обзора.

«Внесенные поправки никоим образом не затрагивают и не влияют на основное содержимое, выводы и рекомендации отчета», — говорится в обновленной версии документа.

Представитель Deloitte заявил, что «вопрос был решен напрямую с клиентом».


Комментарии и реакция

Сенатор Лейбористской партии Дебора О’Нил, участвовавшая в расследовании Сената о добросовестности консалтинговых компаний, отметила, что «похоже, ИИ поручили выполнять всю основную работу».

«У Deloitte проблемы с человеческим интеллектом. Это было бы смешно, если бы не было так печально. Частичный возврат больше похож на частичные извинения за некачественную работу», — сказала она.

«Любая организация, привлекающая такие компании, должна четко выяснять, кто именно выполняет работу, за которую они платят, и требовать подтверждения квалификации специалистов и отсутствия использования ИИ.

«Возможно, вместо привлечения крупных консалтинговых фирм, заказчикам проще приобрести подписку на ChatGPT».

AFR обнаружил в первоначальном отчете несколько ошибочных ссылок, включая несуществующие публикации преподавателей Сиднейского университета и Университета Лунда в Швеции. В статье также указывается на вымышленную ссылку на судебное решение по делу о рободолгах — Deanna Amato против Commonwealth. В итоговой версии отчета Deloitte указала, что обновление «исправило резюме по делу Amato, в котором были ошибки».

Доктор Радж отметил, что, несмотря на критику, он не считает, что весь отчет следует признавать «недействительным», поскольку его выводы совпадают с имеющимися данными и другими источниками.

Источник: The Guardian

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

12 комментариев к “Deloitte обязана компенсировать Австралии $440 тысяч за отчёт, выполненный искусственным интеллектом

  1. Deloitte признала, что в процессе подготовки отчёта использовался генеративный ИИ (в частности, инструмент Azure OpenAI GPT-4o) на стороне клиента что для меня стало открытием .

  2. Боже, сколько можно? Люди ничему не учатся. Когда уже до всех дойдет, что ИИ делает ошибки. Ему нельзя доверять на все 100%. По-моему об этом уже все должны знать. ИИ сейчас такого уровня, что годится только для развлечения, для создания развлекательного контента, но не больше. Серьёзную и ответственную работу у людей отбирать пока ещё слишком рано.

  3. Deloitte не сообщила, что именно применение искусственного интеллекта стало причиной ошибок в первоначальном отчете. Компания продолжила поддерживать выводы обзора.
    Надо проверять ИИ а то расслабились.1

  4. Этот случай поднимает важные вопросы по этике и ответственности в использовании технологий искусственного интеллекта в профессиональной деятельности. Важно учитывать, что такие решения могут иметь серьёзные правовые и финансовые последствия для компаний, использующих ИИ в своих услугах, особенно в случае ошибок или неточностей. Необходимо тщательно регулировать применение таких технологий и обеспечивать их прозрачность и подотчетность.

  5. Ох уж эти ИИ:) Кейс Deloitte демонстрирует возрастающие риски автоматизации аудита без должного контроля. Австралия задаёт тренд на ужесточение регулирования ИИ, и аналогичные иски могут возникнуть в ЕС и США. Для минимизации репутационных и финансовых потерь компаниям необходимо пересмотреть подходы к интеграции ИИ, сделав акцент на прозрачности и человекоориентированном аудите.

  6. Это не просто ошибка, а умышленная порча. Когда компания вроде Deloitte, которую федеральное правительство считает надежной, сдаёт отчет, пропитанный «галлюцинациями» ИИ, а потом просто подправляет ссылки и за это ты платишь 440 тысяч за анализ системы, которая может разрушить жизни людей, назначая штрафы автоматически. Сенатор О’Нил права. Если консалтинговые гиганты начинают экономить на содержании, заменяя экспертизу генерацией, значит, вся их модель хрупка. И, да, может, действительно проще купить ChatGPT и не притворяться, что тут кто-то реально думает

  7. Вот это поворот! Такая ситуация отлично показывает, что даже крупные компании не застрахованы от последствий бездумного использования ИИ. Использовать нейросети можно, но ответственность за качество и точность всё равно остаётся на исполнителе. Хороший урок для рынка консалтинга и аудита.

  8. Очень показательная история для всей консалтинговой отрасли.
    Использование ИИ без должного контроля качества превращается из инструмента повышения эффективности в источник репутационных и финансовых потерь.

    $440 000 — не просто компенсация, а сигнал всему рынку: автоматизация не освобождает от ответственности за результат.
    Любой отчёт, особенно на уровне правительства, требует проверки человеческим интеллектом — того самого, с которым, как метко подметила сенатор, у Deloitte возникли проблемы.

  9. Разве можно игнорировать важность ответственного использования технологий? А как же этические нормы и стандарты, которые мы должны соблюдать? Компании должны тщательно проверять и контролировать работу ИИ, чтобы избежать ошибок и недоразумений, которые могут привести к финансовым и репутационным потерям. Неужели мы готовы рисковать будущим ради сиюминутной выгоды?

  10. Даже странно, что крупная консалтинговая система полностью доверилась ИИ. Похоже, что и вправду у этой компании очень ограничен человеческий ресурс, очень хотелось всех уволить — пусть работает ИИ. А государственным органам просто необходимо видимо указывать в контрактах — без использования ИИ. Ну и конечно доверяй, но проверяй — этого правила никто не отменял.

  11. Для меня как для творческой личности данная ситуация стала глотком свежего воздуха в застойном водоёме искусственности. ИИ — это помощь, но не замена человека как Творца!

  12. Deloitte признала, что в процессе подготовки отчёта использовался генеративный ИИ (в частности, инструмент Azure OpenAI GPT-4o) на стороне клиента что для меня стало открытием .

Обсуждение закрыто.

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять