Галлюцинации ИИ привели к использованию фальшивой статистики в политике Аляски

Fake News

Сочетание искусственного интеллекта и законотворческой деятельности иногда может приводить к непредвиденным последствиям, как это недавно произошло на Аляске.

В необычном повороте событий законодатели Аляски, как сообщается, использовали сгенерированные ИИ цитаты, которые были неточными, чтобы оправдать предлагаемую политику запрета мобильных телефонов в школах. Как сообщает The Alaska Beacon, Департамент образования и раннего развития Аляски (DEED) представил проект политики, содержащий ссылки на академические исследования, которых просто не существовало.

Проблема возникла, когда комиссар по образованию Аляски Дина Бишоп воспользовалась генеративным ИИ для составления проекта данной политики. Документ, подготовленный с помощью ИИ, содержал якобы научные ссылки, которые не были проверены и оказались недостоверными, при этом факт использования ИИ в подготовке документа не был раскрыт. Часть текста, созданного искусственным интеллектом, попала в Совет по образованию и раннему развитию Аляски, прежде чем могла быть рассмотрена, что потенциально повлияло на обсуждения внутри совета.

Позже комиссар Бишоп заявила, что ИИ был использован только для «создания ссылок» на начальном этапе, и утверждала, что ошибки были исправлены до заседания, отправив членам совета обновленные ссылки. Тем не менее, “галлюцинации” ИИ — фиктивные данные, генерируемые, когда система пытается создать правдоподобный, но непроверенный контент — все же оставались в итоговом документе, за который впоследствии голосовал совет.

Окончательная резолюция, опубликованная на сайте DEED, предписывает департаменту разработать модель политики ограничения использования мобильных телефонов в школах. К сожалению, в документе содержалось шесть ссылок, причем четыре из них якобы были из уважаемых научных журналов. Однако ссылки оказались полностью сфальсифицированными, а указанные URL вели на несоответствующие веб-страницы. Этот инцидент демонстрирует риски использования данных, сгенерированных ИИ, без должной проверки со стороны человека, особенно при разработке политики.

Случай на Аляске не является единичным. “Галлюцинации” ИИ становятся все более распространенным явлением в различных профессиональных секторах. Например, некоторые юристы столкнулись с последствиями за использование фиктивных ссылок на судебные дела, сгенерированных искусственным интеллектом, в судебных процессах. Точно так же в академических публикациях, написанных с помощью ИИ, были включены искаженные данные и фальшивые источники, что вызывает серьезные вопросы доверия. Когда такие алгоритмы остаются без контроля, они могут легко создавать вводящие в заблуждение ссылки, поскольку они обучены генерировать контент на основе шаблонов, а не на основе фактической точности.

Зависимость от данных, сгенерированных ИИ, в процессе разработки политики, особенно в области образования, несет значительные риски. Разработка политики, основанной на ложных данных, может привести к неправильному распределению ресурсов и потенциально повредить обучающимся. Например, политика, ограничивающая использование мобильных телефонов на основе вымышленных данных, может отвлечь внимание от более эффективных и научно обоснованных мер, которые могли бы действительно принести пользу учащимся.

Более того, использование непроверенных данных, сгенерированных ИИ, может подорвать общественное доверие как к процессу разработки политики, так и к технологиям ИИ в целом. Подобные инциденты подчеркивают важность проверки фактов, обеспечения прозрачности и соблюдения осторожности при использовании ИИ в ответственных областях принятия решений, особенно в образовании, где воздействие на учащихся может быть значительным.

Сторонники политики на Аляске попытались минимизировать серьезность ситуации, назвав фальсифицированные ссылки «временными маркерами», которые подлежали дальнейшей корректировке. Однако документ с такими «маркерами» был все же представлен на рассмотрение совета и стал основой для голосования, что подчеркивает необходимость строгого контроля при использовании ИИ.

Источник: Artificial Intelligence News

Интересно? Поделиться:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *