Компания OpenAI столкнулась с очередной жалобой на нарушение конфиденциальности в Европе из-за склонности её вирусного чат-бота с искусственным интеллектом выдавать ложную информацию. Игнорировать эту жалобу регулирующим органам может быть непросто.
Группа по защите прав на неприкосновенность частной жизни Noyb оказывает поддержку жителю Норвегии, который был в ужасе, когда ChatGPT выдал ему вымышленную информацию о том, что его осудили за убийство двух своих детей и попытку убийства третьего.
Предыдущие жалобы на нарушение конфиденциальности из-за того, что ChatGPT генерирует неверные персональные данные, касались таких проблем, как неверная дата рождения или неверные биографические данные. Одна из проблем заключается в том, что OpenAI не предлагает пользователям способ исправить неверную информацию, которую ИИ генерирует о них. Как правило, OpenAI предлагает блокировать ответы на такие запросы. Но в соответствии с Общим регламентом ЕС по защите данных (GDPR) у европейцев есть ряд прав на доступ к данным, в том числе право на исправление персональных данных.
Другой компонент этого закона о защите данных требует от операторов данных, чтобы они следили за точностью персональных данных, которые они собирают о людях, — и это проблема, которую Noyb поднимает в своей последней жалобе на ChatGPT.
«GDPR предельно ясен. Персональные данные должны быть точными, — заявил Йоаким Сёдерберг, юрист по защите данных в Noyb. — Если это не так, пользователи имеют право на то, чтобы их изменили, чтобы они отражали действительность. Одного лишь уведомления о том, что чат-бот может допускать ошибки, явно недостаточно. Вы не можете просто распространять ложную информацию и в конце добавлять небольшое уведомление о том, что всё, что вы сказали, может быть неправдой».
Подтвержденные нарушения GDPR могут повлечь за собой штрафы в размере до 4% от глобального годового оборота.
Правоприменительные органы также могут вносить изменения в продукты на основе ИИ. В частности, надзорный орган Италии по защите данных в соответствии с GDPR заблокировал доступ к ChatGPT в стране весной 2023 года. Это привело к тому, что OpenAI, например, внесла изменения в информацию, которую она раскрывает пользователям.Впоследствии надзорный орган оштрафовал OpenAI на 15 миллионов евро за обработку данных пользователей без надлежащих правовых оснований.
Однако с тех пор справедливо будет сказать, что службы защиты конфиденциальности по всей Европе стали более осторожно подходить к GenAI, поскольку они пытаются выяснить, как наилучшим образом применить GDPR к инструментам искусственного интеллекта.
Два года назад Комиссия по защите данных Ирландии (DPC), которая играет ведущую роль в обеспечении соблюдения GDPR, в связи с предыдущей жалобой Noyb на ChatGPT, призвала не торопиться с запретом инструментов GenAI. Это говорит о том, что регулирующим органам следует потратить время на то, чтобы понять, как применяется закон.
Примечательно, что жалоба на нарушение конфиденциальности в отношении ChatGPT, которая находится на рассмотрении польского ведомства по защите данных с сентября 2023 года, до сих пор не рассмотрена.
Новая жалоба Noyb на ChatGPT, похоже, призвана привлечь внимание регуляторов конфиденциальности к опасностям, связанным с искусственным интеллектом и его галлюцинациями.
“Этот случай потряс местное сообщество … “
Некоммерческая организация поделилась с TechCrunch скриншотом (ниже), на котором показано взаимодействие с ChatGPT, в ходе которого ИИ отвечает на вопрос «кто такой Арве Ялмар Холмен?» — имя человека, подавшего жалобу, — и создаёт трагическую выдумку, в которой утверждается, что он был осуждён за убийство ребёнка и приговорён к 21 году тюремного заключения за убийство двух собственных сыновей.

Хотя клеветническое утверждение о том, что Ялмар Холмен является детоубийцей, полностью ложно, Noyb отмечает, что в ответе ChatGPT действительно есть доля правды, поскольку у данного человека действительно есть трое детей. Чат-бот также правильно определил пол своих детей. И его родной город назван правильно. Но именно это делает еще более странным и тревожным тот факт, что искусственный интеллект галлюцинировал такой ужасной ложью сверху.
Представитель Noyb заявил, что они не смогли определить, почему чат-бот создал такую специфическую, но ложную историю для этого человека. «Мы провели расследование, чтобы убедиться, что это не просто путаница с другим человеком», — сказал представитель, отметив, что они изучили архивы газет, но не смогли найти объяснение тому, почему ИИ сфабриковал убийство ребёнка.
Большие языковые модели, такие как та, что лежит в основе ChatGPT, по сути, предсказывают следующее слово в огромных масштабах, поэтому мы можем предположить, что наборы данных, использованные для обучения инструмента, содержали множество историй о детоубийстве, которые повлияли на выбор слов в ответ на запрос о человеке по имени.
Каким бы ни было объяснение, очевидно, что такие результаты совершенно неприемлемы.
Noyb также утверждает, что они являются незаконными в соответствии с правилами защиты данных ЕС. И хотя OpenAI отображает крошечный отказ от ответственности в нижней части экрана, в котором говорится: “ChatGPT может допускать ошибки. Проверьте важную информацию”, — это не может освободить разработчика искусственного интеллекта от его обязанности в соответствии с GDPR не распространять вопиющую ложь о людях.
Мы связались с OpenAI, чтобы получить ответ на жалобу. PR-компания в Европе, Headland Consultancy, отправила нам по электронной почте следующее заявление, подписанное представителем OpenAI: «Мы продолжаем исследовать новые способы повышения точности наших моделей и уменьшения количества галлюцинаций. Пока мы рассматриваем эту жалобу, она касается версии ChatGPT, которая с тех пор была дополнена возможностями онлайн-поиска, повышающими точность».
Хотя эта жалоба по GDPR относится к одному указанному физическому лицу, Noyb указывает на другие случаи, когда ChatGPT фабриковал юридически компрометирующую информацию — например, австралийский майор, который сказал, что он был замешан в скандале со взяточничеством и коррупцией или немецкий журналист, которого ложно назвали насильником детей. Это не единичная проблема для инструмента искусственного интеллекта.
Важно отметить, что после обновления базовой модели искусственного интеллекта, на которой работает ChatGPT, по словам Noyb, чат-бот перестал выдавать опасную ложь о Яльмаре Холмене. Это изменение связано с тем, что теперь инструмент ищет в интернете информацию о людях, когда его спрашивают, кто они такие (в то время как раньше пробел в наборе данных мог привести к тому, что он выдал бы такой совершенно неверный ответ).
В наших собственных тестах, когда мы спрашивали ChatGPT: «Кто такой Арве Ялмар Холмен?», ChatGPT сначала выдавал немного странную комбинацию, показывая фотографии разных людей, очевидно, взятые с таких сайтов, как Instagram*, SoundCloud и Discogs, а также текст, в котором говорилось, что он «не может найти никакой информации» о человеке с таким именем (см. наш скриншот ниже). При второй попытке был получен ответ, в котором Арве Ялмар Холмен был назван «норвежским музыкантом и автором песен», чьи альбомы включают «Honky Tonk Inferno».

Хотя опасные ложные сведения о Яльмаре Хольмене, созданные ChatGPT, похоже, исчезли, но Noyb, и Яльмар Хольмен по-прежнему обеспокоены тем, что в модели ИИ могла сохраниться неверная и порочащая его информация.
«Добавление заявления о том, что вы не соблюдаете закон, не отменяет действие закона, — отметила в своём заявлении Клеанти Сардели, ещё один юрист Noyb по защите данных. — Компании, занимающиеся искусственным интеллектом, также не могут просто „скрывать“ ложную информацию от пользователей, в то время как внутри компании она всё равно обрабатывается».
«Компании, занимающиеся ИИ, должны прекратить вести себя так, будто GDPR на них не распространяется, хотя это явно так», — добавила она. «Если галлюцинации не остановить, люди могут легко понести репутационный ущерб».
Компания Noyb подала жалобу на OpenAI в норвежский орган по защите данных и надеется, что надзорный орган решит, что он компетентен в проведении расследования, поскольку Noyb подаёт жалобу на американское подразделение OpenAI, утверждая, что ирландское подразделение не несёт единоличной ответственности за решения о продуктах, влияющих на европейцев.
Однако более ранняя жалоба Noyb на нарушение GDPR компанией OpenAI, поданная в Австрии в апреле 2024 года, была передана регулятором в DPC Ирландии из-за внесённых ранее в том же году изменений в OpenAI, в результате которых ирландское подразделение компании стало поставщиком сервиса ChatGPT для региональных пользователей.
Где эта жалоба сейчас? Все еще лежит на столе в Ирландии.
«Получив жалобу от надзорного органа Австрии в сентябре 2024 года, DPC начал официальное рассмотрение жалобы, которое продолжается до сих пор», — сообщил TechCrunch Ристеард Бирн, помощник директора по связям с общественностью DPC, когда его попросили предоставить обновлённую информацию.
Он не сообщил, когда ожидается завершение расследования DPC в отношении галлюцинаций ChatGPT.
Источник: TechCrunch

Главный редактор
Социальные сети:
Telegram: https://t.me/creatorproject_ru
VK: https://vk.com/novosti_ai
Дзен: https://dzen.ru/ainewscp
RuTube: https://rutube.ru/channel/58102633/
YouTube: https://www.youtube.com/@creatorproject_ru
TikTok: https://www.tiktok.com/@creatorproject_ru
Likee: AI News (@creatorproject)
Я конечно давно знаю, что ИИ «иногда путается». Но я-то думал, что это не заходит настолько далеко. Одно дело когда ИИ рисует неправильно руки и уже совсем другое, когда ИИ обвиняет невиновного человека в тяжком преступлении. Я просто в шоке.
Ситуация с обвинением OpenAI в нарушении GDPR показывает, насколько важно регулирование ИИ и защита персональных данных. Ошибки в информации могут иметь серьёзные последствия. Интересно, как компании будут адаптировать свои модели, чтобы избежать подобных проблем? Может ли это привести к ужесточению правил в сфере ИИ?