ChatGPT Health: риск для вашей приватности и вашего здоровья

По данным OpenAI, каждую неделю более 230 миллионов человек обращаются к ChatGPT за советами по здоровью и благополучию. Компания утверждает, что многие видят в чат-боте «союзника», который помогает ориентироваться в сложной системе страхования, заполнять документы и быть более эффективными защитниками собственных интересов. В обмен на это компания надеется, что вы доверите чат-боту подробности о ваших диагнозах, лекарствах, результатах анализов и другую личную медицинскую информацию. Однако, несмотря на то, что разговор с чат-ботом может становиться похожим на визит в кабинет врача, чат-бот таковым не является. Технологические компании не связаны теми же обязательствами, что и медицинские учреждения. Эксперты сообщили, что было бы разумно тщательно подумать, прежде чем передавать свои данные.

Смотрите видео на удобном для вас ресурсе!

Сфера здравоохранения и благополучия быстро становится ключевым полем битвы для AI-лабораторий и важнейшей проверкой готовности пользователей впустить такие системы в свою жизнь. В этом месяце два крупнейших игрока индустрии сделали открытые шаги в сторону медицины. OpenAI презентовала ChatGPT Health — отдельную вкладку в ChatGPT, созданную для того, чтобы пользователи могли задавать вопросы о здоровье в, как утверждается, более защищенной и персонализированной среде. Anthropic представила Claude for Healthcare — продукт, готовый к соответствию HIPAA, который, по заявлению компании, могут использовать больницы, медицинские работники и потребители. (Заметим отсутствие Google — хотя их чат-бот Gemini является одним из самых продвинутых и популярных AI-инструментов в мире, компания лишь анонсировала обновление медицинской AI-модели MedGemma для разработчиков.)

OpenAI активно призывает пользователей делиться с ChatGPT Health конфиденциальной информацией — медицинскими записями, результатами анализов, данными о здоровье и активности из приложений вроде Apple Health, Peloton, Weight Watchers и MyFitnessPal — в обмен на более глубокие инсайты. Компания прямо заявляет, что данные о здоровье будут храниться конфиденциально, не будут использоваться для обучения ИИ-моделей, и что предприняты меры для обеспечения безопасности и анонимности информации. OpenAI обещает, что диалоги в ChatGPT Health будут помещаться в отдельный раздел приложения, а пользователи смогут в любой момент просмотреть или удалить «воспоминания о здоровье».

Уверенность OpenAI в том, что данные пользователей будут защищены, во многом подкреплена запуском почти одновременно с ChatGPT Health еще одного продукта с похожим названием, но более строгими протоколами безопасности — ChatGPT for Healthcare. Этот инструмент входит в более широкий набор продуктов для поддержки бизнеса, больниц и врачей, работающих с пациентами напрямую. Среди предлагаемых сценариев использования — оптимизация административной работы, такой как составление медицинских писем и выписок, а также помощь врачам в сборе актуальных медицинских данных для повышения качества медицинской помощи. Как и другие корпоративные продукты компании, решение обеспечивает более высокий уровень защиты, чем доступен массовым пользователям, особенно бесплатным, и создано с учетом требований конфиденциальности в медицинской сфере. Из-за схожести названий и дат анонса — ChatGPT for Healthcare была представлена на следующий день после ChatGPT Health — легко перепутать оба продукта и ошибочно полагать, что пользовательская версия обеспечивает тот же уровень защиты, что и ориентированная на клиники.

Однако, какой бы интерфейс защиты ни предлагался, он далек от абсолютной надежности. По словам экспертов, пользователи таких инструментов, как ChatGPT Health, зачастую имеют мало реальных гарантий от утечек и несанкционированного использования, помимо прописанного в пользовательском соглашении и политике конфиденциальности. Поскольку большинство штатов до сих пор не приняли полноценные законы о защите данных — а общенационального закона и вовсе нет — соблюдение конфиденциальности AI-инструментами типа ChatGPT Health «во многом зависит от того, что компании обещают в своих политиках», объясняет Сара Герк, профессор права Иллинойсского университета в Урбана-Шампейн.

Даже если вы полностью доверяете компании, что она будет оберегать ваши данные — OpenAI утверждает, что шифрует данные о здоровье по умолчанию, — компания вполне может изменить свою политику. «Хотя сейчас ChatGPT в пользовательском соглашении обещает сохранять конфиденциальность этих данных и не использовать их для обучения моделей, закон вас не защищает, и условия могут быть изменены со временем», поясняет Ханна ван Кольфсхоотен, исследователь цифрового медицинского права Базельского университета (Швейцария). «Вам остается только надеяться на то, что ChatGPT не нарушит эти обещания». Кармел Шахар, доцент юридического факультета Гарвардской школы права, соглашается: «Здесь очень мало защиты. Всё держится на их словах, и они в любой момент могут изменить свои правила конфиденциальности».

Заявления, что продукт соответствует требованиям законодательства о защите медицинских данных, например HIPAA (Закон о переносимости и подотчетности медицинского страхования), тоже не должны сильно успокаивать, считает Шахар. Хотя соответствие может быть хорошим ориентиром, по её словам, если компания, добровольно соблюдающая закон, допустит нарушение, для нее это мало чем грозит. Добровольное соблюдение — не то же самое, что юридическая обязанность. «Ценность HIPAA заключается в возможности применения санкций при нарушениях».

Всё упирается не только в конфиденциальность. Есть причина, по которой медицина — сфера с жестким регулированием: ошибки здесь могут быть опасны, а порой и смертельны. Уже зафиксировано немало случаев, когда чат-боты с уверенностью распространяли ложную или вводящую в заблуждение медицинскую информацию — например, когда после совета ChatGPT заменить соль на бромид натрия, ранее использовавшийся в качестве седативного препарата, у мужчины развилось редкое заболевание. Или когда Google AI Overviews ошибочно рекомендовала людям с раком поджелудочной железы избегать жирной пищи, хотя им, напротив, её необходимо употреблять.

В связи с этим OpenAI открыто заявляет, что их инструмент для конечных пользователей предназначен только для использования совместно с врачами и не предназначен для диагностики или лечения. Такие инструменты относят уже к медицинским изделиям, и они подлежат куда более строгому регулированию — требуется клиническое подтверждение эффективности, а после внедрения — контроль безопасности. Несмотря на то что OpenAI полностью осознает, что одна из основных функций ChatGPT — поддержка здоровья и благополучия пользователей (напомним, по их данным, 230 миллионов обращений в неделю), утверждение, что продукт не предназначен в качестве медицинского изделия, столь важно для регуляторов. «Заявленное производителем назначение — ключевой фактор в медицинской классификации продукта», отмечает Герк, то есть компании, заявляющие, что их инструмент не предназначен для медицинских целей, в значительной степени избегают регулирования даже при фактическом медицинском использовании. Это лишь подчеркивает сложности регулирования новых технологий, вроде чат-ботов, в здравоохранении.

По крайней мере пока такое предупреждение позволяет ChatGPT Health оставаться вне зоны контроля таких регуляторов, как FDA, однако ван Кольфсхоотен считает вполне логичным вопрос — не следовало бы такие инструменты действительно квалифицировать как медицинские изделия и регулировать соответствующим образом. Она отмечает, что важно обращать внимание не только на заявления компаний, но и на то, как реально используется продукт. При анонсе OpenAI рекомендовала использовать ChatGPT Health для интерпретации анализов, отслеживания состояния здоровья или принятия решений о лечении. Если продукт делает это, можно обоснованно утверждать, что под американское определение «медицинского изделия» он может подпадать. Возможно, именно более жесткое регулирование в Европе объясняет, почему этот инструмент пока там не доступен.

Хотя OpenAI настаивает, что ChatGPT не предназначен для постановки диагнозов и лечения, компания приложила немало усилий, чтобы доказать: ChatGPT вполне способен решать медицинские задачи, и призывает использовать его для вопросов, связанных со здоровьем. При запуске GPT-5 роль медицины особо анонсировалась, и CEO Сэм Альтман даже пригласил на сцену пациентку с онкологией и ее мужа, чтобы они рассказали, как продукт помог им разобраться в диагнозе. Компания утверждает, что оценивает квалификацию ChatGPT в медицине с помощью созданного совместно с более чем 260 врачами собственного бенчмарка HealthBench, который «проверяет, насколько хорошо AI функционирует в реальных медицинских ситуациях», хотя критики отмечают недостаток прозрачности. Другие исследования — как правило, небольшие, ограниченные или проведённые самой компанией — также свидетельствуют о потенциале ChatGPT в медицине: в некоторых случаях он может сдавать медицинские экзамены, лучше общаться с пациентами и даже превосходить врачей в диагностике, а также помогать докторам снижать число ошибок при совместном использовании.

Стремление OpenAI представить ChatGPT Health как авторитетный источник медицинской информации может также подорвать любые отказные заявления о недопустимости его использования в медицинских целях, замечает ван Кольфсхоотен. «Когда система кажется персонализированной и внушает авторитет, медицинские дисклеймеры вряд ли поколеблют доверие пользователя».

Компании вроде OpenAI и Anthropic рассчитывают на это доверие в борьбе за лидерство в области, которую они считают следующим крупным рынком для искусственного интеллекта. Уже сейчас данные об использовании AI-чат-ботов для здоровья свидетельствуют, что они, возможно, на верном пути. Учитывая серьезные неравенства и ограничения с доступом даже к базовой медицинской помощи, это могло бы быть позитивным изменением — если доверие оказывается оправданным. Мы доверяем свои данные врачам, потому что медицинская профессия это доверие заслужила. Сможет ли сохранить его индустрия, известная своей поспешностью и склонностью к риску, пока не ясно.

Источник: The Verge

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

4 комментария к “ChatGPT Health: риск для вашей приватности и вашего здоровья

  1. В наше время творятся вещи намного более страшные. Например, когда студентов ВУЗа заставляют заполнять анкеты о репродуктивном здоровье и интимной жизни, не давая вообще никаких обещаний анонимности :((

  2. Уже сейчас данные об использовании AI-чат-ботов для здоровья свидетельствуют, что они, возможно, на верном пути. Хорошая тема даже приходится призадуматься.

  3. Как человек, интересующийся технологиями, я признаю потенциал языковых моделей в медицине. Они могут стать полезными инструментами для повышения осведомлённости о здоровье и оказания первой помощи в экстренных ситуациях. Однако я также осознаю риски: легко ошибиться, приняв рекомендацию ИИ за истину в последней инстанции; данные о здоровье — крайне чувствительная информация, которая требует высокого уровня защиты. Я считаю, что ChatGPT Health и аналогичные сервисы могут быть полезными, но только в качестве дополнения к традиционному медицинскому обслуживанию, а не его замены.

  4. Разные сервисы по-разному хранят и анализируют информацию. Некоторые используют её для обучения моделей, другие — удаляют после сессии. Всегда проверяйте политику конфиденциальности перед использованием.

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять