ИИ от OpenAI интегрирован в систему безопасности ядерного оружия США после исторического соглашения

ИИ от OpenAI интегрирован в систему безопасности ядерного оружия США после исторического соглашения

Компания OpenAI подписала соглашение с правительством США об использовании своих новейших моделей ИИ в национальных научно-исследовательских лабораториях и для обеспечения безопасности ядерного оружия. До 15 000 государственных исследователей получат доступ к новейшей серии o1 от OpenAI в таких стратегических центрах, как Лос-Аламосская национальная лаборатория (известная созданием первых трех атомных бомб).

Несмотря на риск ошибок и частые галлюцинации, правительство США часто использует инструменты ИИ. В 2024 году OpenAI заявила, что более 90 000 государственных служащих сгенерировали более 18 миллионов запросов на ChatGPT. Среди запросов — перевод официальных документов, написание аналитических записок и программирование приложений.

Новое партнерство OpenAI следует за рядом мер, принятых Сэмом Альтманом, генеральным директором компании, после инаугурации Дональда Трампа. Альтман, похоже, активизировал свои усилия по сближению с новым президентом. Например, он пожертвовал миллион долларов на его инаугурацию и присутствовал на мероприятии вместе с другими известными представителями технологического сектора.

Он также открыто выразил свое восхищение новым президентом, сказав, что его мнение о нем изменилось и что он будет «невероятно полезен для страны во многих отношениях». OpenAI является частью правительственного инвестиционного проекта Stargate, в рамках которого выделяется 500 миллиардов долларов на развитие инфраструктуры искусственного интеллекта.

Альтман объявил о новой сделке на корпоративном мероприятии Building to Win: AI Economics, прошедшем недавно в Вашингтоне. Как сообщается, его цель — стимулировать государственные научные исследования с использованием ИИ. «Делиться нашими технологиями с ведущими учеными страны — это часть нашей миссии, направленной на то, чтобы ИИ приносил пользу человечеству, и мы считаем, что правительство США является важнейшим партнером в достижении этой цели», — говорится в заявлении компании.

Развертывание серии o1 для 15 000 ученых

По словам OpenAI, новое соглашение позволит правительственным исследователям использовать лучшие в своем классе модели ИИ для повышения кибербезопасности энергосистемы США, определения новых подходов к профилактике и лечению заболеваний, улучшения понимания фундаментальной физики и многого другого.

«Сотрудничество OpenAI с национальными лабораториями США опирается на давнюю традицию американского правительства работать с частным сектором, чтобы технологические инновации приводили к улучшениям в здравоохранении, энергетике и других критически важных областях», — заявили официальные лица.

Соглашение предоставит около 15 000 государственных ученых доступ к моделям OpenAI серии o1. В рамках сотрудничества с Microsoft планируется развернуть одну из моделей в Venado, суперкомпьютере Лос-Аламосской национальной лаборатории, одного из крупнейших в мире многопрофильных институтов.

Venado предназначен для ускорения прогресса в материаловедении, возобновляемых источниках энергии, астрофизике, оружейных технологиях и многом другом. Ранее OpenAI уже сотрудничала с Лос-Аламосской национальной лабораторией для оценки рисков, которые могут представлять собой передовые модели ИИ при создании биологического оружия.

Проект также будет включать программу, специально посвященную ядерной безопасности. «Этот вариант использования очень важен, и мы считаем необходимым, чтобы OpenAI поддерживал его в рамках наших обязательств по обеспечению национальной безопасности», — говорят в компании. В этой части проекта будут задействованы некоторые исследователи OpenAI, имеющие допуск к безопасности ИИ.

Ранее на этой неделе OpenAI также запустила ChatGPT Gov, платформу ИИ, разработанную специально для правительства. Она позволит правительственным агентствам снабжать модели ИИ конфиденциальными и секретными данными. Модели будут работать в их системах безопасного хостинга.

Риск разглашения секретных ядерных секретов?

Это сотрудничество вызывает опасения, учитывая деликатность областей, в которых будет применяться ИИ. В настоящее время даже самые мощные модели ИИ не застрахованы от ошибок и галлюцинаций. Некоторые из моделей OpenAI также известны утечкой конфиденциальных пользовательских данных. Возможно, модели, развернутые в правительстве, рискуют раскрыть конфиденциальную информацию, например, данные, связанные с ядерными кодами?

Кроме того, администрация Трампа планирует отменить правила безопасности, касающиеся ИИ. Наблюдатели опасаются, что в ответ на это произойдет повсеместное распространение предвзятых (или даже вредных) инструментов ИИ. Время для массового развертывания ИИ в чувствительных стратегических секторах, в том числе связанных с ядерным оружием, кажется неподходящим.

Тем не менее, «поскольку передовой ИИ продолжает менять глобальную геополитику, это партнерство дает OpenAI ключевую возможность помочь направить эту трансформацию», — говорят представители компании. «Мы ожидаем, что это сотрудничество приведет к более широкому сотрудничеству в области безопасности по целому ряду химических, биологических, радиологических и ядерных рисков», — заключают они.

Что касается риска разглашения кодов ядерной атаки, то следует отметить, что они подлежат самым строгим протоколам безопасности в мире, с разделенными системами и дублирующим человеческим контролем для предотвращения любой компрометации.

Даже если ИИ OpenAI (или других компаний) будет интегрирован в секретные исследования, доступ к этим кодам будет чрезвычайно конфиденциален, что намного превышает текущие возможности любой модели ИИ. Технически коды запуска хранятся в сверхсекретных инфраструктурах, часто в автономном режиме, защищенных строгой архитектурой разделения. Для доступа к ним требуются многоуровневые процедуры аутентификации, включающие такие протоколы, как двойное подтверждение отдельными сотрудниками и физические устройства, которые не могут быть сопряжены с внешними системами.

Кроме того, для связи, связанной с выдачей разрешений на запуск, используются зашифрованные сети передачи данных, изолированные от любых цифровых соединений, доступных коммерческим ИИ. Это означает, что даже в экстремальном сценарии, когда ИИ интегрирован в управление стратегическими системами, он не сможет технически считывать или генерировать коды оружия без серьезного нарушения существующих процедур безопасности.

Однако растущая автоматизация оборонных систем и использование ИИ для анализа стратегических сценариев поднимает вопрос о косвенных уязвимостях: может ли ИИ в результате ошибок или манипуляций выработать рекомендации, которые поставят под угрозу ядерную безопасность?

Если бы ИИ участвовал, например, в военном планировании или моделировании ответных мер на нападение, недостатки или изменения в обучающих данных могли бы исказить его рассуждения и повлиять на принятие критически важных решений. В то время как кибератаки становятся все более изощренными, а социальная инженерия может обойти даже самые надежные системы, внедрение ИИ в эти сверхчувствительные среды может только подогреть опасения.

Источник: Новая Наука

Интересно? Поделиться:

Один комментарий к “ИИ от OpenAI интегрирован в систему безопасности ядерного оружия США после исторического соглашения

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *