Пентагон пригрозил Anthropic: откройте ИИ для неограниченного военного применения — или лишитесь контракта

Министр обороны США Пит Хегсет на встрече во вторник поставил генеральному директору Anthropic дедлайн до пятницы: открыть технологии искусственного интеллекта компании для неограниченного военного использования — иначе Anthropic рискует лишиться государственного контракта, сообщил человек, знакомый с ходом беседы.

Смотрите видео на удобном для вас ресурсе!

Anthropic разрабатывает чат-бот Claude и остаётся последней из компаний своего круга, которая пока не предоставила технологию для новой внутренней сети Пентагона. Гендиректор Дарио Амодей неоднократно подчёркивал этические опасения по поводу неконтролируемого использования ИИ государством — включая риски полностью автономных вооружённых дронов и ИИ‑поддерживаемой массовой слежки, способной отслеживать и подавлять инакомыслие.

По словам источника, знакомого со встречей, и высокопоставленного представителя Пентагона, военные предупреждали, что могут признать Anthropic риском для цепочки поставок или задействовать Закон об оборонном производстве (Defense Production Act), чтобы фактически расширить полномочия армии на использование продуктов компании, даже если Anthropic не согласна с тем, как именно они будут применяться. Оба собеседника не были уполномочены комментировать публично и говорили на условиях анонимности.

Эта история, о которой ранее сообщал Axios, подчёркивает спор о роли ИИ в национальной безопасности и опасения относительно того, как технология может применяться в ситуациях с крайне высокими ставками — когда речь идёт о применении смертоносной силы, чувствительной информации или государственной слежке. Это также происходит на фоне обещаний Хегсета искоренить, как он выражается, «воук‑культуру» в вооружённых силах.

«Мощный ИИ, просматривая миллиарды разговоров миллионов людей, мог бы измерять общественные настроения, выявлять зарождающиеся очаги нелояльности и подавлять их, пока они не выросли», — писал Амодей в эссе в прошлом месяце.

Источник, знакомый со встречей, назвал её тон доброжелательным, но отметил, что Амодей не отступил по двум направлениям, которые он обозначил как «красные линии» Anthropic: полностью автономные операции по наведению/поражению целей и внутренняя слежка за гражданами США.

Пентагон возражает против этических ограничений Anthropic, поскольку военным операциям нужны инструменты без «встроенных лимитов», сказал высокопоставленный представитель ведомства. Он утверждал, что Пентагон отдаёт только законные приказы, и подчеркнул: ответственность за законность применения инструментов Anthropic должна лежать на военных.

Anthropic перестанет быть единственной ИИ‑компанией, допущенной к секретным военным сетям

Прошлым летом Пентагон объявил о заключении оборонных контрактов с четырьмя ИИ‑компаниями — Anthropic, Google, OpenAI и xAI Илона Маска. Каждый контракт — на сумму до 200 млн долларов.

Anthropic первой из ИИ‑компаний получила допуск к секретным военным сетям, где работает с партнёрами вроде Palantir. Компания xAI Маска, управляющая чат‑ботом Grok, заявляет, что Grok также готов к использованию в секретных средах, сообщил высокопоставленный представитель Пентагона.

Он отметил, что другие ИИ‑компании тоже «близки» к этому рубежу. SpaceX — компания Маска в сфере космических запусков, которая недавно объединилась с xAI, — не ответила на запрос о комментарии во вторник.

Хегсет заявил в январской речи в SpaceX в Южном Техасе, что не будет обращать внимания на модели ИИ, «которые не позволяют вам вести войны».

Он сказал, что его видение военных ИИ‑систем предполагает их работу «без идеологических ограничений, которые сдерживают законные военные применения», добавив: «ИИ Пентагона не будет “воук”».

Министр обороны заявил, что Grok присоединится к защищённой, но несекретной сети ИИ Пентагона GenAI.mil. Объявление прозвучало через несколько дней после того, как Grok — встроенный в X, соцсеть Маска — оказался под глобальным вниманием из‑за генерации крайне откровенных дипфейков людей без их согласия.

В начале февраля OpenAI также объявила о присоединении к GenAI.mil: военнослужащие смогут использовать кастомную версию ChatGPT для несекретных задач.

Anthropic позиционирует себя как компания, больше ориентированная на безопасность

В заявлении после встречи во вторник Anthropic сообщила, что «продолжила добросовестные обсуждения нашей политики использования, чтобы Anthropic могла и дальше поддерживать миссию правительства в сфере национальной безопасности — в рамках того, что наши модели способны надёжно и ответственно делать».

С момента основания в 2021 году — когда её основатели ушли из OpenAI — Anthropic последовательно продвигает образ наиболее ответственной и ориентированной на безопасность среди ведущих ИИ‑компаний.

Неопределённость в отношениях с Пентагоном ставит эти намерения на проверку, считает Оуэн Дэниелс, заместитель директора по анализу и научный сотрудник Центра безопасности и новых технологий Джорджтаунского университета.

«Конкуренты Anthropic, включая Meta*, Google и xAI, готовы выполнять политику ведомства, позволяющую использовать модели для любых законных применений, — сказал Дэниелс. — Поэтому переговорная позиция компании здесь ограничена, и она рискует потерять влияние в ведомственной гонке по внедрению ИИ».

На волне ажиотажа вокруг ИИ после выхода ChatGPT, Anthropic тесно сотрудничала с демократической администрацией президента Джо Байдена, добровольно соглашаясь на внешнюю (третьими сторонами) проверку своих систем ИИ для защиты от рисков для национальной безопасности.

Амодей предупреждал о потенциально катастрофических опасностях ИИ, при этом отвергая ярлык «паникёра» (AI doomer). В январском эссе он утверждал, что «к реальной опасности в 2026 году мы значительно ближе, чем были в 2023‑м», но эти риски следует управляемо снижать «реалистично и прагматично».

Anthropic конфликтовала с администрацией Трампа

Это не первый раз, когда призывы Anthropic к более строгим мерам безопасности в ИИ приводят к разногласиям с администрацией президента Дональда Трампа. Компания публично уколола производителя чипов Nvidia, раскритиковав предложения Трампа ослабить экспортный контроль, чтобы часть компьютерных чипов для ИИ могла продаваться в Китай. При этом Anthropic остаётся близким партнёром Nvidia.

Республиканская администрация Трампа и Anthropic также оказывались по разные стороны лоббистской кампании по регулированию ИИ на уровне штатов.

Главный советник Трампа по ИИ Дэвид Сакс в октябре обвинил Anthropic в том, что она «ведёт изощрённую стратегию регуляторного захвата, основанную на нагнетании страха».

Сакс ответил так в X сооснователю Anthropic Джеку Кларку, который писал о попытке совместить технологический оптимизм с «уместным страхом» перед неуклонным продвижением к более способным ИИ‑системам.

Вскоре после возвращения Трампа в Белый дом Anthropic наняла ряд бывших чиновников администрации Байдена, но также пытается демонстрировать двухпартийный подход. Недавно компания включила в совет директоров Криса Лидделла — бывшего сотрудника Белого дома времён первого президентского срока Трампа.

«Стремительное» внедрение ИИ Пентагоном показывает необходимость усиления надзора или регулирования ИИ со стороны Конгресса, особенно если ИИ используется для слежки за американцами, заявил Амос То, старший юрист программы «Свободы и национальная безопасность» в Центре Бреннана при Нью‑Йоркском университете.

«Закон не поспевает за тем, как быстро развивается технология, — написал То в Bluesky. — Но это не означает, что у Минобороны США есть “карт‑бланш”.»

Источник: AP

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности