Дональд Трамп потребовал от федеральных агентств отказаться от ИИ Anthropic

В пятницу днём Дональд Трамп опубликовал пост в Truth Social, обвинив Anthropic — ИИ-компанию, стоящую за Claude, — в попытке «ВЫКРУЧИВАТЬ РУКИ» Пентагону и распорядившись, чтобы федеральные ведомства «НЕМЕДЛЕННО ПРЕКРАТИЛИ» использование её продуктов. Поводом стал отказ генерального директора Anthropic Дарио Амодея принять обновлённое соглашение с вооружёнными силами США, предусматривающее согласие на «любое законное использование» технологий Anthropic, как того потребовал министр обороны Пит Хегсет в январской служебной записке, к разочарованию многих работников техсферы по всей отрасли.

Смотрите видео на удобном для вас ресурсе!

Это соглашение дало бы вооружённым силам США доступ к услугам компании для массовой внутренней слежки и смертоносного автономного оружия — то есть ИИ, который имеет полномочия отслеживать и убивать цели без участия человека в процессе принятия решений. Сообщается, что OpenAI и xAI уже согласились на новые условия, хотя, по сообщениям, OpenAI пытается вести переговоры с Пентагоном, чтобы закрепить те же «красные линии», что и у Anthropic.

В течение нескольких недель Anthropic и Пентагон находились в тупике по вопросу допустимого использования ИИ-технологий Anthropic. Однако переговоры с Anthropic застопорились после драматичного обмена публичными заявлениями и постами в соцсетях.

В заявлении в четверг Амодей написал, что «угрозы» Пентагона «не меняют нашу позицию: мы не можем с чистой совестью согласиться на их просьбу». Он добавил, что Anthropic «никогда не выдвигала возражений против конкретных военных операций и не пыталась ограничивать использование нашей технологии ситуативно», но что «в узком наборе случаев мы считаем, что ИИ может подрывать, а не защищать демократические ценности».

Далее Амодей сказал, что «если департамент решит отказаться от Anthropic, мы будем работать над тем, чтобы обеспечить плавный переход к другому поставщику, избегая любых сбоев в текущем военном планировании, операциях или иных критически важных миссиях. Наши модели будут доступны на широких условиях, которые мы предложили, столько, сколько потребуется».

Пост Трампа:

СОЕДИНЁННЫЕ ШТАТЫ АМЕРИКИ НИКОГДА НЕ ПОЗВОЛЯТ РАДИКАЛЬНО ЛЕВОЙ, WOKE-КОМПАНИИ ДИКТОВАТЬ, КАК НАШЕ ВЕЛИКОЕ ВОЕННОЕ ВЕДОМСТВО ВОЮЕТ И ВЫИГРЫВАЕТ ВОЙНЫ! Это решение принадлежит ВАШЕМУ ГЛАВНОКОМАНДУЮЩЕМУ и выдающимся руководителям, которых я назначаю управлять нашими Вооружёнными силами.

Леворадикальные психи из Anthropic совершили КАТАСТРОФИЧЕСКУЮ ОШИБКУ, пытаясь ВЫКРУТИТЬ РУКИ Департаменту войны и заставить его подчиняться их Условиям обслуживания вместо нашей Конституции. Их эгоизм подвергает риску АМЕРИКАНСКИЕ ЖИЗНИ, ставит наши Войска в опасность и ставит под УГРОЗУ нашу Национальную безопасность.

Поэтому я поручаю КАЖДОМУ федеральному ведомству в Правительстве Соединённых Штатов НЕМЕДЛЕННО ПРЕКРАТИТЬ любое использование технологий Anthropic. Они нам не нужны, мы их не хотим и больше не будем с ними иметь дела! Для ведомств вроде Департамента войны, которые используют продукты Anthropic на разных уровнях, будет шестимесячный период поэтапного отказа. Anthropic лучше бы взялась за ум и была полезной в течение этого периода поэтапного отказа, иначе я использую всю мощь президентской власти, чтобы заставить их подчиниться, с серьёзными гражданско-правовыми и уголовными последствиями.

МЫ будем решать судьбу нашей Страны — НЕ какая-то вышедшая из-под контроля радикально левая ИИ-компания, которой управляют люди, не имеющие ни малейшего понятия о том, что такое реальный Мир. Благодарю за внимание к этому вопросу. СДЕЛАЕМ АМЕРИКУ ВЕЛИКОЙ СНОВА!

Источник: The Verge

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

7 комментариев к “Дональд Трамп потребовал от федеральных агентств отказаться от ИИ Anthropic

  1. С одной стороны, требование отказаться от ИИ может показаться шагом назад в технологическом развитии. В современном мире ИИ способен значительно повысить эффективность работы государственных органов: ускорить обработку данных, оптимизировать процессы и даже помочь в принятии решений. С другой стороны, опасения относительно безопасности и контроля над такими технологиями вполне обоснованы. ИИ — инструмент мощный, но требующий ответственного подхода к применению. Возможно, Трамп видит в использовании Anthropic определённые риски, связанные с конфиденциальностью данных или контролем над алгоритмами. Также стоит учесть политический контекст. Решения президента могут быть обусловлены не только техническими, но и политическими соображениями. Интересно будет проследить, как это требование отразится на отношениях между государственными органами и технологическими компаниями.

  2. В целом, это турбулентный момент в политике США в отношении искусственного интеллекта — администрация делает акцент на контроле за безопасностью и военными приложениями, что приводит к серьезным ограничениям для одного из крупнейших разработчиков ИИ в США.

  3. То часть более широкой дебаты о том, как государство должно взаимодействовать с быстро развивающимися технологиями. Важно, чтобы любые решения принимались на основе тщательного анализа рисков и преимуществ, а также с учётом интересов национальной безопасности и инновационного развития.

  4. Это очень сложная с этической точки зрения тема. Но мне кажется, в этом случае Трамп принял правильное решение. От тотальной слежки никому не будет хорошо. Ни гражданам, каждый шаг которых будет контролироваться, ни правительству, которое будет терять доверие людей. Что касается опасных преступников и заговорщиков, по-моему они сами себя обрекают на провал — невозможно одержать долгосрочную победу, причиняя зло людям.

  5. Он выразил озабоченность тем, что технологии этой компании могут представлять угрозу национальной безопасности или использоваться в целях, противоречащих интересам государства. В ответ на это некоторые эксперты указывают, что такие меры могут задержать развитие ИИ в США и усложнить конкуренцию с зарубежными компаниями, которые продолжают интегрировать похожие технологии в государственные и коммерческие структуры.

  6. Интересная ситуация: компания пытается ограничить использование своего ИИ из-за этических рисков, а государство требует полный контроль и в итоге просто отказывается от технологии. Похоже, борьба за правила применения ИИ только начинается — и конфликт между безопасностью, этикой и интересами государства будет всё чаще.

  7. Некоторые крупные технологические объединения выразили обеспокоенность тем, что подобные санкции могут нарушить нормальные промышленные процессы и негативно отразиться на инновациях.

Обсуждение закрыто.

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности