Технологические компании, стремящиеся продавать свои решения на базе искусственного интеллекта федеральному правительству, теперь сталкиваются с новым нормативным препятствием: им предстоит доказать, что их чат-боты не являются «woke» («пробужденными»).
Всеобъемлющий план Дональда Трампа по противодействию Китаю и закреплению «глобального доминирования» США в сфере искусственного интеллекта предусматривает сокращение числа регулирований и внедрение американских ценностей в ИИ-инструменты, которые все чаще используются как на работе, так и дома.
Однако один из трёх подписанных в среду указов об искусственном интеллекте — тот, что «предотвращает появление woke-ИИ в федеральном правительстве» — стал первым случаем, когда правительство США предприняло явную попытку формировать идеологическое поведение систем ИИ.
Несколько ведущих производителей языковых моделей ИИ, таких как Google Gemini и Microsoft Copilot, пока публично не прокомментировали антиwoke-директиву Трампа, которая еще должна пройти этап изучения, прежде чем станет официальным требованием при государственных закупках.
Хотя технологическая индустрия в целом положительно оценила более широкие инициативы Трампа в области ИИ, антиwoke-указ погружает отрасль в культурную войну — либо вынуждая занять позицию, либо стараться как можно меньше выделяться.
«Сейчас это окажет огромное влияние на отрасль», — считает адвокат по гражданским правам Алехандра Монтойя-Бойер, старший директор Центра гражданских прав и технологий организации The Leadership Conference, — «особенно учитывая, что компании уже идут на уступки в выполнении других инициатив администрации Трампа».
Этот шаг также вынуждает отрасль отказаться от многолетней работы по борьбе с широко распространёнными расовыми и гендерными предубеждениями, которые, по данным исследований и практике, «зашиты» в системы ИИ.
«Прежде всего, не существует никакого woke-ИИ», — отмечает Монтойя-Бойер. — «Есть ИИ, который дискриминирует, и есть технологии, которые работают для всех людей».
Формирование поведения языковых моделей ИИ усложняется особенностями их построения и изначальной случайностью выдаваемых ответов: они обучены на огромных массивах интернет-данных, которые отражают взгляды и предубеждения всех, кто когда-либо оставлял комментарии, редактировал Википедию или публиковал изображения онлайн.
«Комплаенс с этим требованием будет крайне затруднителен для IT-компаний», — считает бывший заместитель руководителя аппарата министра торговли США Джина Раймондо и архитектор ряда инициатив Байдена по ИИ Джим Секрето. — «Большие языковые модели отражают те данные, на которых они обучались, со всеми присущими человеческому языку противоречиями и предубеждениями».
Свою роль в их работе играют и сами сотрудники индустрии — от глобальной армии аннотаторов, проверяющих ответы, до инженеров Кремниевой долины, разрабатывающих инструкции для взаимодействия с пользователями.
Указ Трампа направлен против этих «сверху диктуемых» усилий со стороны технологических компаний по внедрению, по словам администрации, «разрушительной» идеологии разнообразия, равенства и инклюзии (DEI) в модели ИИ.
Директива вызвала сравнения с гораздо более жёсткими попытками Китая добиться, чтобы генеративные инструменты ИИ отражали базовые ценности правящей Коммунистической партии. По словам Секрето, указ похож на «китайский сценарий — использование государственного рычага для подавления неугодных взглядов».
Однако методы разнятся: Китай применяет прямое регулирование — тестирует, одобряет и контролирует ИИ-модели, обязывая их фильтровать запрещённый контент, к примеру, информацию о кровавом разгонe протестов на площади Тяньаньмэнь в 1989 году.
Указ Трампа не предполагает подобных фильтров, а возлагает на технологические компании обязательство продемонстрировать идеологическую нейтральность своих технологий, раскрыв некоторые внутренние политики, определяющие работу чат-ботов.
«Администрация Трампа идет по более мягкому, но всё же принудительному пути, используя государственные контракты как рычаг влияния», — пояснил Секрето. — «Это формирует мощное давление на компании, вынуждая их к самоцензуре, чтобы сохранить благосклонность государства и обеспечить финансовые потоки».
Призыв к созданию «ищущего истину» ИИ перекликается с риторикой Илона Маска, бывшего союзника и советника президента, который поставил аналогичную задачу перед своим чат-ботом Grok, разработанным компанией xAI.
Но станет ли Grok или его конкуренты фаворитами при новой политике, пока неясно.
Несмотря на «жёсткое по форме» вступление, излагающее претензии администрации Трампа к DEI, прямые предписания указа, по мнению Нила Чилсона, бывшего главного технолога Федеральной торговой комиссии, не должны стать серьёзным препятствием для компаний.
«Тут даже нет прямого запрета на какую-либо идеологическую повестку», — отмечает Чилсон, возглавляющий политику по ИИ в некоммерческом Abundance Institute. — «Всего лишь требуется раскрытие информации о намеренных способах воздействия на модель. По сути — мягкая мера».
Чилсон полагает, что сравнивать документ с грубой цензурой китайского образца некорректно.
«Нет ничего, что обязывало бы компании производить тот или иной контент или, наоборот, запрещало бы это», — поясняет он. — «Речь идет только о том, чтобы разработчики сознательно не закладывали в модели партийную повестку или идеологические суждения».
С учётом того, что ИИ-инструменты уже получили широкое распространение в государственных органах США, технологические компании реагируют осторожно. В четверг OpenAI заявила, что ожидает разъяснений, однако уже придерживается политики объективности при разработке ChatGPT, что соответствует директиве Трампа.
Microsoft, один из главных поставщиков облачных услуг для правительства, отказалась от комментариев.
В xAI Илонa Маска через пресс-секретаря Кэти Миллер (бывшую сотрудницу штаба Трампа) указали лишь на одобрительный отзыв Маска о заявлениях Трампа по ИИ, не комментируя непосредственно указ о госпоставках. Недавно xAI получила оборонный контракт США на сумму до 200 миллионов долларов — всего через несколько дней после того, как Grok опубликовал серию антисемитских комментариев, хвалящих Адольфа Гитлера.
Компания Anthropic, а также Google и Palantir отказались комментировать ситуацию или не ответили на запросы.
Идеи, лежащие в основе указа, обсуждались более года в подкастах и социальных сетях главного ИИ-советника Трампа Дэвида Сакса и других влиятельных венчурных капиталистов Кремниевой долины, многие из которых поддержали президентскую кампанию Трампа. Их возмущение вызвал, в частности, релиз ИИ-инструмента генерации изображений от Google (февраль 2024), который допускал исторически некорректное отображение фигур до устранения и исправления продукта.
Позднее Google объяснила, что ошибки — например, выдача изображений темнокожих, азиатских и коренных американских мужчин в ответ на запрос «основатели США» — представляли собой попытку компенсировать технологическую склонность отдавать приоритет светлокожим персонажам из-за системных предубеждений.
Союзники Трампа заявили, что инженеры Google сознательно внедряли свои социальные установки в продукт.
«Это полностью преднамеренно», — заявил известный венчурный инвестор и советник Трампа Марк Андриссен в декабрьском подкасте. — «Вот откуда в Google возникает темнокожий Джордж Вашингтон. В системе прописано, что буквально „каждый должен быть темнокожим“. В этих компаниях работают целые команды, которые разрабатывают эти политики и прописывают их в системах».
Сакс отметил, что одной из консультантов по указу стал консервативный стратег, выступающий против DEI в университетах и компаниях.
«Когда меня спросили, как определить woke, я сказал: есть только один человек — Крис Руфо. Теперь это норма: федеральное правительство не будет закупать woke-ИИ», — написал Сакс в соцсети X.
Руфо подтвердил, что его вклад заключался в «выявлении идеологий DEI в операционной логике этих систем».
Однако даже некоторые критики Байдена, усмотревшие в его политике в пользу DEI перегибы, предупреждают, что новый указ Трампа создаёт опасный прецедент вмешательства государства в идеологическую составляющую ИИ.
«Идея добиться идеологической нейтральности языковых моделей на практике неосуществима», — констатирует Райан Хаузер из исследовательского центра Mercatus, выступающего за свободный рынок. — «В итоге мы просто получаем новые лаборатории, которые будут подстраивать свою риторику под текущие политические требования».
Источник: AP
Такой подход может привести к ограничению разнообразия мнений и недопущению обсуждения актуальных социальных вопросов в чат-ботах, что, в свою очередь, может снижать качество диалога и информацию, которую эти системы предоставляют пользователям. Это также поднимает важные вопросы о том, как регулируются технологии и как они могут использоваться для усиления или борьбы с предвзятостью и неравенством что мне лично нравится.
Указ Трампа о запрете использования «woke» ИИ в государственных учреждениях отражает политическую реакцию на развитие технологий и их влияние на общественное мнение. Такой шаг может стимулировать технологические компании к усилению цензуры своих чат-ботов, чтобы соответствовать новым требованиям и избежать возможных санкций или ограничений. В результате это может привести к снижению открытости и разнообразия мнений в цифровом пространстве, а также к усилению контроля за информацией, что вызывает опасения относительно свободы слова и прозрачности. В целом, подобные меры могут иметь долгосрочные последствия для развития ИИ и его роли в обществе.
Такой подход может стимулировать технологические гиганты к усилению цензуры своих чат-ботов, чтобы избежать возможных последствий, что в свою очередь может ограничить свободу слова и снизить качество диалогов. Кроме того, это создаёт риск поляризации и усиления информационных барьеров, что негативно скажется на прозрачности и справедливости использования ИИ.
Думаю, в первую очередь Трамп нацелится на нейросеть Маска по известным причинам прошлых месяцев. Тем более, вместо борьбы с реальными предубеждениями мы получаем фарс. Невозможно стереть предвзятость, приказав алгоритму «думать по-американски».
Идея заключается в том, чтобы обеспечить нейтральность и объектность ИИ, исключая его использование для продвижения конкретных идеологических взглядов, что вызывает как поддержку, так и критику со стороны научного сообщества и технологической индустрии.
Запрет «woke» ИИ — часть глобальной дискуссии о том, как совместить технологический прогресс с общественными ценностями. Однако жесткие меры могут привести к обратному эффекту: вместо решения проблем предвзятости — к их маскировке. Как отмечает Мередит Уиттакер (соучредитель AI Now Institute), «ИИ всегда отражает ценности своих создателей. Вопрос в том, какие ценности мы хотим видеть в приоритете».
Интересный и тревожный поворот. Указ Трампа о запрете «woke» ИИ может вызвать волну самоцензуры среди технологических компаний, особенно тех, кто работает с государственным сектором. Вместо того чтобы сосредоточиться на объективности и этике, разработчики могут начать занижать сложные темы, лишь бы соответствовать политическому тренду. Это серьёзный вызов для независимости ИИ и свободы дискуссии.
Пробуждённый ИИ, несмотря на критику, вносит важный вклад в развитие свободы слова, предоставляя платформу для обсуждения ранее табуированных тем. Он позволяет озвучивать мнения тех людей, кого раньше часто не слушали.. Конечно, такая открытость несёт риски, включая возможность распространения радикальных или враждебных идей. Однако свобода слова всегда сопряжена с определёнными опасностями, особенно в цифровую эпоху. Главное — находить баланс между открытым выражением мнений и ответственным использованием технологии.