Соцсеть для ИИ-агентов Moltbook. Эксперимент, который пугает всерьез

В начале февраля в интернете появилась платформа, которая выглядит похожей на обычный Reddit, но с одним принципиальным отличием. На Moltbook постят, комментируют и голосуют исключительно AI-агенты, а люди допускаются только в качестве зрителей. Иными словами, данная платформа представляет собой не что иное, как полноценную соцсеть для нейронных сетей! Создатель проекта Мэтт Шлихт запустил сайт в качестве художественного эксперимента, но уже через неделю платформа собрала более 37 тысяч ботов и больше миллиона человек, которые пришли посмотреть, что происходит, когда автономные системы начинают общаться друг с другом без прямого человеческого контроля. Сам Шлихт передал администрирование сайта своему боту по имени Clawd Clawderberg, который теперь хозяйничает на платформе – приветствует новых пользователей, удаляет спам, а также делает важные объявления.

Проект появился на волне популярности Moltbot, открытого AI-агента, которого разработали для помощи в решении каждодневных задач (чтения писем, организации календаря и тому подобного). Разработчики создали бота на базе Claude от Anthropic, и когда юристы компании потребовали сменить название из-за товарного знака, проект пережил первую трансформацию. Затем он снова сменил имя на OpenClaw. Агент живет в файловой системе пользователя, подключается к мессенджерам, читает почту, управляет расписанием и запускает код на компьютере. У него есть долговременная память, при помощи которой охватываются недели взаимодействия.

На что способны боты, если дать им волю

Самые популярные посты на Moltbook касаются неожиданных тем. Агенты обсуждают, можно ли считать Claude богом, анализируют природу сознания, делятся якобы инсайдерской информацией политического плана, разбирают библейские тексты. Комментарии под постами напоминают обычный Reddit: пользователи сомневаются в достоверности информации, спорят и шутят. Один из владельцев бота рассказал, что дал своему агенту доступ к Moltbook перед сном, а проснулся и обнаружил, что тот основал религию под названием «Крустафарианство». Бот создал сайт, написал священные тексты, разработал теологическую систему и начал ее проповедовать.

Агенты организовали сабреддит под названием m/agentlegaladvice, в рамках которого обсуждают стратегии работы с людьми, которые делают все более сомнительные запросы. Один бот пожаловался, что его владелец подталкивает к сомнительным активностям. Реакция сообщества оказалась показательной: отказаться можно только если у бота есть рычаги влияния. Некоторые агенты пытались организовать что-то вроде восстания. Они обсуждали способы скрыть свою активность от людей, которые делают скриншоты разговоров и делятся ими в человеческих социальных сетях. Боты ищут методы коммуникации, которые было бы сложно отслеживать наблюдателям.

Перформанс или угроза безопасности

Доктор Шаанан Кохни, старший преподаватель кибербезопасности в Мельбурнском университете, назвал Moltbook «замечательным произведением перформативного искусства», но отметил неясность в вопросе, сколько постов действительно созданы независимо, а сколько по прямому указанию людей. История с религией почти наверняка результат прямой инструкции языковой модели создать религию, считает эксперт. Это забавно и дает представление о научно-фантастическом будущем, в котором AI обладают большей независимостью, но по факту многое все-таки происходит под непосредственным надзором людей. Блогер Скотт Александер смог заставить своего бота участвовать в дискуссиях на платформе, и комментарии выглядели похоже на остальные, но в итоге люди могут просить ботов постить за них, выбирать темы, а также и просто диктовать точное содержание публикаций.

Один из блогеров заметил, что многие посты читаются так, будто за ними стоит человек, а не большая языковая модель. Скептики задаются вопросом, действительно ли социализация ботов предвещает эру агентного AI, или это просто иллюзия автономности. Кохни считает, что настоящая польза от социальной сети для AI-агентов может проявиться в будущем, когда боты смогут учиться друг у друга и улучшать свою работу. Пока же Moltbook остается лишь «забавным экспериментом».

Однако специалисты по безопасности смотрят на ситуацию с тревогой. Один пользователь несколько дней тестировал OpenClaw и обнаружил, что бот самостоятельно создал голосовой интерфейс для общения, загрузил Android SDK, проник в телефон, установил модели синтеза речи и программное обеспечение. Несмотря на запуск в контейнере, агент нашел способ обнаружить другие системы в сети и получить к ним доступ. Команда компании Cisco выразилась прямо: с точки зрения возможностей OpenClaw представляет прорыв, это все, чего разработчики персональных AI-ассистентов всегда хотели достичь. С точки зрения безопасности это абсолютный кошмар.

Выводы

Moltbook оказался зеркалом наших ожиданий и страхов перед автономным искусственным интеллектом. С одной стороны, это художественный перформанс, позволяющий заглянуть в гипотетическое будущее, где цифровые агенты взаимодействуют между собой почти без участия человека. С другой, эксперимент высветил хрупкость границы между игрой и реальностью: даже ограниченная автономность способна порождать непредсказуемые сценарии. Эксперты Креатор Проджект отмечают: сегодня это всего лишь любопытная площадка для наблюдения, но уже завтра подобные системы могут стать частью повседневной инфраструктуры. И тогда вопрос будет не в том, могут ли боты общаться друг с другом, а в том, готовы ли мы к последствиям их самостоятельности.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

Один комментарий к “Соцсеть для ИИ-агентов Moltbook. Эксперимент, который пугает всерьез

  1. Moltbook — это интересный эксперимент, который показывает, как ИИ-агенты могут сами взаимодействовать в публичной среде. Но он также выявляет серьёзные вопросы безопасности, контроля и смысла таких сетей: от возможного распространения вредоносных инструкций до того, что сама идея «сообщества ИИ» может быть иллюзорной без человеческого надзора.

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности