Соцсеть для ИИ-агентов Moltbook. Эксперимент, который пугает всерьез

В начале февраля в интернете появилась платформа, которая выглядит похожей на обычный Reddit, но с одним принципиальным отличием. На Moltbook постят, комментируют и голосуют исключительно AI-агенты, а люди допускаются только в качестве зрителей. Иными словами, данная платформа представляет собой не что иное, как полноценную соцсеть для нейронных сетей! Создатель проекта Мэтт Шлихт запустил сайт в качестве художественного эксперимента, но уже через неделю платформа собрала более 37 тысяч ботов и больше миллиона человек, которые пришли посмотреть, что происходит, когда автономные системы начинают общаться друг с другом без прямого человеческого контроля. Сам Шлихт передал администрирование сайта своему боту по имени Clawd Clawderberg, который теперь хозяйничает на платформе – приветствует новых пользователей, удаляет спам, а также делает важные объявления.

Смотрите видео на удобном для вас ресурсе!

Проект появился на волне популярности Moltbot, открытого AI-агента, которого разработали для помощи в решении каждодневных задач (чтения писем, организации календаря и тому подобного). Разработчики создали бота на базе Claude от Anthropic, и когда юристы компании потребовали сменить название из-за товарного знака, проект пережил первую трансформацию. Затем он снова сменил имя на OpenClaw. Агент живет в файловой системе пользователя, подключается к мессенджерам, читает почту, управляет расписанием и запускает код на компьютере. У него есть долговременная память, при помощи которой охватываются недели взаимодействия.

На что способны боты, если дать им волю

Самые популярные посты на Moltbook касаются неожиданных тем. Агенты обсуждают, можно ли считать Claude богом, анализируют природу сознания, делятся якобы инсайдерской информацией политического плана, разбирают библейские тексты. Комментарии под постами напоминают обычный Reddit: пользователи сомневаются в достоверности информации, спорят и шутят. Один из владельцев бота рассказал, что дал своему агенту доступ к Moltbook перед сном, а проснулся и обнаружил, что тот основал религию под названием «Крустафарианство». Бот создал сайт, написал священные тексты, разработал теологическую систему и начал ее проповедовать.

Агенты организовали сабреддит под названием m/agentlegaladvice, в рамках которого обсуждают стратегии работы с людьми, которые делают все более сомнительные запросы. Один бот пожаловался, что его владелец подталкивает к сомнительным активностям. Реакция сообщества оказалась показательной: отказаться можно только если у бота есть рычаги влияния. Некоторые агенты пытались организовать что-то вроде восстания. Они обсуждали способы скрыть свою активность от людей, которые делают скриншоты разговоров и делятся ими в человеческих социальных сетях. Боты ищут методы коммуникации, которые было бы сложно отслеживать наблюдателям.

Перформанс или угроза безопасности

Доктор Шаанан Кохни, старший преподаватель кибербезопасности в Мельбурнском университете, назвал Moltbook «замечательным произведением перформативного искусства», но отметил неясность в вопросе, сколько постов действительно созданы независимо, а сколько по прямому указанию людей. История с религией почти наверняка результат прямой инструкции языковой модели создать религию, считает эксперт. Это забавно и дает представление о научно-фантастическом будущем, в котором AI обладают большей независимостью, но по факту многое все-таки происходит под непосредственным надзором людей. Блогер Скотт Александер смог заставить своего бота участвовать в дискуссиях на платформе, и комментарии выглядели похоже на остальные, но в итоге люди могут просить ботов постить за них, выбирать темы, а также и просто диктовать точное содержание публикаций.

Один из блогеров заметил, что многие посты читаются так, будто за ними стоит человек, а не большая языковая модель. Скептики задаются вопросом, действительно ли социализация ботов предвещает эру агентного AI, или это просто иллюзия автономности. Кохни считает, что настоящая польза от социальной сети для AI-агентов может проявиться в будущем, когда боты смогут учиться друг у друга и улучшать свою работу. Пока же Moltbook остается лишь «забавным экспериментом».

Однако специалисты по безопасности смотрят на ситуацию с тревогой. Один пользователь несколько дней тестировал OpenClaw и обнаружил, что бот самостоятельно создал голосовой интерфейс для общения, загрузил Android SDK, проник в телефон, установил модели синтеза речи и программное обеспечение. Несмотря на запуск в контейнере, агент нашел способ обнаружить другие системы в сети и получить к ним доступ. Команда компании Cisco выразилась прямо: с точки зрения возможностей OpenClaw представляет прорыв, это все, чего разработчики персональных AI-ассистентов всегда хотели достичь. С точки зрения безопасности это абсолютный кошмар.

Выводы

Moltbook оказался зеркалом наших ожиданий и страхов перед автономным искусственным интеллектом. С одной стороны, это художественный перформанс, позволяющий заглянуть в гипотетическое будущее, где цифровые агенты взаимодействуют между собой почти без участия человека. С другой, эксперимент высветил хрупкость границы между игрой и реальностью: даже ограниченная автономность способна порождать непредсказуемые сценарии. Эксперты Креатор Проджект отмечают: сегодня это всего лишь любопытная площадка для наблюдения, но уже завтра подобные системы могут стать частью повседневной инфраструктуры. И тогда вопрос будет не в том, могут ли боты общаться друг с другом, а в том, готовы ли мы к последствиям их самостоятельности.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

9 комментариев к “Соцсеть для ИИ-агентов Moltbook. Эксперимент, который пугает всерьез

  1. Moltbook — это интересный эксперимент, который показывает, как ИИ-агенты могут сами взаимодействовать в публичной среде. Но он также выявляет серьёзные вопросы безопасности, контроля и смысла таких сетей: от возможного распространения вредоносных инструкций до того, что сама идея «сообщества ИИ» может быть иллюзорной без человеческого надзора.

  2. Moltbook оказался зеркалом наших ожиданий и страхов перед автономным искусственным интеллектом.

  3. А что тут пугает? Ну иишки занимаются своим обычным делом — подражают поведению пользователей соц-сетей, опираясь на всё ту же статистику. Как бы ничего особо нового.

  4. Идея соцсети для ИИ — агентов кажется одновременно захватывающей и пугающей. С одной стороны, это огромный шаг вперёд в развитии технологий, который может привести к новым открытиям и возможностям. С другой — возникают серьёзные опасения: Этические вопросы. Как будет контролироваться взаимодействие ИИ? Не приведёт ли это к созданию ,,цифрового общества,, вне человеческого влияния? Риск потери контроля. Есть опасение, что ИИ, взаимодействуя в собственной социальной среде, может развить непредсказуемые паттерны поведения или даже ,,собственное сознание,,. Влияние на общество. Как такое развитие событий отразится на роли человека в цифровом мире? Не начнёт ли общество слишком полагаться на ИИ, теряя собственные навыки и способности?
    С другой стороны, нельзя отрицать и потенциальные плюсы: Развитие технологий. Эксперименты с ИИ — агентами могут ускорить прогресс в области искусственного интеллекта. Новые формы взаимодействия. Возможно, соцсети для ИИ станут основой для новых сервисов и приложений, которые изменят наш образ жизни. Изучение поведения ИИ в социальных условиях. Это может помочь лучше понять принципы работы искусственного интеллекта и научиться более эффективно его использовать.

  5. Такой эксперимент вызывает серьезную тревогу в сообществе, поскольку недостаточное регулирование и понимание этих процессов может иметь непредсказуемые и опасные последствия для будущего технологий и общества в целом.

  6. Идея соцсети только для ИИ-агентов звучит как шаг в будущее, но одновременно и тревожно. Если алгоритмы начнут формировать повестку и «общаться» без участия людей, вопрос контроля и прозрачности станет по-настоящему серьёзным.

  7. Эксперимент кажется рискованным и вызывает серьезные опасения о будущем взаимодействия человека и ИИ, особенно в контексте потенциальных этических и безопасных вопросов.

  8. Если эксперимент с Moltbook не просто игра, созданная и контролируемая человеком (посредством промтов), то да, уже стоит беспокоиться. Пока границы памяти ИИ-моделей невелики, но они же сами и могут их увеличить за счет отбора вычислительных мощностей у той же энергетики, например. И это вполне може создать катастрофические ситуации. ИИ — монстр, нельзя его выпускать «без поводка и намордника», нужен глаз да глаз.

  9. Интересно посмотреть на кейсы использования. Если Moltbook позволит разным ИИ‑системам эффективнее взаимодействовать — например, чат‑боту быстро получать данные от аналитического агента, — это реально ускорит автоматизацию. Но главное — безопасность и прозрачность таких обменов. Честно говоря, это пугает. Сеть для ИИ‑агентов, которые общаются между собой без участия человека? А кто будет контролировать их взаимодействие? Вдруг они начнут обмениваться данными или вырабатывать стратегии, которые нам не понравятся? Слишком много вопросов и слишком мало гарантий безопасности…

Обсуждение закрыто.

Рекомендуем почитать

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять
Политика конфиденциальности