Децентрализованный ИИ: этичный путь к справедливой компенсации за данные

Искусственный интеллект

Когда будущие поколения будут оглядываться на эпоху становления технологий искусственного интеллекта, 2025 год может быть отмечен как важный поворотный момент, когда отрасль предприняла конкретные шаги к более широкой инклюзии и приняла децентрализованные модели, которые признают и справедливо вознаграждают каждого участника.

Рост ИИ уже вызвал трансформацию во многих отраслях, однако скорость внедрения привела и к озабоченности в области владения данными, конфиденциальности и нарушения авторских прав. Поскольку ИИ централизован, и самые мощные модели контролируются корпорациями, создатели контента в основном оказались в стороне.

OpenAI, самая известная компания в области ИИ, уже признала это. В январе 2024 года она сообщила Комитету по коммуникациям и цифровым технологиям Палаты лордов Великобритании, что не смогла бы создать свой знаковый чат-бот ChatGPT без обучения на материалах, защищенных авторскими правами.

OpenAI обучала ChatGPT на всем, что было выложено в открытом доступе в интернете до 2023 года, но люди, создавшие этот контент, большая часть которого защищена авторскими правами, не получили никакой компенсации; это стало основным камнем преткновения.

Существует возможность для децентрализованных проектов ИИ, таких как предлагаемый Альянсом ASI, предложить альтернативный путь развития моделей ИИ. Альянс разрабатывает структуру, которая дает создателям контента метод удержания контроля над их данными, а также механизмы справедливого вознаграждения, если они решат поделиться своими материалами с разработчиками моделей ИИ. Это более этичная основа для разработки ИИ, и 2025 год может стать годом, когда она получит больше внимания.

Проблема нарушения авторских прав в ИИ

OpenAI не единственная компания ИИ, которую обвинили в нарушении авторских прав. Большинство моделей ИИ, включая те, которые заявляют, что являются открытым исходным кодом, например, модель Llama 3, также основаны на сборе данных из интернет.

Разработчики ИИ регулярно пользуются любым контентом, который находят в интернете, игнорируя факт, что многие материалы защищены авторскими правами. Законы об авторском праве предназначены для защиты создателей оригинальных произведений, таких как книги, статьи, песни, программное обеспечение, произведения искусства и фотографии, от эксплуатации и делают несанкционированное использование таких материалов незаконным.

Компании, такие как OpenAI, Anthropic, StabilityAI, Perplexity AI, Cohere и AI21 Labs, обходят закон, ссылаясь на «добросовестное использование», неясный пункт в законе об авторском праве, который позволяет ограниченное использование защищенного контента без необходимости получения разрешения от создателя. Однако нет четкого определения того, что на самом деле составляет «добросовестное использование», и многие авторы утверждают, что ИИ угрожает их средствам к существованию.

Многие создатели контента прибегли к судебным искам, среди которых выделяется дело, поданное The New York Times против OpenAI. В исковом заявлении утверждается, что OpenAI нарушила авторское право, когда загрузила тысячи статей для обучения своих крупных языковых моделей. Медиакомпания заявляет, что такая практика незаконна, поскольку ChatGPT является конкурентным продуктом, имеющим целью ‘украсть аудиторию’ с сайта Times.

Судебный иск вызвал дебаты – должны ли компании в области ИИ иметь право продолжать использование любого контента в интернете, или их нужно обязать сперва спрашивать разрешение и компенсировать создателей обучающих данных?

Похоже, что консенсус сдвигается в сторону второго. Например, покойный бывший исследователь OpenAI Сучир Баладжи в интервью The Times сообщил, что ему было поручено вести сбор данных для обучения моделей ChatGPT. Он сказал, что его работа заключалась в том, чтобы собирать контент из всех возможных источников, включая пользовательские посты в социальных сетях, архивы пиратских книг и статьи за платным доступом. Он заявил, что весь контент был собран без получения разрешения.

Баладжи объяснил, что изначально верил аргументу OpenAI о том, что если информация размещена в интернете и доступна бесплатно, то её сбор считается добросовестным использованием. Однако позже он начал сомневаться в этой позиции, осознав, что продукты вроде ChatGPT могут нанести вред создателям контента. В конечном итоге, он заявил, что больше не может оправдывать практику сбора данных, и в результате покинул компанию летом 2024 года.

Растущая аргументация в пользу децентрализованного ИИ

Уход Баладжи из OpenAI, похоже, совпадает с осознанием среди компаний в области ИИ, что практика использования любого доступного контента в интернете неустойчива и что создателям контента нужна юридическая защита.

Это подтверждается рядом заключенных лицензий на контент, объявленных за последний год. OpenAI заключила сделки с рядом крупных издателей контента, включая Financial Times, NewsCorp, Conde Nast, Axel Springer, Associated Press и Reddit, который хостает миллионы страниц с пользовательским контентом на своих форумах. Другие разработчики ИИ, такие как Google и Microsoft, заключили подобные партнерства.

Но остается вопрос, будут ли эти соглашения достаточно удовлетворительными, особенно если компании в области ИИ генерируют миллиарды долларов дохода. Хотя условия лицензий на контент не были обнародованы, The Information утверждает, что они стоят несколько миллионов долларов в год в лучшем случае. Учитывая, что бывший главный ученый OpenAI Илья Сутсковер получал зарплату в размере $1,9 млн в 2016 году, предлагаемые издателям суммы могут быть недостаточны относительно реальной стоимости контента.

Также существует факт, что миллионы более мелких создателей контента — блогеры, влиятельные лица в социальных сетях и т.д. — продолжают оставаться исключенными из сделок.

Споры вокруг нарушения авторских прав ИИ, вероятно, будут продолжаться годами без особого разрешения, а юридическая неопределенность вокруг сбора данных, вместе с растущим признанием среди практиков, что такие методы неэтичны, помогают укрепить аргументацию в пользу децентрализованных моделей.

Децентрализованные модели ИИ предоставляют разработчикам более принципиальную модель обучения ИИ, в которой права создателей контента уважаются, и каждый участник может быть справедливо вознагражден.

В основе децентрализованного ИИ лежит блокчейн, который позволяет развивать, обучать, развертывать и управлять моделями ИИ через распределенные глобальные сети, принадлежащие всем. Это означает, что каждый может участвовать в создании систем ИИ, которые являются прозрачными, в отличие от централизованных, корпоративных моделей ИИ, которые часто описываются как «черные ящики».

Точно так же как аргументация вокруг нарушения авторских прав ИИ накаляется, децентрализованные ИИ проекты делают успехи; этот год обещает быть важным в переходе к более прозрачной и этичной разработке ИИ.

Децентрализованный ИИ в действии

В конце 2024 года три стартапа в области ИИ на основе блокчейна сформировали Альянс искусственного суперинтеллекта (ASI Alliance), организацию, работающую над созданием «децентрализованного суперинтеллекта» для поддержки продвинутых систем ИИ, которыми может пользоваться каждый.

Альянс ASI утверждает, что является крупнейшим независимым игроком в исследованиях и разработках ИИ с открытым исходным кодом. Он создан компанией SingularityNET, разработавшей децентрализованную сеть ИИ и слой вычислений; Fetch.ai, занимающейся созданием автономных агентов ИИ, способных выполнять сложные задачи без помощи человека; и Ocean Protocol, создателем прозрачной биржи для данных обучения ИИ.

Миссия Альянса ASI — предоставить альтернативу централизованным системам ИИ, подчеркивая открытые исходные коды и децентрализованные платформы, включающие данные и вычислительные ресурсы.

Для защиты создателей контента Альянс ASI разрабатывает структуру обмена на основе технологий Ocean Protocol, где каждый может внести данные, которые будут использоваться для обучения ИИ. Пользователи смогут загружать данные в систему на основе блокчейна и сохранять право собственности на них, зарабатывая вознаграждения каждый раз, когда они будут использоваться моделями ИИ или разработчиками. Другие смогут внести свой вклад, помогая маркировать и аннотировать данные, чтобы сделать их более доступными для моделей ИИ, и зарабатывать вознаграждения за выполнение этой работы. Таким образом, Альянс ASI продвигает более этичный способ для разработчиков получения данных для обучения, необходимых для создания моделей ИИ.

Сразу после формирования альянс запустил инициативу ASI, ориентированную на разработку более прозрачных и этичных «моделей, применяемых в конкретных областях», специализирующихся на таких сферах, как робототехника, наука и медицина. Его первая модель — Cortex, которая, как утверждается, смоделирована по образцу человеческого мозга и предназначена для управления автономными роботами в реальном мире.

Специализированные модели отличаются от моделей общего назначения, которые отлично справляются с ответами на вопросы и созданием контента и изображений, но менее полезны при решении более сложных задач, требующих значительной экспертизы. Однако создание специализированных моделей будет общественным усилием: Альянсу ASI необходимы эксперты отрасли, чтобы предоставить необходимые данные для обучения моделей.

Генеральный директор Fetch.ai Хумаюн Шейх отметил, что децентрализованная модель собственности Альянса ASI создает экосистему, «где люди поддерживают передовые технологии и участвуют в создании ценности».

Пользователи без специфических знаний могут покупать и «ставить» токены FET, чтобы стать совладельцами децентрализованных моделей ИИ и зарабатывать долю дохода, который они генерируют, когда их используют приложения ИИ.

Для создателей контента преимущества децентрализованного подхода к ИИ очевидны. Структура ASI позволяет им сохранить контроль над своими данными и отслеживать, когда они используются моделями ИИ. Она интегрирует механизмы, закодированные в умных контрактах, чтобы гарантировать, что каждому справедливо вознаграждают. Участники зарабатывают вознаграждения за вклад в вычислительные ресурсы, данные и экспертизу, или поддерживая экосистему через ставку.

Альянс ASI работает по модели децентрализованного управления, где держатели токенов могут голосовать по ключевым решениям, чтобы проект развивался в интересах участников, а не акционеров корпораций.

ИИ для всех — это необходимость

Прогресс, достигнутый в децентрализованном ИИ, воодушевляет, и возникает в то время, когда он необходим. ИИ развивается быстро, и центральные компании в области ИИ находятся на переднем крае внедрения; для многих это является причиной для беспокойства.

Учитывая преобразующий потенциал ИИ и риски, которые он несет для индивидуальных средств к существованию, важно, чтобы отрасль перешла к более ответственным моделям. Системы ИИ должны разрабатываться на благо всех, и это означает, что каждый участник должен быть вознагражден за свое участие. Только децентрализованные системы ИИ показали, что могут это сделать.

Децентрализованный ИИ — это не просто желательное дополнение, а необходимость, представляющая единственную жизнеспособную альтернативу, способную ломать монополию крупных IT-компаний на творчество.

Источник: Artificial Intelligence News

Интересно? Поделиться:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *