Централизованный ИИ представляет опасность: как мы можем его остановить?

Лампочка

Интеллект, демонстрируемый генеративными чат-ботами ИИ, такими как ChatGPT от OpenAI, захватил воображение как отдельных людей, так и корпораций. Искусственный интеллект внезапно стал самой захватывающей областью технологических инноваций.

ИИ признан революционной технологией, имеющей потенциал для преобразования многих аспектов нашей жизни. От персонализированной медицины до автономных транспортных средств, от автоматизированных инвестиций до цифровых активов — возможности, открываемые ИИ, кажутся бесконечными.

Однако, несмотря на трансформационный потенциал ИИ, существует множество рисков, связанных с этой новой технологией. Хотя опасения о злонамеренной системе ИИ в стиле Скайнет, вышедшей из-под контроля, являются неоправданными, опасности централизации ИИ не являются таковыми. По мере того как компании, такие как Microsoft, Google и Nvidia, продолжают стремление к развитию ИИ, опасения по поводу концентрации власти в руках всего нескольких централизованных игроков становятся более ощутимыми.

Почему мы должны беспокоиться о децентрализованном ИИ?

Монопольная власть

Самая насущная проблема, возникающая из-за централизованного ИИ, — это перспектива того, что несколько технологических гигантов добьются монополистического контроля над отраслью. Крупные техногиганты уже накопили значительную долю рынка ИИ, предоставив им доступ к огромным объемам данных. Они также контролируют инфраструктуру, на которой работают ИИ-системы, что позволяет им подавлять своих конкурентов, сдерживать инновации и увековечивать экономическое неравенство.

Достижение монополии в разработке ИИ приведет к тому, что эти компании с большей вероятностью будут несправедливо влиять на нормативные акты, которые они могут манипулировать в свою пользу. Это означает, что меньшие стартапы, у которых нет огромных ресурсов, как у крупных техногигантов, будут изо всех сил пытаться угнаться за темпами инноваций. Те, кто выживет и покажет признаки процветания, почти наверняка будут поглощены, еще больше концентрируя власть в руках немногих. Это приведет к уменьшению разнообразия в разработке ИИ, меньшему количеству выбора для потребителей и менее выгодным условиям, ограничивающим случаи использования и экономические возможности, обещанные ИИ.

Смещения и дискриминация

Помимо монопольного контроля, существуют обоснованные опасения по поводу смещенности ИИ-систем, и эти опасения становятся более важными по мере того, как общество все больше полагается на ИИ.

Риск возникает из-за того, что организации становятся все более зависимыми от автоматизированных систем для принятия решений в различных областях. Например, нередки случаи, когда компания использует ИИ-алгоритмы для фильтрации кандидатов на вакантные должности, и есть риск, что смещенная система может несправедливо исключить часть кандидатов на основе их этнической принадлежности, возраста или места проживания. ИИ также используется страховыми компаниями для установления страховых ставок, финансовыми компаниями для определения, может ли кто-то получить кредит и под какой процент он будет выплачиваться, а также правоохранительными органами для определения районов с повышенной криминогенностью. Во всех этих случаях потенциальные последствия смещенных ИИ-систем вызывают серьезные опасения.

Будет ли это правоохранительные органы, нацеленные на меньшинства, дискриминационные практики кредитования или что-то еще, централизованный ИИ может усугубить социальное неравенство и способствовать системной дискриминации.

Конфиденциальность и слежка

Еще одним риском, возникающим из-за централизованных ИИ-систем, является отсутствие защиты конфиденциальности. Когда всего несколько крупных компаний контролируют большинство данных, генерируемых ИИ, они приобретают возможность проводить беспрецедентное наблюдение за своими пользователями. Данные, собранные самыми доминирующими ИИ-платформами, могут быть использованы для мониторинга, анализа и прогнозирования поведения отдельного человека с невероятной точностью, что разрушает конфиденциальность и увеличивает вероятность злоупотребления информацией.

Это особенно тревожно в странах с авторитарными правительствами, где данные могут быть использованы для создания более сложных инструментов мониторинга граждан. Но даже в демократических обществах существует угроза, связанная с увеличением слежки, как это было показано в раскрытиях Эдварда Сноудена о программе Prism Агентства национальной безопасности США.

Корпорации также могут потенциально злоупотреблять данными потребителей для увеличения своих прибылей. Кроме того, когда централизованные организации аккумулируют огромные объемы чувствительных данных, они становятся более привлекательными целями для хакеров, что увеличивает риск утечки данных.

Безопасность

Могут возникнуть и вопросы национальной безопасности из-за централизованного ИИ. Например, есть обоснованные опасения, что ИИ-системы могут быть использованы в качестве оружия государствами, использующими их для ведения кибервойн, шпионажа и разработки новых систем вооружения. ИИ может стать ключевым инструментом в будущих войнах, повышая ставки в геополитических конфликтах.

Сами ИИ-системы также могут стать мишенью. По мере того, как страны увеличивают зависимость от ИИ, такие системы будут становиться заманчивыми целями, так как они являются очевидными слабыми местами. Вывести из строя ИИ-систему — значит нарушить движение на улицах города, отключить энергосети и многое другое.

Этика

Другой важный вопрос централизованного ИИ — это этика. Потому что горстка компаний, которые контролируют ИИ-системы, могут приобрести значительное влияние на культурные нормы и ценности общества и часто могут ставить во главу угла прибыль, создавая новые этические проблемы.

Например, ИИ-алгоритмы уже широко используются социальными сетями для модерации контента в попытке выявлять и фильтровать оскорбительные посты. Опасение заключается в том, что алгоритмы, либо по случайности, либо по разработанному замыслу, могут в итоге подавлять свободу слова.

Уже существует контроверсия по поводу эффективности систем модерации на базе ИИ, когда множество относительно безобидных постов блокируются или удаляются автоматическими алгоритмами. Это ведет к спекуляциям о том, что такие системы не сломаны, а манипулируются за кулисами на основе политического нарратива, который платформа стремится продвигать.

Альтернатива? Децентрализованный ИИ

Единственной логичной противовес централизованному ИИ является разработка децентрализованных ИИ-систем, которые гарантируют, что контроль над технологией останется в руках большинства, а не немногих. Так мы можем гарантировать, что ни одна компания или организация не получит значительное влияние на направление развития ИИ.

Когда разработка и управление ИИ распределяется между тысячами или миллионами субъектов, его прогресс будет более справедливым, с большим акцентом на нужды индивида. Результатом станет более разнообразное применение ИИ с почти бесконечным выбором моделей, используемых разными системами, вместо нескольких моделей, доминирующих в индустрии.

Децентрализованные ИИ-системы также обеспечат систему сдержек и противовесов против риска массового наблюдения и манипуляции данными. В то время как централизованный ИИ может быть использован в качестве оружия и применен вопреки интересам большинства, децентрализованный ИИ хеджирует против такого рода угнетения.

Главное преимущество децентрализованного ИИ заключается в том, что каждый принимает участие в эволюции технологии, предотвращая получение отдельной организации чрезмерного влияния на ее развитие.

Как децентрализовать ИИ

Децентрализованный ИИ подразумевает переосмысление уровней, составляющих технологическую основу ИИ, включая такие элементы, как инфраструктура (вычислительные и сетевые ресурсы), данные, модели, процессы обучения, инверсии и тонкой настройки.

Мы не можем надеяться лишь на открытые модели, если базовая инфраструктура полностью централизована такими облачными гигантами, как Amazon, Microsoft и Google. Мы должны обеспечить децентрализацию каждого аспекта ИИ.

Лучший способ децентрализовать ИИ заключается в том, чтобы разбить стек технологий на модульные компоненты и создавать рынки вокруг них на основе спроса и предложения. Одним из таких примеров является Spheron, который создал Децентрализованную сеть физической инфраструктуры (DePIN), в которой может участвовать каждый.

С DePIN от Spheron каждый может делиться неиспользуемыми вычислительными ресурсами, арендуя их тем, кто нуждается в инфраструктуре для размещения своих ИИ-приложений. Таким образом, графический дизайнер, использующий мощный ноутбук с графическим процессором, может пожертвовать вычислительную мощность в DePIN, когда он не использует его для собственной работы, и получать за это вознаграждение в виде токенов.

Это означает, что слой инфраструктуры ИИ становится распределенным и децентрализованным, ни один провайдер не получает контроль. Это возможно благодаря блокчейн-технологии и умным контрактам, которые обеспечивают прозрачность, неизменяемость и автоматизацию.

DePIN также может работать для открытых моделей и баз данных. Например, можно делиться тренировочными наборами данных в децентрализованной сети, такой как Qubic, которая будет вознаграждать поставщика данных каждый раз, когда их информация будет использоваться ИИ-системой.

Чтобы гарантировать, что доступ и разрешения децентрализованы, каждый элемент технологического стека распределяется таким образом. Тем не менее, индустрия ИИ в настоящее время испытывает трудности с предоставлением такого уровня децентрализации. Хотя открытые модели стали крайне популярными среди разработчиков ИИ, большинство людей продолжает полагаться на собственные облачные сети, что делает процессы обучения и интерпретации сильно централизованными.

Но существуют серьёзные стимулы для того, чтобы децентрализация победила. Одним из основных преимуществ сетей DePIN является то, что они помогают снизить накладные расходы. Поскольку сети, такие как Spheron, не зависят от посредников, участникам не нужно производить платежи или делиться доходом с третьими сторонами. Более того, они могут позволить себе быть более конкурентоспособными в плане ценообразования, чем корпорации, которые находятся под давлением роста прибыльности.

Децентрализация должна победить

Будущее ИИ таит в себе большой потенциал, но также и опасности. Хотя возможности ИИ-систем за последние несколько лет значительно улучшились, большинство достижений были сделаны всесильными компаниями, что спровоцировало рост их влияния в отрасли. Есть цена, которую предстоит заплатить за это, и она не только в денежных терминах.

Единственная разумная альтернатива — пропагандировать более широкое внедрение децентрализованного ИИ, который может повысить доступность и обеспечить больше гибкости ИИ. Позволяя каждому участвовать в развитии ИИ на равных условиях, мы увидим более разнообразные, интересные и полезные приложения, которые могут приносить равноценную пользу всем и ставят пользователей на первое место.

Строительство децентрализованного будущего ИИ потребует большой координации и сотрудничества на каждом уровне стека ИИ. К счастью, существуют сильные стимулы для участников делать это. И опять же, стимулы не только денежные.

Источник: Artificial Intelligence News

Интересно? Поделиться: