Чтобы обеспечить соблюдение местных ценностей и регулирования в системах искусственного интеллекта, страны все чаще разрабатывают суверенные стратегии в этой области, используя собственную инфраструктуру, данные и экспертные знания. Компания NVIDIA поддерживает это движение, запуская четыре новых микросервиса NVIDIA Neural Inference Microservices (NIM).
Эти микросервисы призваны упростить создание и развертывание приложений генеративного ИИ, поддерживая модели, адаптированные к региональным особенностям. Они обещают более глубокое взаимодействие с пользователями благодаря улучшенному пониманию местных языков и культурных различий, что приводит к более точным и релевантным ответам.
Это происходит на фоне ожидаемого бума на рынке программного обеспечения генеративного ИИ в Азиатско-Тихоокеанском регионе. По прогнозам ABI Research, доходы в этой области возрастут с 5 миллиардов долларов в этом году до ошеломляющих 48 миллиардов долларов к 2030 году.
Среди новых предложений имеются две модели для региональных языков: Llama-3-Swallow-70B, обученная на японских данных, и Llama-3-Taiwan-70B, оптимизированная для мандаринского диалекта. Эти модели предназначены для более глубокого понимания местных законов, нормативов и культурных тонкостей.
Дополнительно японскую версию поддерживает модельная семейство RakutenAI 7B. Построенные на основе Mistral-7B и обученные на англоязычных и японских данных, они доступны в виде двух микросервисов NIM для функций чата и инструкций. Модели Rakuten достигли впечатляющих результатов в бенчмарке LM Evaluation Harness, заняв первое место среди открытых японских крупных языковых моделей в период с января по март 2024 года.
Обучение крупных языковых моделей (LLM) на региональных языках важно для повышения эффективности их вывода. Точно отражая культурные и языковые тонкости, эти модели способствуют более точному и нюансированному общению. По сравнению с базовыми моделями, такими как Llama 3, региональные варианты демонстрируют превосходную производительность в понимании японского и мандаринского языков, в решении региональных юридических задач, ответах на вопросы, переводе и составлении резюме.
Глобальное стремление к созданию суверенной инфраструктуры ИИ проявляется и в значительных инвестициях со стороны таких стран, как Сингапур, ОАЭ, Южная Корея, Швеция, Франция, Италия и Индия.
«Крупные языковые модели (LLM) не являются механическими инструментами, которые приносят одинаковую пользу всем. Скорее, это интеллектуальные инструменты, взаимодействующие с человеческой культурой и креативностью. Взаимное влияние заключается в том, что не только модели зависят от данных, на которых мы их обучаем, но и наша культура и данные, которые мы генерируем, будут находиться под влиянием LLM», — сказал Рио Йокота, профессор Центра глобальной научной информации и вычислительной техники Токийского технологического института.
«Поэтому крайне важно развивать суверенные модели ИИ, которые соответствуют нашим культурным нормам. Наличие Llama-3-Swallow в виде микросервиса NVIDIA NIM позволит разработчикам легко получить доступ к модели и развернуть её для японских приложений в различных отраслях».
Микросервисы NVIDIA NIM позволяют компаниям, государственным учреждениям и университетам размещать собственные LLM в своих средах. Разработчики получают возможность создавать сложные копилоты, чат-боты и ИИ-ассистентов. Доступные с NVIDIA AI Enterprise, эти микросервисы оптимизированы для вывода с использованием библиотеки с открытым исходным кодом NVIDIA TensorRT-LLM, обещая улучшенную производительность и скорость развертывания.
Увеличение производительности наблюдается с микросервисами Llama 3 70B, (на основе которых создавались новые предложения Llama-3-Swallow-70B и Llama-3-Taiwan-70B), которые обеспечивают до 5 раз большую пропускную способность. Это приводит к снижению эксплуатационных затрат и улучшению пользовательского опыта за счет минимизации задержек.
Источник: Artificial Intelligence News