Endor Labs начала оценивать модели ИИ по критериям безопасности, популярности, качества и активности.
Эта уникальная возможность призвана упростить процесс идентификации самых безопасных моделей ИИ с открытым исходным кодом, доступных на платформе Hugging Face — сайте для обмена большими языковыми моделями (LLM), моделями машинного обучения и другими моделями и наборами данных с открытым исходным кодом — предоставляя простые и понятные оценки.
Объявление было сделано в то время, когда разработчики все чаще обращаются к таким платформам, как Hugging Face, за готовыми моделями ИИ, что напоминает о ранних днях широко доступного ПО с открытым исходным кодом (OSS). Этот новый инструмент улучшает управление ИИ, позволяя разработчикам «начать с чистого листа», чего до сих пор было сложно достичь.
Варун Бадхвар, сооснователь и генеральный директор Endor Labs, заявил: «Нашей задачей всегда было обеспечить безопасность всего, от чего зависит ваш код, и модели ИИ — это следующая важная граница в этой критической задаче.
«Каждая организация экспериментирует с моделями ИИ, будь то для создания отдельных приложений или для построения целых бизнесов на их основе. Безопасность должна поспевать за этим, и здесь есть редкая возможность начать с чистого листа и избежать рисков и высоких затрат на обслуживание в будущем».
Джордж Апостолопулос, ведущий инженер и сооснователь Endor Labs, добавил: «Сейчас все экспериментируют с моделями ИИ. Некоторые команды создают совершенно новые бизнесы на основе ИИ, в то время как другие ищут способы добавить к своим продуктам лейбл “Работает на ИИ”. Одно можно сказать точно — ваши разработчики уже играют с моделями ИИ».
Однако это удобство не обходится без рисков. Апостолопулос предупреждает, что текущая ситуация напоминает «дикий запад», где пользователи хватают модели, которые подходят их задачам, не задумываясь о потенциальных уязвимостях.
Подход Endor Labs рассматривает модели ИИ как зависимости в цепочке поставок программного обеспечения.
«Наша миссия в Endor Labs — “обеспечить безопасность всего, от чего зависит ваш код”», — утверждает Апостолопулос. Этот подход позволяет организациям применять схожие методы оценки рисков к моделям ИИ, как и к другим компонентам с открытым исходным кодом.
Инструмент оценки моделей ИИ от Endor Labs фокусируется на нескольких ключевых зонах рисков:
- Уязвимости в безопасности: Предобученные модели могут содержать злонамеренный код или уязвимости в весах модели, что потенциально может привести к нарушению безопасности при их интеграции в среду организации.
- Юридические и лицензионные вопросы: Соблюдение лицензионных условий является критически важным, учитывая сложную родословную моделей ИИ и их наборов данных для обучения.
- Операционные риски: Зависимость от предобученных моделей создает сложный граф зависимостей, который может быть трудно управлять и обезопасить.
Чтобы решить эти проблемы, инструмент оценки от Endor Labs применяет 50 встроенных проверок для моделей ИИ на Hugging Face. Система генерирует «Endor Score» на основе таких факторов, как количество сопровождающих модель разработчиков, корпоративная поддержка, частота выпусков и известные уязвимости.
Положительные факторы в системе оценки моделей ИИ включают использование безопасных форматов весов, наличие лицензионной информации и высокие показатели загрузок и вовлеченности. Негативные факторы включают неполную документацию, отсутствие данных о производительности и использование небезопасных форматов весов.
Ключевая особенность Endor Scores — это удобный для пользователя интерфейс. Разработчикам не нужно знать конкретные названия моделей; они могут начать поиск с общих вопросов, например, «Какие модели можно использовать для классификации настроений?» или «Какие популярные модели доступны?» Инструмент затем предлагает четкие оценки, ранжируя как позитивные, так и негативные стороны каждой модели, что позволяет разработчикам выбрать наиболее подходящий вариант для своих нужд.
«Ваши команды буквально каждый день сталкиваются с вопросами об ИИ, и они будут искать модели, которые смогут ускорить инновации», — подчеркивает Апостолопулос. «Оценивая модели ИИ с открытым исходным кодом с помощью Endor Labs, вы можете быть уверены, что выбранные вами модели работают так, как ожидалось, и безопасны для использования».
Источник: Artificial Intelligence News