Компания OpenAI пересмотрела свои методы обеспечения безопасности для защиты от корпоративного шпионажа. По данным Financial Times, компания усилила меры безопасности после того, как китайский стартап DeepSeek в январе выпустил конкурирующую модель. OpenAI заявила, что DeepSeek незаконно скопировал её модели с помощью метода «дистилляции».
Усиленные меры безопасности включают в себя политику «информационного зондирования», которая ограничивает доступ сотрудников к конфиденциальным алгоритмам и новым продуктам, говорится в отчёте. Например, по данным Financial Times, во время разработки модели o1 от OpenAI только проверенные члены команды, ознакомленные с проектом, могли обсуждать его в общих офисных помещениях.
Это ещё не всё. Теперь OpenAI изолирует проприетарные технологии на автономных компьютерах, внедряет биометрический контроль доступа в офисные помещения (путем сканирования отпечатков пальцев сотрудников) и придерживается политики «запрет по умолчанию» в отношении интернета, требуя явного разрешения на внешние подключения, говорится в отчёте FT.
Компания также усилила физическую безопасность в центрах обработки данных и расширила штат специалистов по кибербезопасности.
Эти изменения отражают растущую обеспокоенность по поводу попыток украсть интеллектуальную собственность OpenAI. Но, учитывая продолжающиеся войны за переманивание сотрудников между американскими компаниями в сфере ИИ и всё более частые утечки комментариев генерального директора Сэма Альтмана, OpenAI, возможно, пытается решить и проблемы внутренней безопасности.
Источник: TechCrunch
Здесь секретность в самом деле очень важна. Международная конкуренция в сфере ИИ давно вышла за рамки честной игры — теперь это борьба за влияние и контроль. Страны и компании всё чаще пытаются перехватить друг у друга технологии, иногда прибегая к откровенно нечестным способам, как это, похоже, сделал DeepSeek. В ситуации, когда искусственный интеллект становится инструментом экономического и военного превосходства, отставать никто не хочет. Поэтому идёт гонка не только за лучшие кадры и ресурсы, но и за чужие разработки.
Да, OpenAI принимает серьезные меры для обеспечения безопасности данных и защиты приватности пользователей. Эти меры включают в себя различные технологии шифрования, строгие политики доступа к данным, а также регулярные аудиты и обновления систем безопасности что сейчас очень важно.
Эти меры свидетельствуют о серьезном подходе компании к обеспечению безопасности пользователей и поддержанию высокого уровня доверия к платформе. Важно помнить, что в условиях постоянных киберугроз такие шаги помогают создавать более безопасную среду для всех пользователей.
Как то поздно OpenAI об этом задумались и почему именно сейчас. И так как появился действительно новый конкурент, ими был найден идеальный способ обвинить их в шпионаже. Очередной передел влияния компаний, не более. Защита коммерческой тайны — это хорошо, но опять же, почему сегодня и почему не запатентовали технологию. В этой ситуации много вопросов мало ответов