OpenAI усиливает меры безопасности, чтобы защитить данные от посторонних глаз

OpenAI усиливает меры безопасности, чтобы защитить данные от посторонних глаз

Компания OpenAI пересмотрела свои методы обеспечения безопасности для защиты от корпоративного шпионажа. По данным Financial Times, компания усилила меры безопасности после того, как китайский стартап DeepSeek в январе выпустил конкурирующую модель. OpenAI заявила, что DeepSeek незаконно скопировал её модели с помощью метода «дистилляции».

Усиленные меры безопасности включают в себя политику «информационного зондирования», которая ограничивает доступ сотрудников к конфиденциальным алгоритмам и новым продуктам, говорится в отчёте. Например, по данным Financial Times, во время разработки модели o1 от OpenAI только проверенные члены команды, ознакомленные с проектом, могли обсуждать его в общих офисных помещениях.

Это ещё не всё. Теперь OpenAI изолирует проприетарные технологии на автономных компьютерах, внедряет биометрический контроль доступа в офисные помещения (путем сканирования отпечатков пальцев сотрудников) и придерживается политики «запрет по умолчанию» в отношении интернета, требуя явного разрешения на внешние подключения, говорится в отчёте FT.

Компания также усилила физическую безопасность в центрах обработки данных и расширила штат специалистов по кибербезопасности.

Эти изменения отражают растущую обеспокоенность по поводу попыток украсть интеллектуальную собственность OpenAI. Но, учитывая продолжающиеся войны за переманивание сотрудников между американскими компаниями в сфере ИИ и всё более частые утечки комментариев генерального директора Сэма Альтмана, OpenAI, возможно, пытается решить и проблемы внутренней безопасности.

Источник: TechCrunch

Интересно? Поделиться:

4 комментария к “OpenAI усиливает меры безопасности, чтобы защитить данные от посторонних глаз

  1. Здесь секретность в самом деле очень важна. Международная конкуренция в сфере ИИ давно вышла за рамки честной игры — теперь это борьба за влияние и контроль. Страны и компании всё чаще пытаются перехватить друг у друга технологии, иногда прибегая к откровенно нечестным способам, как это, похоже, сделал DeepSeek. В ситуации, когда искусственный интеллект становится инструментом экономического и военного превосходства, отставать никто не хочет. Поэтому идёт гонка не только за лучшие кадры и ресурсы, но и за чужие разработки.

  2. Да, OpenAI принимает серьезные меры для обеспечения безопасности данных и защиты приватности пользователей. Эти меры включают в себя различные технологии шифрования, строгие политики доступа к данным, а также регулярные аудиты и обновления систем безопасности что сейчас очень важно.

  3. Эти меры свидетельствуют о серьезном подходе компании к обеспечению безопасности пользователей и поддержанию высокого уровня доверия к платформе. Важно помнить, что в условиях постоянных киберугроз такие шаги помогают создавать более безопасную среду для всех пользователей.

  4. Как то поздно OpenAI об этом задумались и почему именно сейчас. И так как появился действительно новый конкурент, ими был найден идеальный способ обвинить их в шпионаже. Очередной передел влияния компаний, не более. Защита коммерческой тайны — это хорошо, но опять же, почему сегодня и почему не запатентовали технологию. В этой ситуации много вопросов мало ответов

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять