OpenAI усиливает меры безопасности, чтобы защитить данные от посторонних глаз

OpenAI усиливает меры безопасности, чтобы защитить данные от посторонних глаз

Компания OpenAI пересмотрела свои методы обеспечения безопасности для защиты от корпоративного шпионажа. По данным Financial Times, компания усилила меры безопасности после того, как китайский стартап DeepSeek в январе выпустил конкурирующую модель. OpenAI заявила, что DeepSeek незаконно скопировал её модели с помощью метода «дистилляции».

Усиленные меры безопасности включают в себя политику «информационного зондирования», которая ограничивает доступ сотрудников к конфиденциальным алгоритмам и новым продуктам, говорится в отчёте. Например, по данным Financial Times, во время разработки модели o1 от OpenAI только проверенные члены команды, ознакомленные с проектом, могли обсуждать его в общих офисных помещениях.

Это ещё не всё. Теперь OpenAI изолирует проприетарные технологии на автономных компьютерах, внедряет биометрический контроль доступа в офисные помещения (путем сканирования отпечатков пальцев сотрудников) и придерживается политики «запрет по умолчанию» в отношении интернета, требуя явного разрешения на внешние подключения, говорится в отчёте FT.

Компания также усилила физическую безопасность в центрах обработки данных и расширила штат специалистов по кибербезопасности.

Эти изменения отражают растущую обеспокоенность по поводу попыток украсть интеллектуальную собственность OpenAI. Но, учитывая продолжающиеся войны за переманивание сотрудников между американскими компаниями в сфере ИИ и всё более частые утечки комментариев генерального директора Сэма Альтмана, OpenAI, возможно, пытается решить и проблемы внутренней безопасности.

Источник: TechCrunch

Интересно? Поделиться:

11 комментариев к “OpenAI усиливает меры безопасности, чтобы защитить данные от посторонних глаз

  1. Здесь секретность в самом деле очень важна. Международная конкуренция в сфере ИИ давно вышла за рамки честной игры — теперь это борьба за влияние и контроль. Страны и компании всё чаще пытаются перехватить друг у друга технологии, иногда прибегая к откровенно нечестным способам, как это, похоже, сделал DeepSeek. В ситуации, когда искусственный интеллект становится инструментом экономического и военного превосходства, отставать никто не хочет. Поэтому идёт гонка не только за лучшие кадры и ресурсы, но и за чужие разработки.

  2. Да, OpenAI принимает серьезные меры для обеспечения безопасности данных и защиты приватности пользователей. Эти меры включают в себя различные технологии шифрования, строгие политики доступа к данным, а также регулярные аудиты и обновления систем безопасности что сейчас очень важно.

  3. Эти меры свидетельствуют о серьезном подходе компании к обеспечению безопасности пользователей и поддержанию высокого уровня доверия к платформе. Важно помнить, что в условиях постоянных киберугроз такие шаги помогают создавать более безопасную среду для всех пользователей.

  4. Как то поздно OpenAI об этом задумались и почему именно сейчас. И так как появился действительно новый конкурент, ими был найден идеальный способ обвинить их в шпионаже. Очередной передел влияния компаний, не более. Защита коммерческой тайны — это хорошо, но опять же, почему сегодня и почему не запатентовали технологию. В этой ситуации много вопросов мало ответов

  5. Параноики:) Однако в век поголовного оцифровывания всего и вся эта мера уже не кажется столь радикальной и несет в себе зерно здоровой уже паранойи:) Тут уже всё будет зависеть насколько важна информация конкурентам и какими средствами они располагают. А как мы знаем где прибыль в миллиарды, а то и триллионы никакие меры уже не помогут украсть информацию и меры будут приниматься очень жесткие (похищение, шантаж, угрозы и банальными ,,упал из окна поправляя антенну,,). Всё ИМХО и субъективно. Во время растекания мыслями по древу ни одно животное не пострадало!!!

  6. Хотя обе стороны высказывают обоснованные доводы, очевидно, что ключевыми здесь являются прозрачность и своевременность. Пользователи заслуживают знать не только о предпринимаемых мерах, но и о причинах их внедрения именно сейчас. Доверие к технологическим компаниям строится не только на вопросах безопасности, но и на открытом общении. Без ясности легко появляются домыслы — а это только усиливает неопределённость.

  7. Это важное и своевременное решение. Усиление мер безопасности помогает обеспечить конфиденциальность и защиту пользовательских данных, что особенно актуально в современном цифровом мире. Надеюсь, такие меры будут способствовать укреплению доверия к OpenAI и обеспечат безопасное использование технологий для всех пользователей.

  8. Это хорошо что наконец-то взялись за ум и решили проследить за такими действиями

  9. Наконец-то компании начинают серьёзно относиться к безопасности данных. Особенно актуально в эпоху, когда ИИ-разработки становятся объектом корпоративного шпионажа.

  10. Безопасность, защита от кибер и промышленного шпионажа — обычное дело, особенно для таких крупных компаний как OpenAI и на таких «горячих» разработках. Удивляет одно: а что раньше-то этим не озаботились? Чего ждали?

  11. Согласен с тем что безопасность, в том числе и от кибератак, должна быть конечно же на высоте. Особенно конфиденциальность и личные данные. Но благодаря тому что одни и те же сотрудники бегают по разным компаниям, в зависимости от того в какую сумму они себя оценивают, то говорить о безопасности личных данных как-то не очень хочется. Каждый что-то прихватит, когда перебегать будет.

Обсуждение закрыто.

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять