Компания OpenAI пересмотрела свои методы обеспечения безопасности для защиты от корпоративного шпионажа. По данным Financial Times, компания усилила меры безопасности после того, как китайский стартап DeepSeek в январе выпустил конкурирующую модель. OpenAI заявила, что DeepSeek незаконно скопировал её модели с помощью метода «дистилляции».
Усиленные меры безопасности включают в себя политику «информационного зондирования», которая ограничивает доступ сотрудников к конфиденциальным алгоритмам и новым продуктам, говорится в отчёте. Например, по данным Financial Times, во время разработки модели o1 от OpenAI только проверенные члены команды, ознакомленные с проектом, могли обсуждать его в общих офисных помещениях.
Это ещё не всё. Теперь OpenAI изолирует проприетарные технологии на автономных компьютерах, внедряет биометрический контроль доступа в офисные помещения (путем сканирования отпечатков пальцев сотрудников) и придерживается политики «запрет по умолчанию» в отношении интернета, требуя явного разрешения на внешние подключения, говорится в отчёте FT.
Компания также усилила физическую безопасность в центрах обработки данных и расширила штат специалистов по кибербезопасности.
Эти изменения отражают растущую обеспокоенность по поводу попыток украсть интеллектуальную собственность OpenAI. Но, учитывая продолжающиеся войны за переманивание сотрудников между американскими компаниями в сфере ИИ и всё более частые утечки комментариев генерального директора Сэма Альтмана, OpenAI, возможно, пытается решить и проблемы внутренней безопасности.
Источник: TechCrunch
Здесь секретность в самом деле очень важна. Международная конкуренция в сфере ИИ давно вышла за рамки честной игры — теперь это борьба за влияние и контроль. Страны и компании всё чаще пытаются перехватить друг у друга технологии, иногда прибегая к откровенно нечестным способам, как это, похоже, сделал DeepSeek. В ситуации, когда искусственный интеллект становится инструментом экономического и военного превосходства, отставать никто не хочет. Поэтому идёт гонка не только за лучшие кадры и ресурсы, но и за чужие разработки.
Да, OpenAI принимает серьезные меры для обеспечения безопасности данных и защиты приватности пользователей. Эти меры включают в себя различные технологии шифрования, строгие политики доступа к данным, а также регулярные аудиты и обновления систем безопасности что сейчас очень важно.
Эти меры свидетельствуют о серьезном подходе компании к обеспечению безопасности пользователей и поддержанию высокого уровня доверия к платформе. Важно помнить, что в условиях постоянных киберугроз такие шаги помогают создавать более безопасную среду для всех пользователей.
Как то поздно OpenAI об этом задумались и почему именно сейчас. И так как появился действительно новый конкурент, ими был найден идеальный способ обвинить их в шпионаже. Очередной передел влияния компаний, не более. Защита коммерческой тайны — это хорошо, но опять же, почему сегодня и почему не запатентовали технологию. В этой ситуации много вопросов мало ответов
Параноики:) Однако в век поголовного оцифровывания всего и вся эта мера уже не кажется столь радикальной и несет в себе зерно здоровой уже паранойи:) Тут уже всё будет зависеть насколько важна информация конкурентам и какими средствами они располагают. А как мы знаем где прибыль в миллиарды, а то и триллионы никакие меры уже не помогут украсть информацию и меры будут приниматься очень жесткие (похищение, шантаж, угрозы и банальными ,,упал из окна поправляя антенну,,). Всё ИМХО и субъективно. Во время растекания мыслями по древу ни одно животное не пострадало!!!
Хотя обе стороны высказывают обоснованные доводы, очевидно, что ключевыми здесь являются прозрачность и своевременность. Пользователи заслуживают знать не только о предпринимаемых мерах, но и о причинах их внедрения именно сейчас. Доверие к технологическим компаниям строится не только на вопросах безопасности, но и на открытом общении. Без ясности легко появляются домыслы — а это только усиливает неопределённость.
Это важное и своевременное решение. Усиление мер безопасности помогает обеспечить конфиденциальность и защиту пользовательских данных, что особенно актуально в современном цифровом мире. Надеюсь, такие меры будут способствовать укреплению доверия к OpenAI и обеспечат безопасное использование технологий для всех пользователей.
Это хорошо что наконец-то взялись за ум и решили проследить за такими действиями
Наконец-то компании начинают серьёзно относиться к безопасности данных. Особенно актуально в эпоху, когда ИИ-разработки становятся объектом корпоративного шпионажа.
Безопасность, защита от кибер и промышленного шпионажа — обычное дело, особенно для таких крупных компаний как OpenAI и на таких «горячих» разработках. Удивляет одно: а что раньше-то этим не озаботились? Чего ждали?
Согласен с тем что безопасность, в том числе и от кибератак, должна быть конечно же на высоте. Особенно конфиденциальность и личные данные. Но благодаря тому что одни и те же сотрудники бегают по разным компаниям, в зависимости от того в какую сумму они себя оценивают, то говорить о безопасности личных данных как-то не очень хочется. Каждый что-то прихватит, когда перебегать будет.