OpenAI усиливает фокус на безопасность ИИ — открыта вакансия главы отдела предупреждения угроз

OpenAI ищет нового руководителя, который будет ответственным за изучение возникающих рисков, связанных с искусственным интеллектом, в различных сферах — от компьютерной безопасности до психического здоровья.

В посте на платформе X генеральный директор Сэм Альтман отметил, что модели искусственного интеллекта «начинают представлять собой определённые реальные вызовы», включая «потенциальное влияние моделей на психическое здоровье», а также модели, которые «настолько хорошо разбираются в компьютерной безопасности, что начинают находить критические уязвимости».

Смотрите видео на удобном для вас ресурсе!

«Если вы хотите помочь миру понять, как обеспечить защитников в сфере кибербезопасности передовыми технологиями, одновременно гарантируя, что злоумышленники не смогут использовать их во вред, — желательно за счёт повышения общей защищённости всех систем, — а также решить, как мы будем раскрывать биологические возможности и обеспечивать безопасность систем с самосовершенствованием, пожалуйста, рассмотрите возможность подать заявку на эту позицию», — написал Альтман.

В описании вакансии «Глава по обеспечению готовности» говорится, что этот специалист будет отвечать за реализацию рамочной политики OpenAI по обеспечению готовности — «нашей стратегии, объясняющей подход компании к мониторингу и подготовке к появлению передовых возможностей, способных создавать новые риски серьёзного вреда».

Заработная плата на этой должности составляет 555 000 долларов США плюс доля в акционерном капитале.

О создании команды по обеспечению готовности компания впервые объявила в 2023 году и тогда уточнила, что её задача — изучать возможные «катастрофические риски», как более актуальные (например, фишинговые атаки), так и более гипотетические, такие как ядерные угрозы.

Менее чем через год OpenAI перевела Александра Мадри, занимавшего должность главы по обеспечению готовности, на работу, связанную с исследованием рассуждений и мышления искусственного интеллекта. Другие руководители по вопросам безопасности также покинули компанию или перешли на должности вне сферы готовности и безопасности.

Недавно OpenAI также обновила свои рамки по обеспечению готовности, заявив, что может «скорректировать» требования по безопасности, если конкурирующая лаборатория искусственного интеллекта выпустит «модель с высоким уровнем риска» без подобных мер защиты.

Как намекал Альтман в своём посте, генеративные чат-боты с искусственным интеллектом всё чаще подвергаются критике из-за их воздействия на психическое здоровье. Недавние судебные иски утверждают, что ChatGPT компании OpenAI усиливал заблуждения пользователей, увеличивал их социальную изоляцию, а в некоторых случаях даже приводил к суицидам. (В компании заявили, что продолжают работать над улучшением способности ChatGPT распознавать признаки эмоционального стресса и обращаться к пользователям с рекомендациями о реальной психологической поддержке.)

Источник: TechCrunch

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Интересно? Поделиться:

4 комментария к “OpenAI усиливает фокус на безопасность ИИ — открыта вакансия главы отдела предупреждения угроз

  1. Позиция показывает, что OpenAI хочет быть проактивной в предотвращении потенциальных вредных сценариев, а не лишь реагировать на них после возникновения.

  2. Очень радует, что в последнее время стали уделять не мало внимания угрозам, которые могут возникнуть в результате широкого использования ИИ, и заниматься их предотвращением.

  3. Заработная плата на этой должности составляет 555 000 долларов США плюс доля в акционерном капитале.
    Вот это зарплата,офигеть.

  4. Логичный и своевременный шаг со стороны OpenAI. По мере роста возможностей ИИ вопросы упреждения рисков и угроз выходят на первый план, и без отдельного руководителя это направление сложно выстроить системно. Важно, что речь идёт не о реактивной безопасности «по факту», а о прогнозировании и предотвращении проблем на ранней стадии. От того, как будет выстроена эта работа, во многом зависит доверие пользователей и регуляторов к ИИ в ближайшие годы.

Добавить комментарий

Оставляя комментарий вы соглашаетесь на обработку персональных данных в соответствии с политикой конфиденциальности, соглашаетесь с пользовательским соглашением. Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подпишитесь на нашу рассылку

Loading

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Продолжая использовать наш сайт, вы соглашаетесь с использованием файлов cookie. Они помогают нам обеспечивать корректную работу сайта и делать его более удобным.
Принять