OpenAI ищет нового руководителя, который будет ответственным за изучение возникающих рисков, связанных с искусственным интеллектом, в различных сферах — от компьютерной безопасности до психического здоровья.
В посте на платформе X генеральный директор Сэм Альтман отметил, что модели искусственного интеллекта «начинают представлять собой определённые реальные вызовы», включая «потенциальное влияние моделей на психическое здоровье», а также модели, которые «настолько хорошо разбираются в компьютерной безопасности, что начинают находить критические уязвимости».
«Если вы хотите помочь миру понять, как обеспечить защитников в сфере кибербезопасности передовыми технологиями, одновременно гарантируя, что злоумышленники не смогут использовать их во вред, — желательно за счёт повышения общей защищённости всех систем, — а также решить, как мы будем раскрывать биологические возможности и обеспечивать безопасность систем с самосовершенствованием, пожалуйста, рассмотрите возможность подать заявку на эту позицию», — написал Альтман.
В описании вакансии «Глава по обеспечению готовности» говорится, что этот специалист будет отвечать за реализацию рамочной политики OpenAI по обеспечению готовности — «нашей стратегии, объясняющей подход компании к мониторингу и подготовке к появлению передовых возможностей, способных создавать новые риски серьёзного вреда».
Заработная плата на этой должности составляет 555 000 долларов США плюс доля в акционерном капитале.
О создании команды по обеспечению готовности компания впервые объявила в 2023 году и тогда уточнила, что её задача — изучать возможные «катастрофические риски», как более актуальные (например, фишинговые атаки), так и более гипотетические, такие как ядерные угрозы.
Менее чем через год OpenAI перевела Александра Мадри, занимавшего должность главы по обеспечению готовности, на работу, связанную с исследованием рассуждений и мышления искусственного интеллекта. Другие руководители по вопросам безопасности также покинули компанию или перешли на должности вне сферы готовности и безопасности.
Недавно OpenAI также обновила свои рамки по обеспечению готовности, заявив, что может «скорректировать» требования по безопасности, если конкурирующая лаборатория искусственного интеллекта выпустит «модель с высоким уровнем риска» без подобных мер защиты.
Как намекал Альтман в своём посте, генеративные чат-боты с искусственным интеллектом всё чаще подвергаются критике из-за их воздействия на психическое здоровье. Недавние судебные иски утверждают, что ChatGPT компании OpenAI усиливал заблуждения пользователей, увеличивал их социальную изоляцию, а в некоторых случаях даже приводил к суицидам. (В компании заявили, что продолжают работать над улучшением способности ChatGPT распознавать признаки эмоционального стресса и обращаться к пользователям с рекомендациями о реальной психологической поддержке.)
Источник: TechCrunch
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter. Можете написать лучше? Мы всегда рады новым авторам.

Статьи и новости о нейросетях и искусственном интеллекте, просто и понятно о сложных технологиях. Освещает современные тенденции, объясняет, как работают ИИ-системы, и показывает, каким образом нейросети меняют различные сферы жизни. Регулярно собирает подборки и топы полезных нейросетей, тщательно отбирая актуальные инструменты и сервисы, которые могут существенно упростить рабочие и повседневные задачи. В своих подборках делится описаниями возможностей каждой нейросети, а также рекомендациями по их применению, чтобы помочь читателям быстро разобраться в новых технологиях и использовать их с максимальной пользой.
Социальные сети автора:






Позиция показывает, что OpenAI хочет быть проактивной в предотвращении потенциальных вредных сценариев, а не лишь реагировать на них после возникновения.
Очень радует, что в последнее время стали уделять не мало внимания угрозам, которые могут возникнуть в результате широкого использования ИИ, и заниматься их предотвращением.
Заработная плата на этой должности составляет 555 000 долларов США плюс доля в акционерном капитале.
Вот это зарплата,офигеть.
Логичный и своевременный шаг со стороны OpenAI. По мере роста возможностей ИИ вопросы упреждения рисков и угроз выходят на первый план, и без отдельного руководителя это направление сложно выстроить системно. Важно, что речь идёт не о реактивной безопасности «по факту», а о прогнозировании и предотвращении проблем на ранней стадии. От того, как будет выстроена эта работа, во многом зависит доверие пользователей и регуляторов к ИИ в ближайшие годы.