Новый стартап сооснователя OpenAI Ильи Суцкевера направлен на создание «безопасного суперинтеллекта»

Мозг с плащом

Илья Суцкевер, бывший главный научный сотрудник OpenAI, раскрыл свой следующий крупный проект после ухода из основанной им в мае компании по исследованию искусственного интеллекта.

Вместе с другим выпускником OpenAI Даниэлем Леви и бывшим руководителем отдела искусственного интеллекта Apple Даниэлем Гроссом они создали компанию Safe Superintelligence Inc. (SSI), стартап, который полностью сосредоточен на создании безопасных суперинтеллектуальных систем.

Создание SSI произошло после кратковременного увольнения генерального директора OpenAI Сэма Альтмана в ноябре 2023 года, в котором Суцкевер сыграл центральную роль, а позже выразил сожаление по поводу этой ситуации.

На сайте SSI основатели заявляют:

Мы рассматриваем безопасность и возможности в тандеме, как технические задачи, которые необходимо решать с помощью революционной инженерии и научных прорывов. Мы планируем максимально быстро продвигать возможности, при этом, чтобы наша безопасность всегда оставалась на высоте. Таким образом, мы можем масштабироваться в мире.

Наше единственное внимание означает отсутствие отвлечений на управленческие обязанности или циклы создания продукта, а наша бизнес-модель подразумевает, что безопасность, защита и прогресс будут застрахованы от давления краткосрочных коммерческих интересов.

Работа Суцкевера в SSI является продолжением его усилий в OpenAI, где он был частью команды по супервыравниванию, занимавшейся разработкой методов контроля для новых мощных систем искусственного интеллекта. Однако, эта группа была расформирована после громкого ухода Суцкевера.

Согласно информации от SSI, компания будет стремиться к безопасному суперинтеллекту «прямым курсом, с одной целью, одной задачей и одним продуктом». Такой уникальный фокус резко контрастирует с диверсификацией, наблюдаемой в крупных лабораториях ИИ, таких как OpenAI, DeepMind и Anthropic, в последние годы.

Только время покажет, сможет ли команда Суцкевера добиться существенного прогресса в своей высокой цели — создании безопасного суперинтеллектуального ИИ. Критики утверждают, что эта задача представляет собой не менее философский, чем инженерный вызов. Тем не менее, высокий уровень основателей SSI означает, что их усилия будут внимательно отслеживаться.

Источник: Artificial Intelligence News

Интересно? Поделиться: