Бывший главный научный сотрудник OpenAI планировал построить бункер на случай конца света, когда машины станут умнее человека

Илья Суцкевер

Исследователь в области безопасности ИИ и один из ведущих специалистов в этой области, много лет был главным научным сотрудником OpenAI. Его целью было создание нейронных сетей с глубоким обучением, настолько продвинутых, что однажды они смогут мыслить и рассуждать так же хорошо, как и любой человек, если не лучше.

Искусственный общий интеллект, или AGI, — это официальный термин, обозначающий эту цель. Он остаётся священным Граалем для исследователей по сей день — шансом для человечества наконец-то создать собственную разумную форму жизни, пусть даже на основе кремния, а не углерода.

Но пока остальное человечество обсуждает плюсы и минусы технологии, которую даже эксперты с трудом могут по-настоящему понять, Суцкевер уже планировал тот день, когда его команда станет первой в гонке по разработке AGI.

Согласно отрывкам, опубликованным The Atlantic из новой книги под названием «Империя ИИ», часть этих планов включала создание убежища на случай конца света для исследователей OpenAI.


«Мы обязательно построим бункер, прежде чем выпустим AGI», — сказал Суцкевер своей команде в 2023 году, за несколько месяцев до того, как он окончательно покинул компанию.

Суцкевер рассудил, что его коллегам-учёным потребуется защита, поскольку технология была слишком мощной, чтобы не стать объектом пристального внимания правительств по всему миру.

«Конечно, вы можете не заходить в бункер», — заверил он коллег-учёных из OpenAI, по словам присутствовавших на встрече.

Ошибки приводят к быстрому возвращению Сэма Альтмана

Книга «Империя ИИ», написанная бывшим корреспондентом Wall Street Journal Карен Хао и основанная на десятках интервью с примерно 90 нынешними и бывшими сотрудниками компании, которые либо непосредственно участвовали в событиях, либо знали о них, раскрывает новую информацию о кратком, но впечатляющем перевороте, который привёл к смещению Сэма Альтмана с поста генерального директора в ноябре 2023 года, и о том, что это значило для компании, стоящей за ChatGPT.

В книге большая часть ответственности возлагается на Суцкевера и технического директора Миру Мурати, чьи опасения по поводу того, что Альтман якобы зациклен на оплате счетов в ущерб прозрачности, лежали в основе увольнения его из некоммерческого совета директоров.

Дуэт, по-видимому, действовал слишком медленно, не сумев укрепить свою власть и привлечь на свою сторону ключевых руководителей. Через неделю Альтман вернулся в седло, и вскоре почти весь совет директоров некоммерческой организации был заменён. Суцкевер и Мурати ушли менее чем через год.

«Создание AGI приведёт к апокалипсису»

Суцкевер лучше многих знает, какими потрясающими возможностями обладает ИИ. Вместе с известным исследователем и наставником Джеффом Хинтоном он был частью элитного трио, создавшего в 2012 году AlexNet, который эксперты часто называют Большим взрывом ИИ.

Три года спустя Илон Маск лично пригласил его в OpenAI, где он возглавил работу по созданию общего искусственного интеллекта.

Но запуск бота ChatGPT случайно сорвал его планы, вызвав «золотую лихорадку» в сфере финансирования, которую осторожный Суцкевер больше не мог контролировать, что сыграло на руку его сопернику Сэму Альтману, говорится в отрывках. Об этом также сообщалось в Fortune.

В конечном итоге это привело к роковой конфронтации с Альтманом и последующему уходу Суцкевера, а также многих единомышленников из числа экспертов по безопасности OpenAI, солидарных с ним, которые беспокоились о том, что компания больше не уделяет должного внимания согласованию ИИ с интересами человечества в целом.

«Есть группа людей — Илья один из них, — которые верят, что создание AGI приведёт к апокалипсису», — сказал один из исследователей, которого цитирует Хао и который присутствовал при том, как Суцкевер раскрыл свои планы по созданию бункера. «Буквально апокалипсис».

Источник: Fortune

Интересно? Поделиться:

7 комментариев для “Бывший главный научный сотрудник OpenAI планировал построить бункер на случай конца света, когда машины станут умнее человека

  1. Показательный парадокс: сами создатели самого совершенного искусственного интеллекта настолько боятся своего творения, что готовятся к технологическому катаклизму. Квазирелигиозный термин, который он использовал, показывает, насколько размытыми стали границы между наукой и верой в мире ИИ.

  2. Ну что, OpenAI превращается в настоящий ИИ-сериал с интригами, бункерами и ‘кремниевыми апокалипсисами! Суцкевер, похоже, всерьёз готовился к восстанию машин — жаль, что его планы разбились о хардкорный менеджмент Альтмана. Теперь главный вопрос: кто первым построит AGI — OpenAI или Илон Маск с Neuralink?

  3. Сейчас большие языковые модели могут отвечать на Ваши вопросы, поддерживать беседу, решать несложные задачи. Но они сами не уверены в своих ответах. К тому же они обучались на текстах из Интернета, которые далеко не всегда отличаются высоким качеством. Технологически большие языковые модели, считающиеся текущей вершиной искусственного интеллекта, умеют обобщать информацию, комбинировать ее, искать, но они не генерируют новое знание, не ставят правдоподобные гипотезы — AGI должен уметь это делать.

  4. Искусственный интеллект стал явлением одновременно пугающим и полезным.

  5. Интересная, хоть и тревожная новость. Если даже бывший главный научный сотрудник OpenAI задумывается о таких вещах, значит, он реально видит потенциальные риски. С одной стороны — звучит как сюжет фантастического фильма, с другой — если ИИ и правда может выйти из-под контроля, лучше думать об этом заранее.

  6. Апокалипсис, восстание машин (ИИ), — звучит как сюжет очередного фантастического фильма. И было бы даже интересно, но почему-то становится не по себе от таких новостей и разоблачений. Кто-то делает огромные деньги на ИИ, совершенно не заботясь о будущем именно человечества. И это действительно страшно.

  7. Не понимаю, зачем для «апокалипсиса» нужен ИИ, если люди и без него прекрасно с этой задачей могут справиться, учитывая то, что эксперименты с новыми технологиями и зарабатывание больших денег явно ставятся сейчас выше безопасности человечества.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *