Искусственный разум: тикающая бомба или новый этап эволюции?

Большая бомба с часами

Вопрос о том, когда машины превзойдут интеллект человека, обсуждается уже не одно десятилетие. Однако с развитием алгоритмов машинного обучения и программ, которые могут легко проходить тест Тьюринга, этот вопрос становится все более актуальным. Сколько времени остается до создания искусственного общего интеллекта (AGI) и какие риски могут возникнуть в процессе?

Современный искусственный интеллект (ИИ) в основном строится на основе больших языковых моделей (LLM), и текстовые ИИ на самом деле не думают о своём ответе и не проводят исследования — они оперируют вероятностями и статистикой. Используя обучающие данные, они вычисляют наиболее вероятное слово (иногда букву), которое должно следовать за предыдущим. Это может давать разумные результаты, но также приводит к ошибкам и даже опасным выводам, с редкими забавными ответами , которые человек никогда бы не дал. Эти машины не мыслят.

Эти модели специализируются на выполнении узких задач, требующих конкретных обучающих данных. Однако в этой области уже активно обсуждается возможность появления AGI. Эти алгоритмы смогут выполнять множество задач на уровне человека. И хотя искусственное сознание может быть ещё далеко , разработка AGI рассматривается как важный этап. В некоторых отраслях утверждают, что до AGI остаётся всего несколько лет .

«В следующие десять или два десятка лет, вероятно, отдельный компьютер достигнет вычислительной мощности человеческого мозга к 2029 или 2030 году. А ещё через 10–15 лет один компьютер может иметь вычислительную мощность всего общества», — заявил Бен Гёрцель, основатель SingularityNET, который стремится создать «децентрализованный, демократичный и инклюзивный AGI» на конференции Beneficial AGI Summit 2024. Подробнее об этом в его выступлении .

Из этого возникают два важных вопроса. Первый — насколько точны эти оценки? Критики утверждают, что разговоры о скором AGI — это способ подогреть интерес к текущим технологиям ИИ и взрывному росту их популярности, прежде чем произойдет неизбежный спад. Недавно лауреат Нобелевской премии и один из основателей ИИ Джеффри Хинтон считает, что до появления AGI остаётся менее 20 лет. Йошуа Бенджио, который в 2018 году разделил с Хинтоном премию Тьюринга, утверждает, что точные сроки предсказать невозможно .

Второй вопрос касается возможных рисков. Хинтон покинул Google в прошлом году из-за обеспокоенности потенциальными угрозами , связанными с ИИ. Кроме того, опрос показал, что треть исследователей считает, что ИИ может привести к катастрофическим последствиям. Однако не стоит ожидать, что будущее будет похоже на фильмы про Терминатора, где машины охотятся на людей. Опасности могут быть гораздо более банальными.

Уже сейчас модели ИИ сталкиваются с обвинениями в незаконном использовании данных для обучения, например, украденных произведений искусства. В начале этого года OpenAI просило парламент Великобритании разрешить использование защищенных авторским правом материалов для обучения моделей, поскольку без них невозможно создать прибыльные ИИ. Есть также экологические риски. Современные ИИ связаны с огромным потреблением воды и “тревожным” углеродным следом . Более мощные ИИ потребуют еще больше ресурсов в условиях меняющегося климата.

Ещё одной угрозой является использование ИИ для создания ложных материалов с целью распространения дезинформации. Создание фальшивых изображений для пропаганды или других злонамеренных целей становится всё проще. И хотя сейчас существуют способы распознать такие фальшивки , со временем это будет становиться всё сложнее.

Регулирование в области ИИ пока развивается медленно, и это вызывает озабоченность по поводу текущих рисков. Однако некоторые исследования показывают, что чрезмерные опасения могут быть преувеличены, поскольку чем больше плохих материалов будет создано ИИ, тем хуже он станет со временем, так как будет обучаться на собственных ошибках и перестанет быть полезным . Возможно, до создания настоящего искусственного интеллекта ещё далеко, но вот до создания искусственной глупости мы уже на подходе.

Источник: SecurityLab.ru

Интересно? Поделиться: