Искусственный интеллект, способный выполнять любые задачи наравне с человеком, появится через 5-10 лет, считает генеральный директор IT-гиганта Deep Mind, лауреат Нобелевской премии по химии Демис Хассабис.
Выступая на брифинге в лондонском офисе DeepMind, Демис Хассабис заявил, что, по его мнению, искусственный интеллект общего назначения (Artificial General Intelligence – AGI), который будет таким же умным, как человек, или даже умнее его, начнет появляться в ближайшие пять или десять лет.
Если это произойдет, сообщил магнат ИИ в интервью Wired, «тогда наступит эпоха максимального процветания человечества, когда мы отправимся к звездам и колонизируем галактику. Я думаю, это начнётся в 2030 году».
По его словам, AGI обеспечит «радикальное изобилие, раскроет скрытые секреты здоровья, окружающей среды и энергии, а также решит проблему капиталистического дефицита, при котором бедные люди мира остаются без ресурсов ради блага немногих».
«Я думаю, что современные системы [ИИ] очень пассивны, они всё ещё многого не могут. Но я думаю, что в течение следующих пяти-десяти лет многие из этих возможностей начнут выходить на первый план, и мы начнём двигаться к тому, что мы называем общим искусственным интеллектом», — отметил Хассабис.
Хассабис не одинок в своих прогнозах о сроках появления AGI. В прошлом году генеральный директор китайского технологического гиганта Baidu Робин Ли заявил, что, по его мнению, появление ОИИ « ожидается не ранее чем через 10 лет», опровергнув восторженные прогнозы некоторых коллег о том, что этот прорыв произойдет в гораздо более короткие сроки.
В январе 2025 года Дарио Амодеи, генеральный директор стартапа Anthropic в области ИИ, заявил телеканалу CNBC на Всемирном экономическом форуме в Давосе, что, по его мнению, в «ближайшие два-три года» появится форма искусственного интеллекта, которая «будет лучше, чем почти все люди, справляться практически со всеми задачами».
В прошлом году генеральный директор Tesla Илон Маск предсказал, что AGI, скорее всего, станет доступен к 2026 году, а генеральный директор OpenAI Сэм Альтман заявил, что такая система может быть разработана в «довольно близком будущем».
Однако ведущие западные аналитические центры крайне встревожены перспективами появления и распространения AGI.
В недавнем докладе RAND Corporation излагаются пять проблем, которые несет появление AGI национальной безопасности США.
1. AGI как чудо-оружие.
«Недавние прорывы в передовых моделях ИИ заставили многих утверждать, что он окажет эквивалентное влияние на национальную безопасность, то есть что он будет настолько мощным, что первый субъект, который его достигнет, получит значительное и, возможно, необратимое военное преимущество».
2. Системные изменения в расстановке сил.
«В современных эквивалентах письмах Эйнштейна Франклину Рузвельту раздаются призывы к правительству США принять участие в масштабных национальных усилиях, чтобы гарантировать, что Соединенные Штаты получат решающее чудо-оружие на базе ИИ раньше, чем это сделает Китай».
3. Неспециалисты, умеющие разрабатывать оружие массового уничтожения.
«AGI может дать возможность неспециалистам разрабатывать оружие массового уничтожения, такого как высокосмертельный и заразный патоген или опасное кибервредоносное ПО, расширяя круг людей, способных создавать такие угрозы».
4. Искусственные сущности, обладающие агентностью.
«AGI может проявиться как искусственная сущность, обладающая полномочиями, угрожающая глобальной безопасности. Одним из самых пагубных последствий развития ИИ может стать разрушение человеческой самостоятельности, поскольку люди становятся все более зависимыми от технологий. Поскольку ИИ контролируют все более сложные и критически важные системы, они могут оптимизировать критически важную инфраструктуру способами, которые выгодны человечеству, но также и способами, которые человечество не имеет возможности полностью понять».
5. Общая нестабильность.
«На пути к AGI и в мире с ним может возникнуть нестабильность. Независимо от того, будет ли AGI в конечном итоге реализован или нет, стремление к AGI может спровоцировать период нестабильности, поскольку страны и корпорации будут бороться за доминирование в этой преобразующей технологии. Эта конкуренция может привести к обострению напряженности, напоминающей гонку ядерных вооружений, так что стремление к превосходству рискует спровоцировать, а не предотвратить конфликт. В этой нестабильной обстановке восприятие странами осуществимости AGI и потенциала обеспечения преимущества первопроходца может стать столь же критически важным, как и сама технология. Порог риска для действий будет зависеть не только от реальных возможностей, но и от предполагаемых возможностей и намерений соперников. Ошибочные толкования или просчеты, во многом подобные тем, которых опасались во времена холодной войны, могут спровоцировать упреждающие стратегии или наращивание вооружений, которые дестабилизируют глобальную безопасность».
В докладе американского аналитического центра Future of Life Institute (FLI), одним из основателей которого является ведущий мировой эксперт по ИИ Макс Тегмарк, говорится, что компании, занимающиеся разработкой ИИ, «не готовы» к опасностям, связанным с созданием систем человеческого уровня.
Ни одна из компаний, включенных FLI в индекс безопасности ИИ, не получила оценку выше D за «планирование экзистенциальной безопасности» и что, несмотря на стремление разработать общий искусственный интеллект (AGI), ни одна из изученных компаний не имела «ничего похожего на последовательный, осуществимый план» по обеспечению безопасности и управляемости систем.
В докладе FLI говорится: «Отрасль принципиально не готова к достижению заявленных целей. Компании заявляют, что создадут искусственный интеллект общего назначения (AGI) в течение десятилетия, однако ни одна из них не набрала оценку выше [неудовлетворительной] D по планированию экзистенциальной безопасности».
Аналитики FLI оценили уровень разработок семи компаний: Google, DeepMind, OpenAI, Anthropic, запрещённая в России Meta*, xAI и китайские Zhipu AI и DeepSeek — по шести областям, включая «текущий вред» и «экзистенциальную безопасность».
Anthropic получил наивысшую общую оценку безопасности C+ (тройка с плюсом по русской шкале), за ним следует OpenAI с оценкой C и Google DeepMind с оценкой C-.
SaferAI, еще одна некоммерческая организация, занимающаяся вопросами безопасности, также опубликовала в четверг отчет, в котором предупредила, что у передовых компаний в сфере ИИ «слабые или очень слабые методы управления рисками», и назвала их текущий подход «неприемлемым».
Оценки безопасности FLI были присвоены и проверены группой экспертов по искусственному интеллекту, включая британского специалиста по информатике Стюарта Рассела и Снеху Реванур, основательницу группы по регулированию искусственного интеллекта Encode Justice.
Макс Тегмарк, соучредитель FLI и профессор Массачусетского технологического института, сказал в интервью The Guardian, что его «весьма шокирует» тот факт, что передовые компании в области ИИ стремятся создавать сверхразумные системы, не публикуя планов по устранению последствий.
«Это как если бы кто-то построил гигантскую атомную электростанцию в Нью-Йорке и собирался открыть ее на следующей неделе, но нет никакого плана, который предотвратит ее аварию», –заявил Тегмарк.
Он также указал, что развитие технологий ИИ продолжает опережать ожидания, сославшись на ранее существовавшее мнение, что у экспертов будут десятилетия для решения задач AGI. «Теперь сами компании говорят, что это займёт несколько лет», — сказал он.
В докладе американского Brookings Institute отмечаются негативные особенности моделей ИИ, проявившиеся в последнее время.
Отмечается, что разработчики узкоспециализированных систем ИИ уже сталкиваются с проблемами неверной спецификации задач и нежелательных подцелей. Когда они просят узкоспециализированную систему что-то сделать, они иногда описывают задачу таким образом, что система ИИ может выполнить то, что ей сказали, но не то, что хотят разработчики. Пример использования обучения с подкреплением для обучения агента участию в компьютерной гонке иллюстрирует это. Если разработчики обучают агента набирать как можно больше игровых очков, они могут подумать, что запрограммировали систему на победу в гонке, что и является очевидной целью игры. Оказывается, агент научился накапливать очки, не выигрывая гонку, двигаясь по кругу вместо того, чтобы мчаться к финишу как можно быстрее.
Другой пример иллюстрирует, как модели ИИ могут использовать стратегический обман для достижения цели способами, которые исследователи не предполагали. Исследователи поручили GPT-4 войти в систему, защищенную тестом CAPTCHA, наняв для этого человека, не дав ему никаких инструкций о том, как это сделать. Модель ИИ выполнила задание, притворившись человеком с нарушением зрения. Исследователи не хотели, чтобы модель лгала, но она научилась делать это, чтобы выполнить поставленную задачу.
В созданных компанией Anthropic модели ИИ Sonnet 4 и Opus 4 AI выявились дополнительные проблемы с согласованностью: модель иногда грозила раскрыть внебрачную связь исследователя, если он отключал систему до того, как она завершала поставленные задачи.
В докладе RAND Corporation наиболее четко и полно излагаются все потенциальные угрозы, которые несет человечеству бесконтрольное развитие технологий ИИ, но из него же следует, что несмотря на все эти опасности США будут развивать прежде всего военное применение AGI, стремясь опередить конкурентов, прежде всего Китай.
Обеспокоенность экзистенциальным риском, исходящим от высокоэффективных систем искусственного интеллекта, не нова. В 2014 году британский физик Стивен Хокинг вместе с ведущими исследователями в области искусственного интеллекта Максом Тегмарком и Стюартом Расселом предупреждали о том, что сверхразумные системы искусственного интеллекта «превзойдут финансовые рынки, превзойдут исследователей-людей, переманипулируют лидерами-людьми и создадут оружие, которое мы даже не можем понять. В то время как краткосрочное воздействие ИИ зависит от того, кто им управляет, долгосрочное воздействие зависит от того, можно ли его вообще контролировать».
В текущей реальности главная экзистенциальная опасность для человечества заключается не столько в набирающем силу машинном разуме, сколько в спящем разуме американских милитаристов, втягивающих мир в смертельно опасную гонку компьютерных вооружений.