Миллиардеры роют бункеры и боятся ИИ: пора ли беспокоиться остальным
13.10.2025, 10:25 EST
ForumDaily New York
В последние годы среди технологических миллиардеров наблюдается необычная тенденция — строительство подземных убежищ и покупка земель с бункерами. Эти проекты вызывают множество вопросов: готовятся ли самые богатые люди мира к глобальной катастрофе или просто ищут уединение и безопасность на случай непредсказуемого будущего? BBC рассказывает подробнее.
Еще в 2014 году Марк Цукерберг начал работу над Koolau Ranch — обширным жилым комплексом площадью около 567 гектаров на гавайском острове Кауаи.
Новый дом включает в себя убежище с собственными источниками энергии и запасами продовольствия, а строители, работающие на объекте, обязались не разглашать информацию об этом.
Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.
Когда в прошлом году Цукурберга спросили, строит ли он бункер на случай конца света — основатель Facebook ответил категорическим «нет». По его словам, подземное пространство — «просто небольшое убежище, похожее на подвал».
По теме: Бум искусственного интеллекта создает миллиардеров с рекордной скоростью
Но это не остановило спекуляции — как и его решение купить 11 объектов недвижимости в районе Кресент-Парк в Калифорнии, под которыми, по-видимому, находится подземное пространство площадью в 650 квадратных метров.
В разрешении на строительство говорится, что Цукерберг оборудует подвалы. Некоторые из его соседей называют сооружение бункером. Или пещерой миллиардера.
Также есть спекуляции, что и некоторые другие лидеры технологической отрасли заняты скупкой участков земли с подземными помещениями для преобразования в роскошные бункеры.
Рейд Хоффман, соучредитель LinkedIn, говорил о «страховке от апокалипсиса». По его словам, около половины сверхбогатых людей имеют такую страховку, а популярное место для приобретения таких домов — Новая Зеландия.
ОИИ
Могут ли эти люди действительно готовиться к войне, последствиям изменения климата или какому-то другому катастрофическому событию, о котором мы еще не знаем?
В последние несколько лет развитие искусственного интеллекта только пополнило список потенциальных экзистенциальных проблем. Многие глубоко обеспокоены стремительным темпом его развития.
К середине 2023 года компания из Сан-Франциско выпустила ChatGPT. Это чат-бот, который сейчас используют сотни миллионов людей по всему миру. Илья Суцкевер – главный научный сотрудник и соучредитель Open AI. Он все больше убеждался, что компьютерные ученые находятся на грани разработки общего искусственного интеллекта (ОИИ). Когда это произойдет, машины сравняются с человеческим интеллектом.
В книге журналистки Карен Хао рассказывается, что на одном из совещаний Суцкевер предложил коллегам выкопать подземное убежище для ведущих ученых компании до того, как такая мощная технология будет выпущена в мир.
«Мы обязательно построим бункер, прежде чем выпустим ОИИ», — сказал Суцкевер. Неясно, кого он имел в виду под словом «мы».
Это проливает свет на странный факт. Многие ведущие компьютерные ученые и технологические лидеры, похоже, глубоко опасаются того, что к чему это однажды может привести.
Так когда же именно появится ОИИ? И действительно ли он может оказаться настолько революционной технологией, что обычные люди начнут его бояться?
«Раньше, чем мы думаем»
Лидеры технологической отрасли заявляют, что появление ОИИ не за горами. В декабре 2024 года глава OpenAI Сэм Альтман заявил, что это произойдет «раньше, чем думает большинство людей в мире».
Демис Хассабис, соучредитель DeepMind, предсказал, что это произойдет в ближайшие пять-десять лет. Основатель Anthropic Дарио Амодей написал в прошлом году, что «мощный ИИ» может появиться уже в 2026 году.
Другие относятся к этому скептически.
«Они постоянно меняют правила игры, — говорит Венди Холл, профессор информатики Университета Саутгемптона. — Все зависит от того, с кем вы разговариваете».
«Научное сообщество утверждает, что технология ИИ потрясающая, — добавляет она. — Но она далека от человеческого интеллекта».
Сначала необходимо будет совершить ряд «фундаментальных прорывов», соглашается Бабак Ходжат, технический директор технологической компании Cognizant.
И вряд ли это произойдет в один момент. Скорее, ИИ — это быстро развивающаяся технология, которая находится в стадии становления. Многие компании по всему миру стремятся разработать свои собственные версии этой технологии.
Одна из причин, почему эта идея волнует некоторых в Кремниевой долине, проста. Ее считают предшественником еще более продвинутой технологии — искусственного сверхинтеллекта. Это система, которая может превзойти человеческий разум.
Еще в 1958 году концепция «сингулярности» была посмертно приписана венгерскому математику Джону фон Нейману. Она описывает момент, когда компьютерный интеллект превзойдет человеческое понимание.
В книге «Генезис 2024», написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, рассматривается идея сверхмощной технологии.
Она становится настолько эффективной в принятии решений и управлении, что люди в итоге полностью передают ей контроль.
По мнению авторов, вопрос не в том, будет ли это, а в том, когда это произойдет.
Деньги для всех без необходимости работать
Сторонники новых технологий нейросетей с энтузиазмом рассказывают об их преимуществах. Они утверждают, что сверхумные ИИ помогут найти новые лекарства от смертельных болезней, решить проблему изменения климата и изобрести неиссякаемый источник чистой энергии.
Илон Маск даже заявил, что сверхинтеллектуальный ИИ может положить начало эре «всеобщего высокого дохода».
Недавно он поддержал идею о том, что ИИ станет очень дешевым и доступным.
По его мнению, почти каждый человек захочет иметь «своего личного R2-D2 и C-3PO» — дроидов из «Звездных войн».
«У каждого будет лучшее медицинское обслуживание, еда, транспорт и все остальное. Устойчивое изобилие», — восторженно заявил он.
Разумеется, у технологии есть и темная сторона. Ее могут захватить террористы и использовать как оружие. Также возникает гипотетический риск. Если ИИ решит, что человечество причиняет вред, последствия могут быть катастрофическими.
«Если что-то умнее нас, то мы должны держать это под контролем, — предупредил Тим Бернерс-Ли, создатель Всемирной паутины. — Мы должны иметь возможность это отключить».
Страны уже принимают защитные меры
В США базируются многие ведущие компании в области ИИ. В 2023 году президент Байден подписал указ. Он обязывал некоторые фирмы делиться результатами тестов безопасности с федеральным правительством. Но президент Трамп впоследствии отменил часть этого указа, назвав его «барьером» для инноваций.
В Великобритании два года назад был создан Институт безопасности ИИ. Это финансируемый государством исследовательский орган. Его цель — лучше понять риски, связанные с передовыми технологиями искусственного интеллекта.
Но есть сверхбогатые люди, у которых есть свои планы «страховки от апокалипсиса».
Паника или предосторожность
Нил Лоуренс — профессор машинного обучения в Кембриджском университете. И, по его мнению, вся эта дискуссия сама по себе не имеет смысла.
«Понятие общего искусственного интеллекта столь же абсурдно, как и понятие «искусственного общего транспортного средства», — утверждает он.
«Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий… Нет такого транспортного средства, которое могло бы делать все это», – говорит Лоуренс .
Для него разговоры об ОИИ — это отвлекающий маневр.
«Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей», – сказал он.
Современные инструменты искусственного интеллекта обучаются на огромных массивах данных.
Они хорошо распознают закономерности. Это может быть признак опухоли на снимках.
Или слово, которое с наибольшей вероятностью следует за другим в определенной последовательности.Но они не «чувствуют», какими бы убедительными ни казались их ответы.
«Есть некоторые хитрости, которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится. Но они неудовлетворительны и значительно уступают человеческим способностям», — говорит Бабак Ходжат.
Винс Линч, генеральный директор калифорнийской компании IV.AI.
«Это отличный маркетинговый ход, — говорит он. — Если ваша компания создает самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги».
«Это не дело двух лет. Для этого требуется огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок», – добавил он.
Интеллект без сознания
В некотором смысле ИИ уже превзошел человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую — решать сложные математические уравнения.
Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что ее системы ИИ совершенствуются.
Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 миллиардов нейронов и 600 триллионов синапсов. Это намного больше, чем у искусственных аналогов.
Мозг также не нуждается в паузах между взаимодействиями и постоянно адаптируется к новой информации.
«Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит. Это повлияет на его мировоззрение. А вот для LLM (большой языковой модели) это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт», — говорит Ходжат.
«LLM также не обладают метапознанием. Это означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают», – говорит он.
Это фундаментальная часть человеческого интеллекта, которую еще предстоит воспроизвести в лаборатории.