Миллиардеры роют бункеры и боятся ИИ: пора ли беспокоиться остальным
The article has been automatically translated into English by Google Translate from Russian and has not been edited.
Переклад цього матеріалу українською мовою з російської було автоматично здійснено сервісом Google Translate, без подальшого редагування тексту.
Bu məqalə Google Translate servisi vasitəsi ilə avtomatik olaraq rus dilindən azərbaycan dilinə tərcümə olunmuşdur. Bundan sonra mətn redaktə edilməmişdir.

Миллиардеры роют бункеры и боятся ИИ: пора ли беспокоиться остальным

13.10.2025, 10:25 EST

ForumDaily New York

Подписывайтесь на ForumDaily NewYork в Google News

В последние годы среди технологических миллиардеров наблюдается необычная тенденция — строительство подземных убежищ и покупка земель с бункерами. Эти проекты вызывают множество вопросов: готовятся ли самые богатые люди мира к глобальной катастрофе или просто ищут уединение и безопасность на случай непредсказуемого будущего? BBC рассказывает подробнее.

Еще в 2014 году Марк Цукерберг начал работу над Koolau Ranch — обширным жилым комплексом площадью около 567 гектаров на гавайском острове Кауаи.

Новый дом включает в себя убежище с собственными источниками энергии и запасами продовольствия, а строители, работающие на объекте, обязались не разглашать информацию об этом.

Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.

Когда в прошлом году Цукурберга спросили, строит ли он бункер на случай конца света — основатель Facebook ответил категорическим «нет». По его словам, подземное пространство — «просто небольшое убежище, похожее на подвал».

По теме: Бум искусственного интеллекта создает миллиардеров с рекордной скоростью

Но это не остановило спекуляции — как и его решение купить 11 объектов недвижимости в районе Кресент-Парк в Калифорнии, под которыми, по-видимому, находится подземное пространство площадью в 650 квадратных метров.

В разрешении на строительство говорится, что Цукерберг оборудует подвалы. Некоторые из его соседей называют сооружение бункером. Или пещерой миллиардера.

Также есть спекуляции, что и некоторые другие лидеры технологической отрасли заняты скупкой участков земли с подземными помещениями для преобразования в роскошные бункеры.

Рейд Хоффман, соучредитель LinkedIn, говорил о «страховке от апокалипсиса». По его словам, около половины сверхбогатых людей имеют такую страховку, а популярное место для приобретения таких домов — Новая Зеландия.

ОИИ

Могут ли эти люди действительно готовиться к войне, последствиям изменения климата или какому-то другому катастрофическому событию, о котором мы еще не знаем?

В последние несколько лет развитие искусственного интеллекта только пополнило список потенциальных экзистенциальных проблем. Многие глубоко обеспокоены стремительным темпом его развития.

К середине 2023 года компания из Сан-Франциско выпустила ChatGPT. Это чат-бот, который сейчас используют сотни миллионов людей по всему миру. Илья Суцкевер – главный научный сотрудник и соучредитель Open AI. Он все больше убеждался, что компьютерные ученые находятся на грани разработки общего искусственного интеллекта (ОИИ). Когда это произойдет, машины сравняются с человеческим интеллектом.

В книге журналистки Карен Хао рассказывается, что на одном из совещаний Суцкевер предложил коллегам выкопать подземное убежище для ведущих ученых компании до того, как такая мощная технология будет выпущена в мир.

«Мы обязательно построим бункер, прежде чем выпустим ОИИ», — сказал Суцкевер. Неясно, кого он имел в виду под словом «мы».

Это проливает свет на странный факт. Многие ведущие компьютерные ученые и технологические лидеры, похоже, глубоко опасаются того, что к чему это однажды может привести.

Так когда же именно появится ОИИ? И действительно ли он может оказаться настолько революционной технологией, что обычные люди начнут его бояться?

«Раньше, чем мы думаем»

Лидеры технологической отрасли заявляют, что появление ОИИ не за горами. В декабре 2024 года глава OpenAI Сэм Альтман заявил, что это произойдет «раньше, чем думает большинство людей в мире».

Демис Хассабис, соучредитель DeepMind, предсказал, что это произойдет в ближайшие пять-десять лет. Основатель Anthropic Дарио Амодей написал в прошлом году, что «мощный ИИ» может появиться уже в 2026 году.

Другие относятся к этому скептически.

«Они постоянно меняют правила игры, — говорит Венди Холл, профессор информатики Университета Саутгемптона. — Все зависит от того, с кем вы разговариваете».

«Научное сообщество утверждает, что технология ИИ потрясающая, — добавляет она. — Но она далека от человеческого интеллекта».

Сначала необходимо будет совершить ряд «фундаментальных прорывов», соглашается Бабак Ходжат, технический директор технологической компании Cognizant.

И вряд ли это произойдет в один момент. Скорее, ИИ — это быстро развивающаяся технология, которая находится в стадии становления. Многие компании по всему миру стремятся разработать свои собственные версии этой технологии.

Одна из причин, почему эта идея волнует некоторых в Кремниевой долине, проста. Ее считают предшественником еще более продвинутой технологии — искусственного сверхинтеллекта. Это система, которая может превзойти человеческий разум.

Еще в 1958 году концепция «сингулярности» была посмертно приписана венгерскому математику Джону фон Нейману. Она описывает момент, когда компьютерный интеллект превзойдет человеческое понимание.

В книге «Генезис 2024», написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, рассматривается идея сверхмощной технологии.

Она становится настолько эффективной в принятии решений и управлении, что люди в итоге полностью передают ей контроль.

По мнению авторов, вопрос не в том, будет ли это, а в том, когда это произойдет.

Деньги для всех без необходимости работать

Сторонники новых технологий нейросетей с энтузиазмом рассказывают об их преимуществах. Они утверждают, что сверхумные ИИ помогут найти новые лекарства от смертельных болезней, решить проблему изменения климата и изобрести неиссякаемый источник чистой энергии.

Илон Маск даже заявил, что сверхинтеллектуальный ИИ может положить начало эре «всеобщего высокого дохода».

Недавно он поддержал идею о том, что ИИ станет очень дешевым и доступным.

По его мнению, почти каждый человек захочет иметь «своего личного R2-D2 и C-3PO» — дроидов из «Звездных войн».

«У каждого будет лучшее медицинское обслуживание, еда, транспорт и все остальное. Устойчивое изобилие», — восторженно заявил он.

Разумеется, у технологии есть и темная сторона. Ее могут захватить террористы и использовать как оружие. Также возникает гипотетический риск. Если ИИ решит, что человечество причиняет вред, последствия могут быть катастрофическими.

«Если что-то умнее нас, то мы должны держать это под контролем, — предупредил Тим Бернерс-Ли, создатель Всемирной паутины. — Мы должны иметь возможность это отключить».

Страны уже принимают защитные меры

В США базируются многие ведущие компании в области ИИ. В 2023 году президент Байден подписал указ. Он обязывал некоторые фирмы делиться результатами тестов безопасности с федеральным правительством. Но президент Трамп впоследствии отменил часть этого указа, назвав его «барьером» для инноваций.

В Великобритании два года назад был создан Институт безопасности ИИ. Это финансируемый государством исследовательский орган. Его цель — лучше понять риски, связанные с передовыми технологиями искусственного интеллекта.

Но есть сверхбогатые люди, у которых есть свои планы «страховки от апокалипсиса».

Паника или предосторожность

Нил Лоуренс — профессор машинного обучения в Кембриджском университете. И, по его мнению, вся эта дискуссия сама по себе не имеет смысла.

«Понятие общего искусственного интеллекта столь же абсурдно, как и понятие «искусственного общего транспортного средства», — утверждает он.

«Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий… Нет такого транспортного средства, которое могло бы делать все это», – говорит Лоуренс .

Для него разговоры об ОИИ — это отвлекающий маневр.

«Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей», – сказал он.

Современные инструменты искусственного интеллекта обучаются на огромных массивах данных.

Они хорошо распознают закономерности. Это может быть признак опухоли на снимках.

Или слово, которое с наибольшей вероятностью следует за другим в определенной последовательности.Но они не «чувствуют», какими бы убедительными ни казались их ответы.

«Есть некоторые хитрости, которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится. Но они неудовлетворительны и значительно уступают человеческим способностям», — говорит Бабак Ходжат.

Винс Линч, генеральный директор калифорнийской компании IV.AI.

«Это отличный маркетинговый ход, — говорит он. — Если ваша компания создает самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги».

«Это не дело двух лет. Для этого требуется огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок», – добавил он.

Интеллект без сознания

В некотором смысле ИИ уже превзошел человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую — решать сложные математические уравнения.

Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что ее системы ИИ совершенствуются.

Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 миллиардов нейронов и 600 триллионов синапсов. Это намного больше, чем у искусственных аналогов.

Мозг также не нуждается в паузах между взаимодействиями и постоянно адаптируется к новой информации.

«Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит. Это повлияет на его мировоззрение. А вот для LLM (большой языковой модели) это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт», — говорит Ходжат.

«LLM также не обладают метапознанием. Это означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают», – говорит он.

Это фундаментальная часть человеческого интеллекта, которую еще предстоит воспроизвести в лаборатории.

Подписывайтесь на ForumDaily NewYork в Google News
WP2Social Auto Publish Powered By : XYZScripts.com