‘Крестный отец’ ИИ предупредил об опасности искусственного интеллекта, который может захватить мир
The article has been automatically translated into English by Google Translate from Russian and has not been edited.
Переклад цього матеріалу українською мовою з російської було автоматично здійснено сервісом Google Translate, без подальшого редагування тексту.
Bu məqalə Google Translate servisi vasitəsi ilə avtomatik olaraq rus dilindən azərbaycan dilinə tərcümə olunmuşdur. Bundan sonra mətn redaktə edilməmişdir.

‘Крестный отец’ ИИ предупредил об опасности искусственного интеллекта, который может захватить мир

30.04.2025, 09:31 EST

ForumDaily New York

Подписывайтесь на ForumDaily NewYork в Google News

Ученый и физик Джеффри Хинтон рассказал о потенциальных возможностях искусственного интеллекта захватить человечество. Шансы очень велики, сообщает DailyMail.

Джеффри Хинтон считает, что вероятность того, что человечество в конечном итоге будет захвачено искусственным интеллектом, составляет один к пяти.

Хинтон и Маск предупреждают об опасности игр с «тигренком»

Хинтон, лауреат Нобелевской премии по физике, которого называют «крестным отцом» ИИ, в интервью 1 апреля сделал поразительное предсказание.

«Я согласен с Илоном Маском по этому вопросу, а именно: существует 10–20-процентная вероятность того, что ИИ захватит человечество. Но это всего лишь догадка», — сказал Хинтон.

Илон Маск, американский предприниматель, инженер и миллиардер, предполагает, что к 2029 году ИИ станет умнее всего человечества. Он описал будущее, в котором всех с работы вытеснит ИИ, способный выполнять задачи более эффективно.

По теме: ИИ предсказал конец света: когда и от чего погибнет человечество

Согласие Хинтона с Маском в этом вопросе вызывает тревогу, поскольку “крестный отец” как никто другой внес больший вклад в рождение искусственного интеллекта.

«Понять это можно на примере. Мы – как человек, у которого есть очень милый тигренок. Если вы не уверены, что он не захочет убить вас, когда вырастет, вам следует беспокоиться», — сказал Хинтон.

77-летний ученый получил Нобелевскую премию в прошлом году за десятилетия своей выдающейся работы над нейронными сетями и моделями машинного обучения, которые имитируют процессы рассуждения, выполняемые человеческим мозгом.

Он предложил эту идею в 1986 году. Теперь она интегрирована в самые популярные продукты ИИ. Вот почему во время общения с ChatGPT или любой другой моделью ИИ может возникнуть жуткое ощущение, будто вы разговариваете с другим человеком.

Тело для сверхразума

По большей части модели ИИ остаются бестелесными инструментами, запертыми в телефонах и компьютерах людей. Они существуют только для того, чтобы отвечать на наши обыденные вопросы.

Но теперь некоторые ученые делают дополнительный шаг. Они дают ИИ тела роботов, чтобы те могли выполнять физические действия в реальном мире, а не просто быть онлайн-хранилищем знаний.

Китайский автопроизводитель Chery разработал гуманоидного робота с внешностью молодой женщины и недавно продемонстрировал его на выставке Auto Shanghai 2025.

На мероприятии робота видели наливающим апельсиновый сок в стакан. По данным китайских государственных СМИ, он предназначен для консультирования людей, покупающих автомобили, и для проведения развлекательных представлений.

И Хинтон заверяет, что вскоре ИИ сможет делать гораздо больше, чем просто подавать напитки. Как и Билл Гейтс, он считает, что это произведет революцию в сферах образования и медицины.

«В таких областях, как здравоохранение, роботы станут намного лучше читать медицинские изображения, — заметил он. – Несколько лет назад я сделал прогноз, что к настоящему времени они окажутся примерно сопоставимы с экспертами, поскольку станут значительно лучше».

«Они способны просматривать миллионы рентгеновских снимков и учиться на них, тогда как врач не может», — заключил он.

Хинтон считает, что модели ИИ в конечном итоге станут «гораздо лучшими семейными врачами». Они смогут учиться на семейной истории болезни пациентов и ставить им диагнозы с большей точностью.

Что касается образования, то, по мнению Хинтона, ИИ в какой-то момент станет лучшим репетитором, которого можно купить за деньги.

«Не секрет, что если у вас есть частный репетитор, вы можете учиться чему-то примерно в два раза быстрее», — уточнил он.

«ИИ в конечном итоге станет чрезвычайно хорошим частным репетитором, который точно определит, что именно вы неправильно понимаете и какой пример надо привести, чтобы вы поняли. Так что, возможно, вы сможете учиться в три или четыре раза быстрее, — заключил ученый. – Это плохие новости для университетов, но хорошие – для людей».

Хинтон считает, что ИИ сыграет свою роль в смягчении последствий изменения климата разрабатывая более совершенные батареи и внося вклад в технологию улавливания углерода.

Разрушительный потенциал

Чтобы все это воплотилось в жизнь, ИИ должен будет достичь точки, которую эксперты обычно называют общим искусственным интеллектом (AGI).

Макс Тегмарк, физик из Массачусетского технологического института, изучает ИИ около восьми лет.

Он сказал, что AGI определяется как искусственный интеллект, который намного умнее людей и может выполнять ту работу, которую раньше делали люди.

Тегмарк считает, что люди смогут создать модель AGI до конца президентства Трампа. У Хинтона более консервативная оценка. Он считает, что это произойдет через 5-20 лет.

Несмотря на возможные преимущества достижения AGI, все еще остается угроза того, на что может быть способно такое независимое разумное создание.

Хинтон раскритиковал Google, xAI и OpenAI за то, что они ставят прибыль выше безопасности.

«Если посмотреть на то, что сейчас делают крупные компании, то они лоббируют снижение регулирования ИИ. Его и так почти нет, но они хотят сделать еще меньше», — подчеркнул Хинтон.

Он считает, что компании, занимающиеся ИИ, должны выделять гораздо больше ресурсов на исследования безопасности, до трети своих вычислительных мощностей.

Руководители всех трех этих компаний признали опасность ИИ в той или иной форме. Хинтон сказал, что простое выражение своих опасений и бездействие не помогут.

Ученый был особенно разочарован в Google, где он раньше работал. Компания отказалась от своего слова никогда не поддерживать военные приложения ИИ.

Google предоставила Армии обороны Израиля более широкий доступ к своим инструментам ИИ после атак 7 октября 2023 года.

Некоторые знают о разрушительном потенциале искусственного интеллекта, и многие из них подписали открытое письмо «Заявление о рисках ИИ».

В заявлении 2023 года говорится: «Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Хинтон – главный подписант этого заявления наряду с генеральным директором OpenAI Сэмом Альтманом, генеральным директором Anthropic Дарио Амодеи и генеральным директором Google DeepMind Демисом Хассабисом.

Подписывайтесь на ForumDaily NewYork в Google News
WP2Social Auto Publish Powered By : XYZScripts.com