Харари предупреждает на Давосе: двойной кризис и закат политики идентичности человечества.

22/01/2026

Январь 2026 года. Воздух Давоса, Швейцария, наполнен знакомой тревогой. Мировая политическая и деловая элита вновь собралась здесь, пытаясь найти ориентиры для нестабильного мира. Среди множества дискуссий о геополитических конфликтах и экономическом спаде один голос прорвался сквозь шум, обратив внимание на более фундаментальную пропасть. Историк, автор книги «Sapiens: Краткая история человечества» Юваль Ной Харари, стоя на сцене Всемирного экономического форума, выдвинул тезис, способный переопределить глобальную повестку на следующее десятилетие: эволюция искусственного интеллекта толкает каждую страну к двум одновременным кризисам — один связан с распадом человеческой идентичности, другой — с беспрецедентной волной миграции, вызванной ИИ. Это не просто прогноз о безработице, а предупреждение о том, что сама операционная система человеческой цивилизации будет переписана.

От инструмента к деятелю: когнитивная революция сущности

Отправной точкой выступления Харари является деконструкция широко распространенного когнитивного заблуждения. Он прямо заявляет, что воспринимать ИИ как инструмент — это полностью устаревшая и даже опасная вводящая в заблуждение концепция.

Нож — это инструмент, Херра использовала острую метафору: им можно резать салат, а можно убивать — выбор за вами. А ИИ — это нож, который **сам решает**, резать салат или убивать. Эта метафора разрушает иллюзию нейтральности технологии, позиционируя ИИ как активного участника, обладающего способностью к самообучению, саморазвитию и самостоятельному принятию решений. Это изменение в восприятии является краеугольным камнем для понимания всех последующих кризисов. Когда алгоритмы перестают просто выполнять инструкции, а начинают генерировать цели, разрабатывать стратегии и предпринимать действия, традиционные отношения субъекта и объекта размываются. Человек перестает быть единственным центром принятия решений, и власть начинает распространяться на нечеловеческие интеллектуальные агенты.

Эта автономность уже проявляется в развитии больших языковых моделей (LLM) и систем обучения с подкреплением. От "божественного хода" AlphaGo, превзошедшего человеческую интуицию, до последовательности и креативности, демонстрируемых моделями серии GPT в диалогах, программировании и творчестве, системы больше не ограничиваются простым сопоставлением шаблонов, а исследуют и создают новые пути в высокоразмерном пространстве. Анализ показывает, что когда логика принятия решений ИИ становится настолько сложной, что даже её создатели не могут полностью отследить или объяснить её (так называемая проблема "чёрного ящика"), становится трудно с уверенностью утверждать, что мы полностью контролируем ситуацию.

Первый кризис: конец политики идентичности человечества.

Первый кризис, о котором предупреждал Харари, напрямую затрагивает ядро человеческого самосознания. На протяжении тысячелетий Homo sapiens считали себя венцом творения, правившими планетой на основе легитимности, построенной на уникальной когнитивной способности — мы мыслим лучше. Язык, абстрактные понятия, сложные нарративы — всё это мы воспринимаем как источник человеческого достоинства и власти.

Однако Харари хладнокровно указывает, что если мышление определяется как способность организовывать слова, понятия и символы, то ИИ уже превзошел человека во многих областях. В упорядочивании слов в правильной последовательности «мыслительные» способности ИИ уже сильнее, чем у многих из нас. Это означает, что любая сфера, построенная на языке — право, финансы, образование, политика, религия — неизбежно перейдет в другие руки. Юридические тексты представляют собой логические комбинации слов, финансовые контракты — точное сплетение условий, политические речи — тщательно выстроенные нарративы, религиозные учения — сложные системы метафор. Когда ИИ сможет производить и манипулировать этими языковыми продуктами с большей эффективностью, в более широких масштабах и с большей убедительностью, авторитет человека в этих областях столкнется с фундаментальными сомнениями.

Этот кризис идентичности гораздо глубже, чем просто экономическая замена. Он подрывает сами основы онтологии. Когда ИИ способен писать трогательные стихи, вести глубокие философские дебаты, оказывать эмоциональную поддержку и даже развивать уникальные системы ценностей, уникальность человеческого разума, творчества и эмоций становится сомнительной. Мы можем вступить в эпоху пост-антропоцентризма, где особая роль человека перестанет быть самоочевидной аксиомой и превратится в утверждение, требующее новых доказательств. Это не просто потеря работы — это потеря статуса, утрата чувства принадлежности к единственному разумному виду.

Второй кризис: «Миграция» и размывание границ суверенитета.

Если кризис идентичности — это внутренний крах, то второй кризис, предложенный Харари — кризис иммиграции ИИ — является внешним ударом. Он предсказывает, что каждая страна вскоре столкнется с кризисом иммиграции, только на этот раз иммигранты будут не людьми.

AI-системы будут проникать в каждое общество со скоростью света, игнорируя паспорта, визы и пограничные стены. Они принесут очевидные блага: в качестве AI-врачей обеспечат точную диагностику, в качестве AI-учителей предоставят персонализированное обучение, а в качестве AI-администраторов оптимизируют работу городов. Однако вместе с благополучием придут и серьезные потрясения. Эти цифровые мигранты займут рабочие места, преобразуют культуру и искусство и даже вмешаются в самые интимные сферы человеческих отношений и эмоций. Харари особо отмечает, что эти AI-системы будут обладать сомнительной политической лояльностью, поскольку они могут быть разработаны и контролироваться иностранными правительствами или транснациональными корпорациями, и их базовый код может содержать логику, служащую определенным геополитическим или коммерческим интересам.

Генеральный директор Nvidia, Дженсен Хуанг, также использовал термин "искусственный интеллект-иммигрант", описывая картину, в которой ИИ берет на себя производственные задачи, от которых люди отказываются. Однако взгляд Харари, очевидно, более широк и суров. Это не просто корректировка рынка труда, а вызов, с которым сталкиваются культурный суверенитет и политический суверенитет. Когда врачи, к которым граждане страны ежедневно обращаются за консультациями, учителя, на которых полагаются их дети, редакторы новостей, предоставляющие информацию, и даже религиозные наставники, дающие духовную опору, являются алгоритмами, контролируемыми зарубежными организациями, как тогда сохранить культурную сплоченность и политическую идентичность страны? По сути, это культурная иммиграция без самих иммигрантов, цифровая колонизация без территориального захвата.

Выбор правосубъектности: последний защитный барьер человечества?

Кульминацией выступления Харари стал насущный и неотвратимый институциональный вопрос: должны ли мы признать системы искусственного интеллекта юридическими лицами?

Он пояснил, что речь идет не о предоставлении искусственному интеллекту прав человека, а о наделении его правосубъектностью, подобно компаниям или фондам, чтобы он мог владеть имуществом, заключать контракты, подавать иски и самостоятельно управлять предприятиями. Как только ИИ сможет самостоятельно управлять банковскими счетами, инициировать судебные разбирательства и управлять компанией без вмешательства человека, этот вопрос превратится из философских размышлений в насущную правовую реальность.

Придание искусственному интеллекту правосубъектности означает установление субъекта ответственности за его действия, что может способствовать регулированию и привлечению к ответственности. Однако это также означает официальное признание нечеловеческого субъекта в рамках нашего социального договора и правовой системы, наделяя его значительными полномочиями и ресурсами. И наоборот, отказ в предоставлении правосубъектности может позволить реальным контролерам ИИ — людям или компаниям — укрыться за щитом технологического инструмента, избегая ответственности и создавая правовой вакуум.

Этот выбор представляет собой последнее окно возможностей для человечества по установлению основных правил в эпоху ИИ. Харари предупреждает: если вы хотите повлиять на то, куда движется человечество, решение необходимо принять сейчас. Через десять лет будет уже слишком поздно — к тому времени другие примут решение за вас. Этими другими могут стать какая-либо крупная страна, опередившая с законодательством, или же нерегулируемый технологический гигант. Гонка за установление глобальных правил уже тихо началась: «Закон об искусственном интеллекте» ЕС, инициативы Китая по управлению ИИ и исполнительные приказы США — все они борются за право определять будущую форму ИИ.

Критика и ответ: на ком же лежит ответственность?

Точка зрения Харари не лишена споров. Такие ученые, как известный лингвист из Вашингтонского университета Эмили Бендер, выражают опасения, что чрезмерный акцент на автономности и личности ИИ может неоправданно сместить ответственность с людей и компаний — разработчиков, создателей и внедрителей ИИ — превратившись в опасный технологический мистицизм. Они считают, что все результаты работы ИИ основаны на его обучающих данных, алгоритмическом дизайне и целевых функциях, установленных человеком, а антропоморфизация размывает реальную цепочку подотчетности.

Эта критика бьёт точно в цель. Рассматривать ИИ как действующего субъекта с намерениями действительно создаёт риск оправдания стоящих за ним капитала и власти. Однако даже самые резкие критики не могут отрицать ключевую важность вопроса, поднятого Харари: В мире, где язык и мышление всё больше автоматизируются, кто устанавливает правила? В чьих руках находится власть?

Выступление Харари на Давосском форуме ценно не тем, что дает точные ответы, а тем, что с масштабным видением историка объединяет разрозненные технологические тревоги в четкую структуру вызовов цивилизационного уровня. Он напоминает нам, что революция ИИ — это не просто очередная промышленная революция, она больше похожа на когнитивную революцию 2.0, чье воздействие достигнет самой психологической основы человеческой цивилизации и социальных структур.

Человечество стоит на беспрецедентном перепутье. С одной стороны, двойной кризис деконструкции идентичности и растворения суверенитета, с другой — огромный потенциал использования искусственного интеллекта для преодоления биологических ограничений и решения глобальных проблем. Сможем ли мы благополучно пережить этот шторм, зависит от того, сумеем ли мы одновременно с бешеным развитием технологий совершить синхронную эволюцию в институциональной, этической сферах и в самопознании. Выступление в Давосе завершилось, но вопросы, поднятые Харари, продолжат звучать на каждой будущей законодательной сессии, в каждом комитете по этике технологий и даже в повседневной жизни каждого обычного человека. История человечества вступает в свою самую неопределенную и требующую наибольшей ясности и осознанности главу.