Today

Трезвый взгляд, оценка и подготовка будущему с ИИ

В основу материала легли 3 больших исследования:
https://arxiv.org/abs/2602.20946
https://www.citriniresearch.com/p/2028gic
https://www.citadelsecurities.com/news-and-insights/2026-global-intelligence-crisis/

Мы всё ещё спорим об ИИ так, будто главный вопрос — станет ли он умнее человека.

Но главный вопрос уже в другом.

Что происходит с обществом, рынком труда и самой логикой экономики, когда интеллект перестаёт быть дефицитом?

Именно в этом месте разговор становится по-настоящему взрослым.
Не про “восстание машин”.
Не про мемы о том, что ИИшечка всех заменит.
И даже не только про производительность.

А про куда более неприятную вещь: что будет с человеком, если умственный труд резко подешевеет, а скорость адаптации людей, компаний и институтов окажется слишком медленной.

Недавняя статья Some Simple Economics of AGI https://arxiv.org/abs/2602.20946 формулирует это жёстко: когда исполнение становится дешёвым и масштабируемым, главным ограничением становится уже не сам интеллект, а человеческая способность проверять, подтверждать, понимать контекст и нести ответственность за результат. Авторы называют это разрывом проверяемости: машины могут делать всё больше, а люди не успевают это валидировать с той же скоростью.

И если эта рамка верна хотя бы наполовину, то будущий кризис — если он придёт — будет не кризисом “слишком слабого ИИ”, а наоборот: слишком успешного ИИ, слишком быстро внедрённого в слишком неподготовленный мир.

Мы стоим не перед концом работы вообще, а перед концом старой модели

Долгое время экономика держалась на негласной сделке (социальном договоре).

Если ты умеешь лучше других анализировать, писать, кодить, консультировать, считать, координировать, сводить сложное к понятному, — ты дорогой специалист. Потому что людей с такими способностями меньше, чем задач, где они нужны.

Но если значительную часть этой когнитивной работы начинает делать машина, дешёво и в больших объёмах, то ломается не одна профессия. Ломается сама старая связка: “умственный труд редок, значит он дорог”. В статье про AGI это описано как переход от мира, где ценился навык сам по себе, к миру, где всё больше будет цениться то, что можно измерить, проверить, формализовать и встроить в систему.

Это не означает, что “все юристы, маркетологи, программисты, аналитики и менеджеры исчезнут”.

Это означает, что их ценность будет определяться уже не просто наличием головы на плечах.

А тем, что именно они делают такого, чего недостаточно просто сгенерировать.

Почему тревога всё же не высосана из пальца?

На этом месте обычно включаются два лагеря.

Один говорит: “Да бросьте, технологические революции всегда пугали, а потом создавали новые отрасли”.

Другой отвечает: “Нет, на этот раз всё иначе, ИИ раздавит белых воротничков быстрее, чем рынок успеет приспособиться”.

Проблема в том, что обе стороны отчасти правы.

С одной стороны, сейчас уже есть вполне серьёзные сигналы, что переход будет болезненным, особенно для молодых и для входа в профессии. Глава ФРС Лиза Кук в феврале 2026 года прямо сказала, что ИИ может вызвать рост краткосрочной безработицы, причём такой, который обычным снижением ставок не лечится; по её словам, мы можем приближаться к самой значительной реорганизации труда за многие поколения. Похожую мысль высказал и Рафаэль Бостик: если работодателям в структурном смысле нужно меньше людей, денежная политика это не исправит, тут нужны уже образование, переподготовка и другие меры.

Ещё важнее, что ранние трещины уже видны на уровне данных. Исследование Stanford Digital Economy Lab показывает: после массового распространения GenAI молодые работники 22–25 лет в наиболее AI-экспонированных профессиях столкнулись с относительным падением занятости на 16%, тогда как у более опытных работников в тех же профессиях занятость оставалась стабильной или росла. Это важный сигнал: ИИ пока не “съел рынок труда целиком”, но он уже начинает подрезать нижние ступени карьерной лестницы.

Похожие сигналы пришли и из Ирландии: исследование министерства финансов страны зафиксировало, что в AI-рисковых секторах у работников 15–29 лет занятость просела, а в технологических фирмах падение для молодых составило около 20%, при том что у работников 30–59 лет в тех же компаниях занятость росла. То есть картина опять та же: не тотальная катастрофа, а удар по входу в профессию.

И это хорошо сочетается с мыслью из статьи Some Simple Economics of AGI о так называемом Missing Junior Loop: если ИИ забирает простые и полутиповые задачи, то у людей исчезает естественный контур ученичества. А без него через несколько лет начинает проседать и сама система выращивания сильных специалистов. [1])

Но паниковать “теперь всё рухнет” тоже рано

Теперь важная развилка.

То, что молодым становится труднее войти в ряд интеллектуальных профессий, ещё не доказывает, что мировая экономика вот-вот сорвётся в штопор.

И здесь как раз интересно сравнить тревожную логику Citrini Research с критикой от Citadel Securities.

Citrini в своём сценарии The 2028 Global Intelligence Crisis прямо пишет, что это не прогноз, а мысленный эксперимент. Внутри него ИИ оказывается слишком успешным: увольнения повышают маржинальность компаний, деньги льются обратно в compute, белые воротнички теряют доходы, спрос слабеет, ипотечная и кредитная система начинают скрипеть, а к 2028 году безработица доходит до 10,2%, а S&P 500 падает на 38% от пика. Это не “официальный прогноз мира”, а стресс-сценарий на тему: что будет, если успех ИИ окажется для экономики слишком резким.

Citadel Securities отвечает на это холоднее. Их аргумент такой: вы слишком быстро экстраполируете технологические возможности в экономическую реальность. На момент публикации их ответа безработица в США была около 4,28%, вакансии по software engineering, по их данным на базе Indeed, росли на 11% год к году, а данные St. Louis Fed по использованию ИИ на работе не показывали взрывного нелинейного скачка интенсивности. Citadel делает ставку на старую добрую S-кривую: технологии могут улучшаться рекурсивно, но их внедрение в реальную экономику обычно идёт намного медленнее — из-за инфраструктуры, энергии, оргизменений, регулирования и банального человеческого трения.

И в этом есть рациональное зерно.

Данные St. Louis Fed действительно показывают быстрый рост использования GenAI в целом — до 54,6% взрослых в 2025 году и до 37,4% для рабочих сценариев, — но при этом доля всех рабочих часов, в которых используется GenAI, выросла куда скромнее: с 4,1% до 5,7%. То есть охват уже большой, а вот интенсивность повседневного встраивания в работу растёт заметно медленнее.

OECD тоже показывает не мгновенную сингулярность, а быстрое, но всё же человеческое распространение: в 2025 году ИИ использовали 20,2% фирм против 14,2% в 2024 и 8,7% в 2023. Это много, это быстро, но это всё ещё не “все и сразу”.

А глава ФРС Кристофер Уоллер вообще прямо сказал, что не ждёт, что ИИ “взорвёт рынок труда” и полностью вытащит человека из картинки; по его словам, люди приспособятся и будут использовать ИИ как инструмент, а не просто исчезнут из уравнения.

То есть честная позиция на сегодня такая: риски велики, но сценарий мгновенного обрушения пока не подтверждён данными.

Главный риск — не сам ИИ, а разрыв скоростей и неосведомленность 95% людей в мире

На мой взгляд, именно здесь и находится суть.

Не в вопросе “будет ли всё плохо” или “будет ли всё хорошо”.

А в вопросе: успеем ли мы перестроиться с той же скоростью, с какой удешевляется когнитивное исполнение.

Потому что история технологий обычно давала обществу время. Банкоматы, интернет, ПК, облака, мобильная связь — всё это меняло рынки труда, но не за один сезон. У школ, вузов, компаний, семей, регуляторов и самих работников было пусть не комфортное, но всё же время на адаптацию.

С ИИ проблема в том, что прогресс в возможностях систем уже идёт с бешеной скоростью, а адаптация людей и институтов — как обычно. Медленно. С задержками. С отрицанием. С бюрократией. С надеждой “может, пронесёт”.

И вот это сочетание — быстрый снос старых ролей и медленное выращивание новых — и есть по-настоящему опасный сценарий. Его не обязательно называть апокалипсисом. Иногда достаточно другого слова: кассовый разрыв цивилизации.

Статья про AGI это формулирует через “разрыв проверяемости”, а рынок труда показывает это через “разрыв входа”: машины уже делают часть работы, а новые устойчивые человеческие роли ещё не сформировались.

Зачем нужен человек в новой экономике

Вот здесь самое важное.

Если мыслить слишком примитивно, можно решить, что человек в будущем нужен либо как “оператор ИИ”, либо как “социальный балласт”. Но это плохая оптика.

Человек нужен не потому, что ИИ обязательно окажется тупым.

Человек нужен потому, что мир — это не просто поток задач на генерацию ответа.

Нужен кто-то, кто задаёт цель.

Нужен кто-то, кто отличает формально красивый результат от реально хорошего.

Нужен кто-то, кто понимает контекст, видит последствия, замечает скрытые риски.

Нужен кто-то, кто способен подписаться под решением именем, репутацией, капиталом, должностью, совестью.

Именно поэтому авторы статьи про AGI считают, что рента будущего будет стекаться не только к самим моделям, а к инфраструктуре доверия: к проверке, ground truth, происхождению данных, криптографической подлинности, аудиту и liability underwriting — способности не просто сгенерировать, а гарантировать и страховать результат.

С практической точки зрения это означает, что в цене будут расти люди и компании, которые умеют:

— ставить правильную цель, а не просто выдавать ответ;
— проектировать контуры проверки;
— принимать решения в условиях неоднозначности;
— соединять цифровое с физическим, абстрактное — с последствиями;
— брать на себя ответственность за внедрение и итог.

Поэтому вопрос будущего — не “нужен ли человек вообще”.

Вопрос другой: за что именно будут платить человеку, когда генерация подешевеет почти до нуля.

Какая работа будет слабеть первой

Больше всего уязвимы не обязательно “самые глупые” профессии.

Уязвимы те роли, где много задач, которые:

— можно формализовать;
— можно оценить по шаблону;
— можно прогнать через понятный чеклист;
— можно быстро распараллелить;
— не требуют сильной личной ответственности и контекстного суждения.

Поэтому под давлением оказываются многие стартовые и промежуточные роли в программировании, аналитике, юридической подготовке, консалтинге, клиентской поддержке, маркетинге, контент-производстве, бэк-офисе, документарной работе. Это согласуется и с логикой ILO, где самую высокую экспозицию к GenAI сохраняют клерикальные и сильно оцифрованные роли, и с WEF, где 40% работодателей ожидают сокращать штат там, где ИИ может автоматизировать задачи.

Важно не путать: это не значит, что “исчезнут профессии целиком”.

Это значит, что сожмутся отдельные этажи внутри профессий. А это иногда больнее, чем полное исчезновение отрасли, потому что ломает карьерные траектории незаметно и по частям.

Какая работа будет, наоборот, дорожать

На другом конце окажутся роли, где мало просто “уметь делать”.

Там нужна способность оценивать, судить, договариваться, держать сложность, учитывать последствия и работать с реальностью, а не только с текстом.

Проще говоря, дорожать будет всё, что держится на сочетании:

— контекста;
— доверия;
— ответственности;
— репутации;
— опыта;
— неформализуемого человеческого суждения.

IMF ещё в 2024 году предупреждал: ИИ затронет почти 40% рабочих мест в мире, а в развитых экономиках — около 60%, при этом часть ролей будет замещаться, часть — усиливаться. Ключевой вопрос не только в количестве рабочих мест, а в том, как именно будут распределены выгоды и потери.

И вот здесь становится важной идея не просто “AI for automation”, а AI for augmentation — ИИ как усилитель человека. Не тот, что просто режет штат, а тот, что поднимает производительность, расширяет диапазон задач и позволяет человеку работать на более высоком уровне. Именно по такому пути, похоже, и стоит идти, если хочется не “полой экономики”, а нормального перехода.

Что делать уже сегодня

Самый бесполезный вариант сейчас — спорить, кто прав: думеры или технооптимисты.

Полезнее исходить из более зрелой позиции: сильная перестройка уже идёт, но итог ещё не решён.

Из этого следуют очень практичные выводы.

Первое. Перестать описывать себя через список операций

Если твоя профессиональная ценность целиком описывается списком задач, это плохой знак.

Задачи автоматизируются.

Гораздо полезнее спросить себя:

— где я создаю доверие;
— где я влияю на решение, а не только на исполнение;
— что я умею проверять лучше других;
— в какой момент без моего суждения качество реально падает;
— где у меня есть не только навык, но и контекст.

Второе. Учиться работать с ИИ как с рабочей средой, а не как с игрушкой

Умение “попросить у модели текст” — это уже почти базовая грамотность.

Нужны навыки следующего слоя:

— постановка задачи;
— декомпозиция;
— критерии качества;
— цикл генерация → проверка → исправление;
— понимание границ модели;
— умение использовать несколько инструментов, а не один чат.

Третье. Сдвигаться ближе к проверке, ответственности и внедрению

В мире дешёвой генерации ценность смещается туда, где нужно:

— валидировать;
— тестировать;
— аудировать;
— сертифицировать;
— объяснять;
— страховать последствия;
— отвечать за реальный исход.

Это касается не только аудиторов и юристов. Это касается вообще почти всех сфер, где ошибка что-то реально стоит.

Четвёртое. Накапливать труднокопируемый контекст

Контекст — это не абстракция.

Это знание отрасли, людей, рынка, процессов, ограничений, типовых сбоев, политических нюансов, психологии клиента, внутренних трений команды, реальных причин, почему “идеальная модель” не взлетает в жизни.

Такой контекст копируется куда хуже, чем отдельный навык.

Пятое. Не строить жизнь на вере в мир, где младшие роли вернутся сами собой

Это особенно важно для молодых.

Ставка “пока посижу на простых задачах, а там вырасту” может работать хуже, чем раньше. Если нижние ступени профессий ужимаются, нужно быстрее тянуться к связкам: доменные знания + ИИ + коммуникация + ответственность + бизнес-логика. Иначе есть риск зависнуть в той зоне, где ИИ уже достаточно хорош, а до роли с настоящей субъектностью ты ещё не дорос.


Практический гид 2026–2030: что делать специалисту, предпринимателю и родителю

Если ты специалист

Тебе не нужно становиться “чистым AI-человеком”.

Тебе нужно стать человеком, который умеет делать с ИИ то, что другие пока делают медленнее, дороже и менее надёжно.

Фокус на ближайшие годы:

  1. Освой свой стек ИИ-инструментов по-настоящему, а не поверхностно.
  2. Подними доменную глубину: отрасль, процессы, экономика, реальные боли.
  3. Учись не только делать, но и оценивать качество сделанного.
  4. Формируй публичную и профессиональную репутацию.
  5. Не ставь всё на одну роль — строй несколько линий дохода и компетенций.

Если ты предприниматель

Для предпринимателя вопрос уже не в том, “как внедрить ИИ”.

Вопрос в другом: ты усиливаешь клиента или просто делаешь вид, что экономишь ему ФОТ.

Компании, которые будут просто резать людей, могут краткосрочно показать красивую маржу. Но статья про AGI справедливо предупреждает: если не масштабировать одновременно проверку, наблюдаемость и контуры ответственности, можно получить хрупкую систему с красивым фасадом. ([arXiv][1])

Что делать предпринимателю:

  1. Делить генерацию и независимую проверку.
  2. Не убивать полностью junior-контур внутри команды.
  3. Вкладываться в observability, evals, audit trails.
  4. Искать use cases, где ИИ реально усиливает клиента, а не просто удешевляет процесс.
  5. Продавать не “магический интеллект”, а достоверный результат.

Если ты родитель

Родителям, пожалуй, сложнее всех.

Потому что дети войдут в мир, где простое “учись хорошо, получишь офисную работу” уже не выглядит железной гарантией.

Но и паниковать здесь не надо.

Нужно сместить акцент воспитания с накопления энциклопедических фактов на развитие того, что дольше всего остаётся человеческим:

— внимание;
— способность глубоко думать;
— письмо и речь;
— умение задавать вопросы;
— вкус и различение;
— терпение;
— работа с людьми;
— ответственность;
— способность доводить дело до результата.

Плюс — цифровая грамотность нового типа: не просто “уметь пользоваться приложениями”, а понимать, где машине можно доверять, а где нельзя, как проверять, как не растворяться в подсказках, как не терять собственное мышление.


Продолжение: что не так с отчётом Citrini — и в чём Citadel, возможно, прав

Теперь — отдельно о критике Citrini через призму материала Citadel Securities The 2026 Global Intelligence Crisis.

Скажу сразу: Citadel не “разоблачил” тему полностью.

Но и Citrini явно не стоит читать как пророчество.

Правильнее видеть здесь спор двух оптик:

— одна показывает левый хвост риска, то есть неприятный, но возможный сценарий;
— другая напоминает, что рынок труда и макроэкономика сложнее, чем один красивый апокалиптический нарратив.

В чём Citrini попал в нерв

Citrini попадает в важную болевую точку.

Он заставляет смотреть не на то, “получится ли ИИ”, а на то, что будет, если он действительно получится слишком хорошо. В этом смысле их сценарий полезен: он ломает самодовольную мысль, будто рост производительности автоматически и безболезненно превращается в общее процветание.

Они правы в трёх вещах.

Во-первых, в том, что ранний удар может прийти именно по белым воротничкам и по людям, чьи доходы были основой потребительского спроса. Это не фантазия с нуля: ФРС уже публично обсуждает структурный рост безработицы, сложности для entry-level и то, что денежная политика тут будет бессильна без других мер.

Во-вторых, в том, что переход может быть неравномерным. На уровне агрегатов всё может выглядеть ещё терпимо, а на уровне молодых специалистов и нижних ступеней карьеры уже начинаться неприятная эрозия. Это хорошо видно по Stanford и Ирландии.

В-третьих, в том, что нельзя бесконечно успокаивать себя историческими аналогиями. Да, прошлые технологические революции в итоге создавали новые рынки. Но сама статья про AGI справедливо добавляет новый параметр: сегодня проблема не только в том, что ИИ делает работу, а в том, что люди могут не успеть проверять и осмыслять всё, что он начинает делать в масштабе. Это не обычная “ещё одна автоматизация”.

Где Citrini перегибает

Но вот дальше у Citrini начинается то, за что его вполне заслуженно атакует Citadel.

Главная проблема отчёта в том, что он очень эффектно строит связный сценарий, а потом этот сценарий начинает выглядеть как почти неизбежная траектория.

Citadel правильно указывает на несколько слабых мест.

1. Скорость внедрения не равна скорости прогресса моделей

Это, пожалуй, их самый сильный аргумент.

То, что ИИ способен всё больше, ещё не означает, что компании, рынки, регуляторы, энергетика, цепочки поставок, внутренние процессы и пользователи смогут мгновенно перевести эту способность в массовое экономическое замещение труда.

Citadel напоминает, что технологии распространяются по S-кривой, а не по прямой. И в этом им помогают реальные данные: использование GenAI быстро растёт, но интенсивность применения на работе пока растёт заметно медленнее, чем сам шум вокруг темы.

Это сильная критика.

Потому что многие апокалиптические сценарии молча предполагают, что как только модели стали лучше, экономика почти сразу перестраивается под них. На практике так бывает редко.

2. Данные пока не подтверждают общий обвал

Citadel также опирается на факт, что на момент публикации ответа безработица оставалась низкой, а software job postings по Indeed/FRED росли. И это правда важный контраргумент против идеи, что рынок труда уже сорвался в штопор.

Более того, глава ФРС Уоллер тоже занимал заметно более спокойную позицию, чем Кук и Бостик: он прямо говорил, что не ждёт полного выноса человека из системы и считает, что люди адаптируются. ([Reuters][9])

То есть Citadel прав в одном простом смысле: нельзя выдавать тревожный сценарий за уже наблюдаемую макрореальность.

3. Продуктивность — это всё же positive supply shock

Citadel отдельно бьёт по идее “Ghost GDP” и утверждает, что если продуктивность растёт, то по национальным счетам это не может одновременно означать устойчивый обвал спроса без компенсирующего роста где-то ещё — в инвестициях, потреблении, госрасходах или внешнем спросе. Они напоминают базовую вещь: экономика — это не только зарплаты работников, это ещё и цены, прибыль, инвестиции, налоги, перераспределение и новые бизнесы.

И это тоже разумное замечание.

Потому что слишком многие тексты про ИИ рассуждают так, будто потеря дохода одной группы автоматически означает коллапс всей системы. Это возможно, но не автоматически.

Где Citadel сам недоговаривает

Но на этом месте важно не впасть в другую крайность — “раз рынок пока не рухнул, значит тревога была выдуманной”.

У Citadel есть свои слепые зоны.

1. Агрегаты умеют скрывать раннюю боль

Низкая общая безработица — это хороший аргумент против паники, но слабый аргумент против более тонкой тревоги.

Потому что перестройка начинается не всегда с общего обвала. Часто она сначала бьёт по молодым, новичкам, выпускникам, контрактникам, отдельным секторам и функциям. И именно это мы уже видим в данных Stanford и Ирландии.

Иными словами, Citadel прав, что “сейчас не апокалипсис”.

Но из этого совсем не следует, что система здорова.

2. Макроучёт не решает проблему распределения

Даже если Citadel прав насчёт макроэкономических тождеств, это не снимает ключевой политической и социальной проблемы: кто получит выгоду от роста производительности, а кто заплатит переходной ценой.

Можно иметь приличный ВВП, растущую производительность и одновременно — очень неприятную распределительную динамику: слабый рост доходов у одних, резкое усиление капитала у других, ухудшение входа в карьеру у третьих. IMF как раз предупреждал, что ИИ может не только повысить рост, но и усилить неравенство, если политика не будет активной.

То есть “по счетам всё сошлось” ещё не означает “общество это нормально переварило”.

3. Нынешняя медленность не гарантирует завтрашнюю медленность

Citadel делает сильную ставку на трение, инфраструктуру и ограниченность diffusion speed.

Но история новых платформ любит ломать интуицию. Технология может долго казаться “ещё не везде”, а потом, после нескольких организационных сдвигов, стандартов и UI-упрощений, резко ускориться. OECD показывает рост внедрения среди фирм, St. Louis Fed — рост использования у населения, а сами компании всё активнее встраивают ИИ в рабочие процессы.

Так что аргумент “пока не видно нелинейности” — хороший аргумент против немедленной истерики, но не железная защита от более быстрого перелома впереди.

4. Citadel смотрит как рынок, а не как общество

И это, пожалуй, главный мета-пункт.

Citadel Securities — это не академический институт и не нейтральный исследовательский центр. Это крупный рыночный игрок, и их текст — макростратегическая записка, а не беспристрастный социальный разбор. Они естественно сильнее смотрят на данные текущего цикла, на скорость диффузии, на рыночные преувеличения и на риск того, что инвесторы “перегнули” с думерством.

Но общественный вопрос шире.

Даже если S&P не рухнет на 38%, а безработица не улетит в 10,2%, мир может всё равно войти в очень нервный режим: с худшим входом в карьеру, более слабой переговорной силой работников, более высокой зависимостью от капитала и более узким слоем людей, которые реально контролируют новые производственные системы.

Для семьи, выпускника, основателя малого бизнеса или менеджера это всё равно огромная перемена — даже без красивого биржевого обвала.

Мой вывод по спору Citrini vs Citadel

Если упростить до одной фразы, то она звучит так:

Citrini хорошо описывает опасный хвостовой сценарий, а Citadel хорошо напоминает, что хвостовой сценарий нельзя выдавать за уже доказанную реальность.

Citrini полезен как предупреждение.

Citadel полезен как противоядие от слишком прямолинейного катастрофизма.

Но ни один из них не даёт полного ответа.

Полный ответ, скорее, такой:

— мир с ИИ правда может оказаться намного менее комфортным для работников, чем любят обещать продавцы “изобилия”;
— но переход не обязан принять форму мгновенного краха всего рынка труда и финансовой системы;
— главный вопрос ближайших лет — не “кто прав в споре”, а успеем ли мы построить новую связку из образования, переподготовки, инфраструктуры доверия и человеческих ролей поверх дешёвого интеллекта.

И если совсем по-человечески, то вывод такой.

Не нужно жить так, будто конец света уже расписан по кварталам.

Но и жить так, будто ничего фундаментально не меняется, — уже опасная роскошь.

Старая экономика, где интеллект был редким и дорогим, правда заканчивается.

Новая ещё не оформилась.

Значит, главная задача человека сейчас — не угадать точную дату “кризиса ИИ”, а перестроить себя под мир, где ценится уже не просто умение делать, а умение понимать, проверять, отвечать и держать сложность.