Влияние пост-AGI общества на рынок труда, политику и геополитику
Вольный перевод исследования от OpenAI (DeepResearch) на тему
Непосредственные последствия для занятости (0–5 лет)
Сразу после того, как искусственный общий интеллект (AGI) станет реальностью, ожидаются быстрые изменения на рынке труда в различных отраслях, не связанных с IT. Производственные компании ускорят автоматизацию на заводах: роботы и системы планирования, управляемые AGI, смогут быстро взять на себя рутинные задачи сборки, контроля качества и управления цепочками поставок. Это может привести к вытеснению многих рабочих сборочных линий и складов, поскольку компании будут стремиться к повышению производительности. В здравоохранении могут пострадать административные и диагностические роли: системы AGI способны обрабатывать медицинские данные, заниматься выставлением счетов и даже выполнять первичный анализ изображений (рентгенология) или сортировку пациентов, снижая потребность в административном персонале и помогая врачам-диагностам. Роли, связанные с непосредственным уходом за пациентами (медсестры, врачи), в меньшей степени подвержены немедленному влиянию из-за необходимости человеческого участия и нормативных барьеров, но даже они начнут использовать помощников на базе ИИ для поддержки принятия решений. Финансовый и банковский сектор также почувствуют краткосрочные последствия. Рутинные задачи, связанные с обработкой чисел, например, ввод данных, бухгалтерский учет, базовый учет, — одни из первых ролей, которые, вероятно, будут заменены ИИ (LIVESCIENCE.COM). Банки уже используют чат-ботов с ИИ для обслуживания клиентов, и AGI может полностью автоматизировать работу колл-центров и базовое финансовое консультирование. Сфера услуг (розничная торговля, гостиничный бизнес, поддержка клиентов) готова к ранним изменениям. Розничные торговцы могут расширить использование касс самообслуживания и управляемых ИИ систем инвентаризации, что позволит одному работнику выполнять работу нескольких. Колл-центры и службы поддержки будут переданы продвинутым чат-ботам, которые могут обрабатывать запросы клиентов от начала до конца, полностью заменяя операторов (LIVESCIENCE.COM, LIVESCIENCE.COM). Например, в 2023 году британская телекоммуникационная компания BT объявила о планах заменить 10 000 сотрудников системами ИИ в сфере обслуживания клиентов и обслуживания сети (THENEXTWEB.COM) — показатель того, что крупные работодатели рассматривают ИИ как жизнеспособную немедленную замену тысячам рабочих мест.
В целом, в ранний пост-AGI период наибольшему риску подвергнутся рутинные, повторяющиеся и трудоемкие работы, связанные с обработкой данных. По оценке Goldman Sachs, ИИ (даже до появления настоящего AGI) может повлиять примерно на 300 миллионов рабочих мест по всему миру в следующем десятилетии, при этом до двух третей профессий в США уязвимы для определенной степени автоматизации, а до 50% работы в этих профессиях потенциально могут быть автоматизированы (CHICAGOBOOTH.EDU). В ЕС прогнозы разнятся, но все предсказывают неизбежность серьезных изменений, которые уже ощущаются, что делает действия правительства неотложными (THENEXTWEB.COM). Такие работы, как ввод данных, телемаркетинг, обслуживание клиентов и рутинные продажи или вспомогательные функции, относятся к числу тех, которым непосредственно угрожает интеллектуальная автоматизация (LIVESCIENCE.COM, LIVESCIENCE.COM). В то же время появятся новые роли, связанные с внедрением этих систем. Например, компании нанимают «prompt инженеров» — экспертов по формулированию входных данных для моделей ИИ — для оптимизации вывода чат-ботов и AGI (LIVESCIENCE.COM). Аналогичным образом, растет спрос на консультантов по ИИ, которые советуют организациям, какие инструменты ИИ внедрять и как, чтобы избежать дестабилизации их бизнеса (LIVESCIENCE.COM). Эти новые рабочие места указывают на то, что рынок труда начинает меняться, а не просто сокращаться, хотя общим эффектом в ближайшей перспективе может стать беспокойство и вытеснение многих работников, занимающих должности, находящиеся под угрозой.
Среднесрочные последствия для занятости (5–10 лет)
В среднесрочной перспективе, по мере того как системы AGI станут более совершенными и распространенными (потенциально на пути к искусственному сверхинтеллекту, ASI), их влияние расширится с рутинных задач на более сложные работы в ЕС и США. Производство через 5–10 лет может достичь высокоавтономных «умных фабрик». Роботы, управляемые AGI, смогут выполнять не только ручной труд, но и адаптировать производственный процесс в режиме реального времени, управлять техническим обслуживанием и оптимизировать рабочие процессы. Этот всплеск эффективности может ликвидировать большую долю традиционных производственных рабочих мест, от операторов станков до сборщиков на складах. Роль человека сместится в сторону надзора, обслуживания и стратегического планирования — обеспечения бесперебойной работы машин и вмешательства в исключительных случаях. Здравоохранение в среднесрочной перспективе может глубоко интегрировать AGI в клиническую работу. Системы ИИ смогут проводить предварительную диагностику пациентов, предлагать планы лечения и даже помогать в хирургических операциях с помощью передовой робототехники (YOSHUABENGIO.ORG, YOSHUABENGIO.ORG). Это может поставить под угрозу сокращения такие рабочие места, как медицинские техники, рентгенологи и даже врачи общей практики, поскольку один врач с поддержкой AGI сможет выполнять работу нескольких. Однако полная замена специалистов, вероятно, будет замедлена соображениями доверия, этики и права — более распространенными станут «кентавр»-команды, состоящие из врачей-людей, дополненных ИИ. Медсестры и сиделки по-прежнему будут необходимы для человеческого контакта, но даже они могут полагаться на инструменты на базе ИИ для мониторинга пациентов и выполнения рутинных задач по уходу. Финансовые роли будут развиваться дальше: помимо автоматизации аналитиков и трейдеров начального уровня, AGI может заниматься сложным финансовым моделированием, оценкой рисков и управлением портфелем. Торговля акциями может быстро стать доминирующей для ИИ, действующего «в мгновение ока», опережая трейдеров-людей (LIVESCIENCE.COM). Многие аналитические должности среднего звена, страховые андеррайтеры и даже управляющие активами могут быть оптимизированы, поскольку алгоритмы оказываются более эффективными в выявлении тенденций и принятии оптимальных решений. Люди в сфере финансов могут сосредоточиться на стратегии высокого уровня, отношениях с клиентами и соблюдении нормативных требований. В сфере услуг следующие 5–10 лет могут принести широкое распространение автономных транспортных средств (что угрожает водителям грузовиков и такси), роботов на базе ИИ в ресторанах и отелях (сокращение персонала по приготовлению пищи, уборке и обслуживанию на стойке регистрации), а также полностью автоматизированную логистику и цепочки поставок. Роли, ориентированные на клиента, которые требуют эмоционального интеллекта (например, в сфере элитного гостеприимства или продаж), могут сохраниться, но будут поддерживаться аналитикой ИИ (для персонализированного обслуживания). Многие «белые воротнички», которые когда-то считались «безопасными», столкнутся с давлением: например, помощники юристов и младшие юристы могут быть в значительной степени заменены ИИ, который может исследовать прецедентное право и даже составлять юридические документы. Даже часть творческих областей — журналистика, маркетинг, дизайн — будет все чаще обрабатываться инструментами генеративного ИИ, требуя меньше человеческих работников на единицу продукции (эта тенденция уже началась с генерации контента с помощью ИИ).
К середине срока профиль вытеснения рабочих мест расширяется до профессий среднего и высшего уровня квалификации, а не только до рутинной работы низкой квалификации. Аналитики отмечают, что офисная поддержка, обслуживание клиентов и роли в сфере общественного питания, вероятно, продолжат сокращаться с автоматизацией ИИ (MCKINSEY.COM, MCKINSEY.COM). В то же время новые категории рабочих мест будут расти вокруг экосистемы AGI. Многим компаниям потребуются тренеры по ИИ — сотрудники, специализирующиеся на настройке и обновлении систем ИИ или обучении сотрудников работе с инструментами ИИ (LIVESCIENCE.COM). Специалисты по обслуживанию и безопасности ИИ будут иметь решающее значение: ожидается рост спроса на такие роли, как аудиторы ИИ (которые проверяют системы ИИ на наличие предвзятости или ошибок) и специалисты по этике ИИ (которые гарантируют, что развертывания ИИ соответствуют этическим и правовым стандартам) (LIVESCIENCE.COM). Могут появиться совершенно новые профессии, такие как «психологи ИИ», которые пытаются понять и исправить поведение продвинутого ИИ (например, диагностировать, почему система AGI может развить предвзятость или неустойчивое поведение) (LIVESCIENCE.COM). Другим примером являются «кризис-менеджеры ИИ», эксперты, которые вмешиваются, когда система ИИ вызывает значительную ошибку или PR-инцидент, чтобы быстро разрядить ситуацию и исправить курс (LIVESCIENCE.COM). Prompt-инжиниринг может стать обычным навыком для многих работников умственного труда, поскольку эффективное взаимодействие с ИИ становится частью большинства рабочих мест. Важно отметить, что среднесрочные последствия включают трансформацию рабочих мест: многие работники не будут полностью заменены, но обнаружат, что их роли пересмотрены. Например, финансовый аналитик может перейти от ручного составления отчетов к контролю за ИИ, который это делает, сосредоточившись вместо этого на интерпретации результатов и консультировании клиентов — его производительность может взлететь, но общее количество аналитиков может потребоваться меньше. Это явление, когда оставшиеся работники становятся гораздо более производительными, а не избыточными, наблюдалось исторически и могло бы смягчить чистые потери рабочих мест (CHICAGOBOOTH.EDU, CHICAGOBOOTH.EDU). Действительно, прошлые технологические революции создали новые рабочие места для компенсации потерь, и ИИ, похоже, следует этой схеме: как отмечалось в одном отчете, создание новых рабочих мест благодаря достижениям ИИ может помочь компенсировать вытеснение рабочей силы (CHICAGOBOOTH.EDU). К 2030 году мы можем увидеть совершенно новые профессии (так же, как многие рабочие места в 2025 году не существовали в 2000 году). Баланс потерь и прироста рабочих мест в этот период будет сильно зависеть от политических решений и того, как предприятия решат внедрять AGI — среднесрочный период — это критическое окно, в котором общество может адаптироваться, чтобы гарантировать, что люди по-прежнему играют ценную роль наряду с интеллектуальными машинами.
Долгосрочные последствия для занятости (10+ лет)
В долгосрочной перспективе, предполагая, что AGI созрел и потенциально породил искусственный сверхинтеллект (ASI), природа работы может быть коренным образом изменена. В пост-ASI сценарии машины могут достичь когнитивных и даже творческих способностей, намного превосходящих человеческие, что позволит им выполнять практически все задачи более эффективно или дешевле, чем человеческий труд. Это поднимает вопрос о том, что большинство современных рабочих мест устареют или будут радикально пересмотрены. Производство и физический труд могут стать почти полностью автоматизированными. Заводы, строительные площадки, фермы и шахты могут работать с минимальным присутствием человека — под наблюдением горстки техников и самих систем ИИ, управляющих обслуживанием с помощью самовосстанавливающихся роботов. Здравоохранение может в основном обеспечиваться ИИ: передовые диагностические ИИ, роботы-хирурги и ИИ-сиделки могут справляться с основной частью медицинских потребностей. Люди могут отвечать только за эмпатический уход или надзор высокого уровня, если вообще отвечают. Даже в сфере услуг и гостеприимства могут использоваться роботы-гуманоиды или интерфейсы ИИ, неотличимые от людей, для взаимодействия с клиентами, таким образом автоматизируя роли от кассиров до поваров и персонала отеля. Многие профессиональные области могут быть захвачены агентами AGI экспертного уровня — например, один ASI может предположительно выполнять исследования десятков ученых или юридическую работу целой фирмы за доли времени (YOSHUABENGIO.ORG, YOSHUABENGIO.ORG). На этом этапе наибольшему риску подвергаются почти все роли, которые не требуют человеческого прикосновения или человеческого суждения в реальном времени. Для работников-людей могут остаться роли, которые общество решает сохранить человеческими по нормативным причинам (например, человеческий судья или политик для легитимности, человеческие художники для культурной ценности) или нишевые рабочие места, где человеческая аутентичность является преимуществом при продаже (например, изделия ручной работы или индивидуальные услуги для тех, кто готов платить дополнительно за человека). Также могут появиться новые ниши: например, в творческих искусствах человеческое творчество может стать своего рода ремесленным навыком, ценимым в отличие от контента, созданного ИИ — роль «создателя контента без ИИ» может найти рынок среди тех, кто жаждет человеческого элемента (LIVESCIENCE.COM).
Однако столь же вероятно, что появятся совершенно новые категории работы, которые мы едва ли можем себе представить сегодня, так же как развитие цифровой эры создало рабочие места (разработчики приложений, цифровые маркетологи и т. д.), которых не существовало несколько десятилетий назад. Если общество успешно справится с переходом, люди могут быть освобождены от тяжелого труда, чтобы заниматься более творческими, стратегическими или заботливыми ролями. Некоторые оптимисты предвидят возрождение человеческого творчества и инноваций, работая вместе с интеллектуальными машинами для достижения прорывов в науке, искусстве и решении глобальных проблем. С другой стороны, пессимистические сценарии предвидят технологическую безработицу в массовом масштабе — постоянный низший класс людей, труд которых просто не нужен в экономике. Экономическая производительность может резко возрасти с AGI/ASI, генерируя огромное богатство, но кто контролирует это богатство, становится критически важным. Без вмешательства те, кто владеет системами ИИ и роботами (будь то корпорации или государства), получат наибольшую выгоду, что может привести к крайнему неравенству между владельцами ИИ и всеми остальными (YOSHUABENGIO.ORG, YOSHUABENGIO.ORG). Как предупреждает один анализ, сверхразумный ИИ может предоставить «непревзойденные стратегические преимущества» нескольким действующим лицам и «склонить чашу весов в пользу немногих… причиняя при этом большой вред многим другим» (YOSHUABENGIO.ORG). Это означает, что долгосрочные последствия для рабочей силы связаны с вопросами распределения богатства. Если прирост производительности не будет распределен, многие могут столкнуться с безработицей без экономической поддержки, что создаст напряженность в социальной стабильности.
В более позитивном долгосрочном сценарии общества могут значительно сократить рабочее время и внедрить системы совместного процветания. Идея <ins>15-часовой рабочей недели</ins> (как когда-то представлял себе Джон Мейнард Кейнс) или другие формы перераспределения работы могут стать практичными, когда ИИ будет заниматься большей частью производства (BLOGS.LSE.AC.UK, BLOGS.LSE.AC.UK). Люди могут тратить больше времени на отдых, образование или общественную деятельность, поддерживаемую плодами экономики, управляемой ИИ. Новые роли для людей могут быть сосредоточены на надзоре за ИИ (принятие окончательных решений по решениям ИИ), политике и этике (направление ИИ к благоприятным результатам) и высоко персонализированных услугах (например, индивидуальное наставничество, индивидуальный опыт, для которого некоторые предпочитают человека). Кроме того, совершенно новые области могут возникнуть из технологий и отраслей, созданных AGI (например, рабочие места, связанные с колонизацией космоса или передовой
биоинженерией, могут процветать, если AGI продвинет эти области). Исторически сложилось так, что более половины рабочих мест, которые работники выполняют сегодня, не существовали в начале 20 века (CHICAGOBOOTH.EDU, CHICAGOBOOTH.EDU), и аналогичным образом к концу 21 века концепция «работы» может быть полностью преобразована AGI. Долгосрочный результат варьируется от утопического сценария расширенного человеческого потенциала (с высокой производительностью и, возможно, даже гарантированным базовым доходом, гарантирующим, что никто не останется позади) до антиутопического сценария массовой безработицы и неравенства. Траектория будет зависеть от того, насколько активно правительства и общества будут управлять переходом на немедленном и среднесрочном этапах.
Меры государственной политики и стратегии смягчения последствий
По мере того, как AGI начинает влиять на рынки труда, правительствам ЕС, США и других стран необходимо будет внедрить надежные меры политики для смягчения потерь рабочих мест и регулирования внедрения AGI. Эти меры политики можно сгруппировать в усиление экономических сетей безопасности, инвестиции в переподготовку и образование, а также обновление трудового законодательства и нормативных актов, касающихся ИИ. Цель состоит в том, чтобы смягчить потрясения, связанные с перемещением работников, подготовить их к новым возможностям и обеспечить справедливое и контролируемое развитие революции ИИ.
Укрепление экономических сетей безопасности
Политики рассматривают и внедряют различные экономические сети безопасности для поддержки людей, которые теряют работу или доход из-за автоматизации ИИ. Известная идея — расширение пособий по безработице или «страхование от перемещения ИИ». Например, предложения по программе «Помощь в адаптации к ИИ» отражают прошлую помощь в адаптации к торговле — это обеспечит целевую поддержку доходов и средства на переподготовку для работников, перемещенных ИИ, признавая потерю рабочих мест «из-за возросшей автоматизации» в качестве категории для помощи (SAFEMONEYTRENDS.COM). В более широком смысле эксперты подчеркивают необходимость комплексных сетей социальной защиты для решения проблем, вызванных ИИ. Обоснование заключается в том, что, поскольку ИИ может затронуть до 40% всех рабочих мест (по данным МВФ) (OMFIF.ORG, OMFIF.ORG), необходима надежная поддержка для тех, кто находится в переходном периоде. Это может включать не только выплаты по безработице, но и субсидии на медицинское страхование (отделяя его от занятости), помощь в обеспечении жильем в районах, пострадавших от автоматизации, и надбавки к заработной плате для работников, которые устраиваются на менее оплачиваемую работу после перемещения. Страхование заработной платы или надбавки могут «сделать работу оплачиваемой», временно повышая доходы работников, которые потеряли более высокооплачиваемую работу из-за автоматизации (THENEXTWEB.COM). Например, такие меры политики, как расширенный налоговый кредит на заработанный доход или прямое страхование заработной платы от потерь заработка из-за автоматизации, были предложены для смягчения потерь заработка и предотвращения обнищания перемещенных работников (THENEXTWEB.COM).
Еще одно предложение по обеспечению безопасности, набирающее обороты, — это универсальный базовый доход (UBI) — фиксированная выплата всем гражданам для покрытия основных потребностей. UBI часто рассматривается как решение проблемы повсеместной технологической безработицы, обеспечивая минимальный доход независимо от статуса занятости. Он пользуется сильной общественной поддержкой в некоторых частях Европы (опросы показывают, что большинство в таких странах, как Германия, Испания и Италия, поддерживают UBI) (THENEXTWEB.COM). Сторонники утверждают, что UBI может гарантировать, что никто не останется без средств к существованию из-за потери работы, связанной с ИИ, и может «положить конец бедности, улучшить благосостояние и перераспределить богатство» (THENEXTWEB.COM). Критики, однако, указывают на недостатки: проблемы со стоимостью, потенциальные препятствия для работы и тот факт, что UBI сам по себе не решает проблему социальной ценности работы (BLOGS.LSE.AC.UK, BLOGS.LSE.AC.UK). Некоторые аналитики опасаются, что зависимость от UBI может создать постоянный низший класс, «застрявший на уровне базового дохода», в то время как экономическая элита (владельцы капитала ИИ) получает огромную прибыль (BLOGS.LSE.AC.UK, BLOGS.LSE.AC.UK). Из-за этих проблем возникли альтернативные идеи обеспечения безопасности. Одна из них — программа гарантии занятости, в рамках которой правительство выступает в качестве работодателя последней инстанции. Вместо того, чтобы давать людям деньги без работы, гарантия занятости будет «гарантировать оплачиваемую деятельность» — предлагая рабочие места на государственной службе, общественные работы или стипендии на обучение всем безработным из-за автоматизации (BLOGS.LSE.AC.UK, BLOGS.LSE.AC.UK). Этот подход гарантирует, что люди остаются активными, поддерживают навыки и вносят свой вклад в общество, что может сохранить достоинство и избежать пагубных последствий долгосрочной безработицы (BLOGS.LSE.AC.UK). Его можно использовать, например, для укомплектования недоукомплектованных секторов здравоохранения или экологических проектов, которые улучшают общество, но не полностью удовлетворяются рынком (BLOGS.LSE.AC.UK).
Ни одно решение по обеспечению безопасности не подходит для всех, поэтому вероятно сочетание мер. Правительства могут увеличить традиционную поддержку социального обеспечения, экспериментируя с новыми идеями, такими как пилотные проекты UBI или гарантии занятости. Другая концепция — «дивиденды от данных» или «дивиденды от ИИ», когда огромная ценность, создаваемая ИИ, частично перераспределяется гражданам. Например, модель «достоинства данных», предложенная некоторыми технологами, будет компенсировать людям использование их личных данных для обучения моделей ИИ (OMFIF.ORG). Это эффективно выплачивает дивиденды общественности за вклад в развитие ИИ (поскольку ИИ полагается на данные, генерируемые людьми). Аналогичным образом, некоторые экономисты предлагают облагать налогом автоматизацию или ИИ и использовать вырученные средства для социальных программ. «Налог на автоматизацию» может потребовать от компаний платить сбор, когда они заменяют работника-человека ИИ, препятствуя чрезмерным увольнениям и финансируя переподготовку или поддержку доходов (CHICAGOBOOTH.EDU, CHICAGOBOOTH.EDU). Таким образом, чтобы предотвратить массовые трудности, правительства будут укреплять сети безопасности — будь то прямые выплаты, гарантированная работа или разделение богатства ИИ — обеспечивая экономическую безопасность во время перехода.
Программы переподготовки и обучения рабочей силы
Возможно, самая важная долгосрочная стратегия — это оснащение рабочей силы новыми навыками посредством инициатив по переподготовке и образованию. По мере того как одни рабочие места исчезают, появляются другие, а многие существующие рабочие места меняются, работникам необходимо помочь «защитить» свои навыки от будущего. И ЕС, и США инвестируют в такие программы. Например, Италия недавно запустила фонд, выделивший 10 миллионов евро на переподготовку работников, чьи рабочие места находятся под угрозой автоматизации (THENEXTWEB.COM). Эти целенаправленные усилия по повышению квалификации признают, что непрерывное обучение теперь имеет важное значение. Правительства расширяют доступ к профессиональному обучению, учебным лагерям по программированию и продвинутому техническому образованию для взрослых. Тенденция середины 2020-х годов — продвижение «счетов пожизненного обучения» — личных учебных бюджетов, которые работники могут использовать для повышения квалификации, если их работе угрожает ИИ.
Системы образования также реформируются, чтобы подготовить следующее поколение к экономике, богатой ИИ. Аналитики рекомендуют сместить учебные программы в сторону навыков, которые дополняют ИИ, а не конкурируют с ним (THENEXTWEB.COM). Это включает в себя прочную основу STEM (наука, технологии, инженерия, математика) для тех, кто входит в области разработки технологий и ИИ, а также акцент на гибких навыках — креативности, критическом мышлении, эмоциональном интеллекте, командной работе — которые делают работников адаптируемыми и эффективными в ролях вместе с ИИ (THENEXTWEB.COM, THENEXTWEB.COM). Существует стремление к преподаванию «навыков 21-го века», которые способствуют гибкости, поскольку конкретные технические навыки могут быстро устареть, но способность постоянно учиться и адаптироваться всегда будет ценной (BLOGS.LSE.AC.UK, BLOGS.LSE.AC.UK). Такие страны, как Финляндия, даже ввели бесплатные онлайн-курсы по ИИ для общественности (THENEXTWEB.COM), стремясь повысить общую грамотность в области ИИ, чтобы люди могли «работать с роботами», а не быть замененными ими.
Для работников, уже работающих, программы переподготовки направлены на их переход на востребованные рабочие места. Многие правительства сотрудничают с промышленностью, чтобы определить сектора роста (например, здравоохранение, зеленую энергетику или само обслуживание ИИ) и создать пути для уволенных работников для перехода в эти области. Как отмечается в одном отчете, компании часто планируют сочетание найма и переподготовки для удовлетворения потребностей в навыках по мере внедрения ИИ (MCKINSEY.DE, MCKINSEY.DE). Технологические компании и муниципальные колледжи стимулируются предлагать краткосрочные курсы и сертификаты по навыкам, связанным с ИИ, анализу данных, кибербезопасности и другим областям, где растет число рабочих мест. Кроме того, уделяется внимание помощи низкооплачиваемым работникам и тем, кто работает на сокращающихся должностях. Исследования показывают, что работники на низкооплачиваемых должностях к 2030 году до 14 раз чаще будут нуждаться в смене профессии, чем работники с высокой заработной платой (MCKINSEY.COM), поэтому усилия по переподготовке направлены на эти уязвимые группы, чтобы предотвратить усиление неравенства. Некоторые предлагаемые программы включают «стипендии на переход» или стипендии, которые платят работникам за то, чтобы они вернулись в школу или проходили обучение полный рабочий день в течение определенного периода. Это может быть связано с программами ученичества, которые дают обучение новым навыкам без отрыва от производства.
Таким образом, правительства рассматривают развитие навыков как центральный столп реагирования на AGI. Повышая квалификацию нынешней рабочей силы и переквалифицируя тех, кто был перемещен, цель состоит в том, чтобы заполнить новые рабочие места, созданные ИИ, и гарантировать, что работники смогут перейти на должности, которые ИИ (пока) не может выполнять. Среднесрочный период (следующие 5–10 лет) рассматривается как окно для переподготовки миллионов людей. Альтернативой является несоответствие навыков, когда рабочие места существуют, но люди не квалифицированы для них. Поэтому для создания адаптируемой, готовой к ИИ рабочей силы используются такие меры политики, как субсидируемое обучение, обновленные школьные программы, онлайн-платформы обучения и государственно-частные партнерства в области обучения.
Трудовое законодательство и регулирование внедрения AGI
Чтобы регулировать темпы внедрения AGI и защитить работников, правительства также обновляют трудовое законодательство и рамки управления ИИ. Один из подходов заключается в изменении существующих трудовых норм с учетом увольнений, вызванных ИИ. В США политики предложили модернизировать Закон об уведомлении о корректировке и переподготовке работников (WARN), который в настоящее время требует 60-дневного уведомления о массовых увольнениях или закрытии предприятий. Обновив WARN, чтобы он явно охватывал увольнения, связанные с ИИ, компании будут обязаны заблаговременно уведомлять о том, когда автоматизация приведет к ликвидации большого количества рабочих мест (TECHPOLICY.PRESS). Предоставление более раннего предупреждения об избыточности, вызванной ИИ, может помочь местным органам власти и работникам подготовиться (например, организовать ярмарки вакансий, провести учебные семинары) до того, как произойдут увольнения (TECHPOLICY.PRESS, TECHPOLICY.PRESS). Вместо того, чтобы пытаться полностью запретить ИИ, этот закон «дает работникам и сообществам время для планирования экономического поворота», смягчая удар от внезапных структурных изменений (TECHPOLICY.PRESS, TECHPOLICY.PRESS).
Другая правовая мера — обеспечение соблюдения или создание стандартов справедливого использования ИИ на рабочем месте. Например, регулирующие органы разъясняют, что существующие законы о защите прав работников (против дискриминации, вторжения в частную жизнь, незаконного увольнения и т. д.) по-прежнему применяются, когда решения принимаются ИИ. Министерство труда США и NLRB выпустили руководство о том, что ИИ не может использоваться для нарушения трудовых прав — например, использование ИИ для мониторинга сотрудников таким образом, который нарушает конфиденциальность или препятствует профсоюзной деятельности, является незаконным (HRPOLICY.ORG, HRPOLICY.ORG). Аналогичным образом, предлагаемый ЕС Закон об ИИ включает положения, которые косвенно влияют на труд, классифицируя системы ИИ, используемые в сфере занятости (например, алгоритмы найма или системы мониторинга работников), как «высокорискованные», требующие прозрачности и человеческого надзора (CSIS.ORG, CSIS.ORG). Этот вид регулирования обеспечивает участие человека в принятии важных решений, таких как найм или увольнение, чтобы предотвратить несправедливое лишение кого-либо работы из-за предвзятости или ошибок ИИ. Трудовое законодательство может также усилить права коллективных переговоров в отношении технологических изменений — например, дать профсоюзам право голоса в том, как ИИ внедряется на рабочем месте. Некоторые страны рассматривают требования о том, чтобы компании проводили «оценку воздействия ИИ» перед развертыванием системы AGI, оценивая, как это повлияет на рабочие места и каков план для затронутых сотрудников.
Регулирование внедрения AGI на более широком уровне также стоит на повестке дня, чтобы гарантировать, что это происходит безопасно и не приводит к безрассудному сокращению рабочих мест или социальному ущербу. Указ президента Байдена об ИИ от 2023 года предписал федеральным агентствам разработать стандарты для управления рисками ИИ и прямо abordar «потенциальное перемещение рабочих мест, трудовые стандарты, равенство на рабочем месте и обучение рабочей силы» по мере распространения ИИ (HRPOLICY.ORG, HRPOLICY.ORG). Это сигнализирует о том, что правительство может установить руководящие принципы или даже жесткие правила относительно того, как компании интегрируют AGI — возможно, требуя, чтобы фирмы пытались переобучить или перевести работников до увольнений, или чтобы крупные развертывания автоматизации были проверены на предмет их экономического воздействия. Другая идея — корректировка налоговых стимулов. В настоящее время многие налоговые системы непреднамеренно поощряют автоматизацию, облагая налогом труд больше, чем капитал (в США эффективный налог на труд ~25–33% против налога на капитал ~5–10%) (CHICAGOBOOTH.EDU, CHICAGOBOOTH.EDU). Исследователи предложили перевернуть этот сценарий: например, установить более высокие налоги на ИИ и роботов и снизить налоги на заработную плату, чтобы устранить предвзятость, из-за которой покупать робота дешевле, чем нанимать человека ([CHICAGOBOOTH.EDU](CHICAGOBOOTH.
EDU), CHICAGOBOOTH.EDU). Одно исследование показывает, что оптимальная калибровка (например, капитал облагается налогом ~ 27%, труд ~ 18%) может значительно «сократить диапазон автоматизированных задач и увеличить число занятых людей» по сравнению со статус-кво (CHICAGOBOOTH.EDU, CHICAGOBOOTH.EDU). Если перебалансировка общих налогов затруднена, можно ввести целевой налог на автоматизацию или «налог на роботов» для систем ИИ, которые напрямую заменяют рабочие места людей (CHICAGOBOOTH.EDU, CHICAGOBOOTH.EDU). Например, предложение экономиста Гарри Хольцера — это «налог на перемещение», согласно которому «каждый раз, когда вы перемещаете работника из-за ИИ, [компания] должна платить налог с этого», который может быть отменен или уменьшен, если компания инвестирует в переподготовку этого работника (CHICAGOBOOTH.EDU, CHICAGOBOOTH.EDU). Такой налог использует подход кнута и пряника: препятствует ненужному перемещению и поощряет компании к перепрофилированию своих сотрудников. (Критики налога на роботов утверждают, что он может замедлить производительность, но сторонники говорят, что доход может финансировать сети безопасности и обучение, упомянутые выше CHICAGOBOOTH.EDU).
Наконец, правительства изучают вопросы лицензирования и надзора за передовым ИИ. По мере того, как AGI приближается к человеческому уровню или выходит за его пределы, появляются призывы рассматривать его как другие мощные технологии (например, фармацевтические препараты или ядерные материалы) — требующие тщательного тестирования и сертификации перед развертыванием. Это не является непосредственно трудовым законодательством, но может замедлить развертывание самых мощных AGI до тех пор, пока не будет обеспечена безопасность, косвенно влияя на воздействие на рабочие места. На международном уровне Закон ЕС об ИИ (который, как ожидается, вступит в силу к 2025–2026 годам) запретит определенное использование ИИ с высоким уровнем риска и введет требования соответствия, которые могут смягчить скорость, с которой ИИ заменяет роли в регулируемых секторах (таких как медицинские устройства или транспорт). Таким образом, посредством сочетания обновленного трудового законодательства, разумного регулирования и корректировки стимулов политики стремятся управлять интеграцией AGI в рабочую силу — максимизируя ее преимущества, предотвращая или смягчая наиболее вредные последствия для работников.
Геополитические последствия и потенциальные конфликты в мире, где доминирует AGI
Появление AGI влияет не только на экономику и рабочие места, но и становится вопросом геополитической власти. Страны, которые лидируют в развитии AGI/ASI, готовы получить значительные экономические и военные преимущества, что может нарушить глобальный баланс сил. Это повышает риск международной напряженности или конфликта из-за доминирования AGI. Ниже мы рассмотрим потенциальные геополитические сценарии и стратегии — экономические, военные и дипломатические — которые могут возникнуть, особенно если страна с развитым AGI (например, США) попытается замедлить прогресс конкурентов на пути к ASI.
AGI как стратегический актив и экономическое влияние
Овладение AGI, вероятно, будет рассматриваться как ключевой фактор национальной мощи, подобно ядерному оружию или запасам нефти в прежние эпохи. Мировые лидеры уже высказывали это мнение — в частности, президент России Владимир Путин заявил, что «тот, кто станет лидером в [ИИ], станет правителем мира» (FOREIGNPOLICY.COM). Этот конкурентный настрой предполагает динамику гонки вооружений в области ИИ, особенно между США, Китаем и другими технологически ведущими странами. Действительно, аналитики часто представляют ситуацию как «холодную войну ИИ», где сверхдержавы борются за превосходство в области ИИ (EN.WIKIPEDIA.ORG). С экономической точки зрения AGI может ускорить инновации и производительность. Страна с передовым AGI может доминировать в ключевых отраслях (финансы, биотехнологии, военные технологии), что дает ей огромное влияние на мировую экономику. Такая страна может использовать свое преимущество в AGI, контролируя критически важные технологии или цепочки поставок. Мы уже видим, что экономические стратегии используются для поддержания лидерства в области ИИ: например, США ввели строгий экспортный контроль в отношении передовых полупроводников и чипов ИИ в Китай, стремясь помешать способности Китая разрабатывать передовой ИИ (AXIOS.COM, SCMP.COM). Эта «война чипов» — это, по сути, геополитический шаг, направленный на то, чтобы замедлить прогресс конкурента в области ИИ, отрезав жизненно важные ресурсы. Если США (или другой лидер AGI) добьются прорыва, они могут расширить такие технологические эмбарго, используя торговые ограничения и санкции, чтобы лишить другие страны доступа к аппаратному или программному обеспечению, необходимому для AGI. В ЕС применяются аналогичные соображения: Европа может не захотеть полностью зависеть от иностранного AGI, что может побудить к стратегическим инвестициям в собственные возможности ИИ или даже к ограничениям на экспорт европейских инноваций в области ИИ внешним державам.
С экономической точки зрения страна, значительно опережающая в AGI, также может использовать это лидерство, захватывая мировые рынки, подрывая иностранные отрасли за счет превосходных продуктов и услуг на базе ИИ. Это может спровоцировать протекционистские меры. Менее развитые страны могут формировать альянсы для объединения ресурсов или создавать «коалиции ИИ» для коллективной конкуренции. Конкуренция за таланты — еще один аспект — мы можем увидеть «утечку мозгов», когда исследователи ИИ мигрируют в ведущую страну, усугубляя разногласия. По мере того, как AGI становится неотъемлемой частью экономической и военной мощи, страны, оставшиеся позади, могут пострадать с точки зрения роста и безопасности, что может вызвать негодование или отчаяние. В крайних случаях сверхдержава AGI может попытаться диктовать другим странам экономические условия (например, монополизировать определенные услуги ИИ или требовать выгодных торговых сделок в обмен на помощь ИИ). Это может вызвать геополитические разногласия, подобные тем, которые вызваны зависимостью от нефти или редких минералов, за исключением еще более острых, учитывая широкое влияние ИИ. Чтобы смягчить напряженность, некоторые предложили международные соглашения о совместном использовании фундаментальных исследований ИИ. В частности, руководство Китая предложило поделиться результатами фундаментальных исследований ИИ с мировым сообществом, чтобы гарантировать, что ни одна страна не будет иметь исключительного контроля, что приведет к «преимуществу первопроходца» (FOREIGNPOLICY.COM, FOREIGNPOLICY.COM). Такие дипломатические шаги, если они будут взаимными, могут уравнять правила игры и уменьшить стремление к экономической войне из-за ИИ. Таким образом, экономически сильные страны с развитым ИИ будут использовать торговую политику, контроль над интеллектуальной собственностью и создание альянсов в качестве инструментов — как для нападения (замедление конкурентов), так и для защиты (обеспечение линий поставок и талантов) — делая мировой экономический порядок центральным театром геополитической стратегии, основанной на AGI.
Военные последствия AGI огромны. AGI может разрабатывать превосходное оружие, разрабатывать стратегии боевых планов или даже напрямую управлять автономными дронами и кибероружием. Государство с возможностями уровня ASI может достичь подавляющего военного превосходства — например, значительно более эффективный анализ разведывательных данных, способность взламывать или отключать инфраструктуру противника или автономные системы вооружения, которые превосходят силы под руководством человека. Эта перспектива может привести к серьезным дилеммам безопасности и потенциальным конфликтам. Если одна страна явно опережает в AGI, другие могут опасаться «решающего стратегического преимущества», которое может угрожать их суверенитету (YOSHUABENGIO.ORG, YOSHUABENGIO.ORG). Этот страх может заставить страны принять решительные меры. Отстающие могут «гоняться», чтобы наверстать упущенное, возможно, вкладывая ресурсы в свои собственные проекты AGI или, что еще хуже, ускоряя разработку без обеспечения адекватной безопасности (что повышает риск аварии или сценария неправильно выровненного ИИ). Существует также возможность превентивных военных действий: лидеры могут рассмотреть возможность проведения тайных или открытых операций, чтобы замедлить продвижение конкурента к ASI. В анализе внешней политики 2019 года отмечалось, что страны могут быть вынуждены рассмотреть возможность превентивных действий, чтобы помешать развитию [ИИ] противника, путем взлома или саботажа вычислительных ресурсов, даже если эти шаги спровоцируют эскалацию (FOREIGNPOLICY.COM). Например, если США полагают, что противник близок к созданию неконтролируемого ASI, который может представлять экзистенциальную угрозу или нарушить баланс сил, они могут использовать кибератаки (для искажения данных их исследований ИИ или дестабилизации их сетей) или даже физический саботаж (например, тайные операции по повреждению центров обработки данных или лабораторий). Исторические аналогии — это кибератака Stuxnet на ядерную программу Ирана или удары Израиля по ядерным реакторам — аналогичным образом лаборатории AGI или центры обработки данных могут стать мишенями в попытке предотвратить «распространение ИИ». Однако такие действия сопряжены с огромными рисками. Страна, подвергшаяся нападению, вероятно, расценит их как агрессию; киберсаботаж может перерасти в более широкий конфликт или даже открытую войну, если будет поражена критически важная инфраструктура. В худшем случае некоторые комментаторы предположили, что, если сверхдержава полагает, что достижение ASI другой страной первым может представлять экзистенциальную угрозу, она может даже рассмотреть крайние военные варианты (сравнение проводилось с логикой первых ядерных ударов, хотя это глубоко гипотетично и катастрофично).
С оборонительной стороны страны, продвинутые в AGI, будут использовать свои технологии для укрепления своих вооруженных сил и безопасности. Это включает в себя развертывание летального автономного оружия (LAWs) — дронов, роботов и других систем, которые могут принимать решения об уничтожении без участия человека. Гонка вооружений в таком оружии на базе ИИ уже идет (EN.WIKIPEDIA.ORG). Использование этих систем страной, лидирующей в AGI, может служить сдерживающим фактором или средством проецирования силы. Например, рои дронов на базе ИИ могут обеспечивать соблюдение бесполетных зон или подавлять обычные силы. Более того, AGI может революционизировать кибербезопасность — государства могут использовать ИИ для постоянного проникновения в сети противника или, наоборот, для создания практически непроницаемой киберзащиты. Страна с превосходящим ИИ может доминировать в области разведки (мгновенно анализируя глобальные коммуникации и спутниковые данные) и в радиоэлектронной борьбе. Все это может побудить сверхдержаву AGI агрессивно отстаивать свои интересы, зная, что другие не могут легко ответить. Международное сообщество может отреагировать, попытавшись заключить соглашения, ограничивающие определенные виды оружия ИИ (аналогично запретам на химическое или биологическое оружие), но обеспечение соблюдения будет сложной задачей, учитывая скрытый характер программного оружия.
Если США или другая страна попытаются силой или принуждением остановить прогресс других стран в области AGI, это ознаменует новый вид геополитического конфликта — конфликт, сосредоточенный на ИИ. Представьте себе, например, что США развертывают киберкоманды, чтобы навсегда вывести из строя суперкомпьютерные центры конкурента, или блокируют экспорт любого оборудования, которое можно использовать для исследований ИИ (расширение запретов на экспорт чипов, но в глобальном масштабе). В военном отношении мы могли бы увидеть локальные конфликты или противостояния вокруг технологий — например, контроль над тайваньскими заводами по производству полупроводников (необходимых для передовых чипов ИИ) уже является спорным вопросом в отношениях между США и Китаем, сочетая экономическую и военную стратегию. В сценарии AGI такие горячие точки становятся еще более критичными. Кроме того, если какая-либо неконтролируемая страна или террористическая группа окажется близка к получению опасного ИИ, крупные державы могут даже сотрудничать в военном отношении, чтобы нейтрализовать эту угрозу (что-то вроде совместного обеспечения нераспространения). Таким образом, военное измерение геополитики AGI характеризуется гонкой вооружений в области возможностей ИИ, потенциалом для превентивного саботажа или ударов с целью предотвращения ASI противника и необходимостью, возможно, новых режимов контроля над вооружениями. Однако без доверия и проверки искушение использовать свое преимущество AGI может быть трудно преодолеть, и даже чисто оборонительные действия одной стороны могут быть неверно истолкованы другими, что приведет к нарастающей дилемме безопасности.
Дипломатические и регуляторные стратегии
Чтобы предотвратить наихудшие последствия, дипломатические усилия и международное регулирование будут иметь решающее значение в мире, где доминирует AGI. Растет число экспертов, призывающих к созданию глобальных рамок управления для совместного управления развитием AGI и ASI. Одна из идей — международный договор или организация по AGI. Это может быть смоделировано по образцу договоров о контроле над ядерными вооружениями или климатических соглашений — страны согласятся с определенными ограничениями или стандартами безопасности, будут обмениваться информацией и, возможно, разрешат инспекции разработки ИИ для укрепления взаимного доверия. Например, известные ученые в области ИИ предложили мораторий или скоординированное замедление развертывания самого мощного ИИ до тех пор, пока не будет обеспечена безопасность, что может быть обеспечено с помощью «Международной организации по управлению ИИ (IAIGO)» (FUTUREOFLIFE.ORG, GLOBALAGICONFERENCE.ORG). Такая организация могла бы регулировать и контролировать исследования AGI, предотвращая бесконтрольную гонку вооружений. Проблема в том, что, в отличие от ядерного материала, ИИ — это в основном программное обеспечение и знания, которые труднее отслеживать и контролировать. Тем не менее предпринимаются первые шаги: такие форумы, как Глобальное партнерство по ИИ (GPAI) и Организация Объединенных Наций, обсуждают принципы развития ИИ, а некоторые выдвинули концепцию «договора о нераспространении» ИИ (YOSHUABENGIO.ORG, ITU.INT), чтобы избежать гонки ASI на выживание. Договор AGI мог бы, например, обязать подписавшие его стороны не стремиться к военному ASI или делиться любым прорывным общим ИИ для общего блага под наблюдением для проверки соблюдения (YOSHUABENGIO.ORG, FOREIGNPOLICY.COM).
В дипломатическом плане крупные державы могут также заключать двусторонние или многосторонние соглашения. США и ЕС могли бы объединиться по нормам ИИ, чтобы оказать давление на других (как обсуждалось с точки зрения «альянса демократий» для управления ИИ), или, наоборот, США и Китай могли бы договориться о взаимопонимании, подобном разрядке времен холодной войны, чтобы избежать внезапных скачков, которые пугают другую сторону. Меры по укреплению доверия могут включать обмен наблюдателями для испытаний ИИ друг друга или создание горячих линий для разъяснения любых инцидентов (аналогично ядерным горячим линиям). Без сотрудничества отсутствие прозрачности в развитии ИИ само по себе может спровоцировать конфликт: если страны не знают, что делают другие, они могут предположить худшее и удвоить свою собственную гонку (FOREIGNPOLICY.COM, FOREIGNPOLICY.COM). Дипломатическое общение может облегчить это путем обмена, по крайней мере, отчетами о ходе работы на высоком уровне или сотрудничества в исследованиях безопасности ИИ, которые принесут пользу всем. Примечательно, что в последние годы китайские официальные лица призвали к более широкому международному сотрудничеству в области ИИ, предполагая готовность избежать дестабилизирующей гонки ([FOREIGN
POLICY.COM](FOREIGNPOLICY.COM)).
Еще один аспект — роль международного права и норм. Если одна страна применяет силу, чтобы остановить развитие AGI в другой стране, это может нарушить суверенитет и международное право, если только это не оформлено как коллективные действия в области безопасности против экзистенциальной угрозы. Дипломатам придется бороться с беспрецедентными вопросами: представляет ли неконтролируемый ASI в одной стране глобальную угрозу, оправдывающую вмешательство? Как отличить мирные исследования ИИ от военных усилий AGI? Совет Безопасности ООН может стать площадкой для дебатов по AGI, возможно, даже приведет к резолюциям о рисках ASI. Тем не менее, соглашение будет трудным, если интересы противоречат друг другу; например, страна, опережающая в AGI, может сопротивляться любому договору, который сводит на нет ее преимущество, пока она доверяет своему собственному контролю над технологией. Исторически сложилось так, что сверхдержавы соглашались на контроль над вооружениями только тогда, когда бесконтрольная конкуренция считалась слишком опасной для обеих сторон — аналогичным образом, если гонка вооружений AGI рассматривается как потенциально катастрофическая (например, риск того, что неправильно выровненный ИИ приведет к катастрофе для всех), этот страх может стимулировать сотрудничество. В исследовательской работе утверждалось, что гонка к ASI «самоубийственна», потому что спешка увеличивает риск неконтролируемого результата, который может навредить как победителю, так и проигравшему (ARXIV.ORG, FOREIGNPOLICY.COM). Таким образом, логический собственный интерес может подтолкнуть страны к координации, а не к конфликту в долгосрочной перспективе.
Тем временем геополитические трения вероятны. Мы можем увидеть период технонационализма, когда каждая передовая разработка ИИ будет тщательно охраняться или даже засекречиваться, а конкурирующие государства будут бороться за союзников (например, предлагая делиться технологиями ИИ с дружественными странами, чтобы завоевать их лояльность, отказывая в этом другим). Малые и средние страны могут объединиться, чтобы гарантировать, что они не останутся позади — возможно, позиция ЕС в отношении «суверенитета ИИ», чтобы не зависеть от AGI США или Китая. Если возникнет ситуация, когда США (как гипотетический лидер AGI) попытаются силой помешать другой крупной державе продвигаться вперед (посредством санкций или саботажа), дипломатические последствия будут серьезными. Это может привести к новой блоковой конфронтации, когда границы будут проведены между имущими и неимущими ИИ. Страна-мишень, вероятно, удвоит усилия по собственным исследованиям и разработкам, возможно, тайно, чтобы достичь AGI как вопроса национального выживания. Доверие между великими державами может подорваться, что затруднит сотрудничество по другим глобальным вопросам (торговля, климат и т. д.).
С другой стороны, если международному сообществу удастся разработать эффективные дипломатические решения, AGI может стать областью сотрудничества. Могут быть созданы совместные исследовательские центры, где ученые из разных стран будут разрабатывать AGI в соответствии с согласованными протоколами безопасности, делясь преимуществами. Крайнее, но интересное предложение — это идея единого глобального проекта AGI (аналогичного ЦЕРНу в физике или МКС в космосе), в который вносят вклад все основные страны, тем самым устраняя стимул к гонке вооружений и гарантируя, что каждый имеет доступ к результаты. Хотя это и сложная политическая задача, такой подход может предотвратить конфликт, сделав AGI общим достижением человечества, а не национальным.
В заключение, геополитический ландшафт в пост-AGI мире потребует тщательной навигации. Экономические инструменты (такие как экспортный контроль и санкции) уже используются для борьбы за позиции; военные и кибернетические возможности, несомненно, будут задействованы, что создает призрак конфликта в случае неправильного управления; и дипломатическое взаимодействие будет необходимо для установления правил поведения. Ставки чрезвычайно высоки — как отметил один эксперт, сверхразумный ИИ может дать такое решающее стратегическое преимущество, что он искушает того, кто им управляет, доминировать над другими, «ящик Пандоры» власти (YOSHUABENGIO.ORG). Чтобы избежать разрушительных последствий, вероятно, потребуются новые формы международного сотрудничества и, возможно, переосмысление глобального управления, чтобы справиться с эпохой, когда интеллект, превосходящий человеческий, является частью уравнения. Есть надежда, что, подобно тому, как ядерное оружие стимулировало заключение договоров и создание горячих линий связи, признанная опасность бесконтрольной гонки вооружений AGI подтолкнет страны к созданию рамок, которые управляют конкуренцией, предотвращают одностороннее насильственное подавление прогресса других и гарантируют, что преимущества AGI могут быть использованы на благо всего человечества, а не станут спусковым крючком для геополитического конфликта (FOREIGNPOLICY.COM).