November 23

AGI Manhattan Project

Хотя конкретный термин "AGI Manhattan Project" не был официально предложен ни Илоном Маском, ни Сэмом Альтманом, оба они высказывали идеи и опасения, связанные с разработкой искусственного общего интеллекта (AGI) и необходимостью координации усилий для его безопасного развития. Вот хронология и мотивация, связанные с их взглядами:

Хронология и мотивация:

Илон Маск:

  1. 2014: Маск начал выражать свои опасения по поводу AGI, когда он инвестировал в DeepMind и вскоре после этого, когда DeepMind был приобретен Google, Маск высказал опасения, что в руках корпорации AGI может представлять риск для человечества.
  2. 2015: Вместе с Сэмом Альтманом и другими Маск основал некоммерческую организацию OpenAI, с целью разработки AGI таким образом, чтобы его преимущества были доступны всему человечеству и чтобы минимизировать риски. Это было частью его мотивации контролировать и направлять разработку AGI в безопасном направлении.
  3. 2017: Маск подчеркнул необходимость регулирования AI, сравнивая его с контролем за ядерным оружием, говоря, что AGI может представлять даже большую угрозу, чем ядерное оружие, если не будет правильно регулироваться.
  4. 2018: На встрече в Национальной академии наук Маск обсуждал идею создания некоего "группового проекта" или "альянса" для исследования AGI, чтобы убедиться, что его развитие идет безопасным путем.

Сэм Альтман:

  1. 2015: Альтман вместе с Маском и другими соосновал OpenAI, что было мотивировано желанием создать AGI для всеобщего блага и с акцентом на безопасность.
  2. 2016-2018: В качестве президента Y Combinator и затем сооснователя и CEO OpenAI, Альтман активно говорил о необходимости инвестировать в исследования безопасности AI, подчеркивая, что AGI требует международного сотрудничества и регулирования.
  3. 2020: В интервью и выступлениях Альтман часто упоминал важность координации в области AI, говоря о том, что AGI может быть одним из величайших событий в истории человечества, но только если оно будет управляемо и направлено в правильное русло.

Общая мотивация:

  • Безопасность: Оба лидера выражают серьезные опасения относительно потенциальных рисков, связанных с AGI, таких как потеря контроля или злоупотребление технологией.
  • Контроль и регулирование: Они призывают к созданию международных стандартов и регулирования для обеспечения безопасного развития AGI.
  • Этические соображения: Обсуждение этических аспектов разработки и использования AGI, включая вопросы распределения богатства, власти и ответственности.
  • Коллективное усилие: Идея о том, что AGI должна быть разработана не одной компанией или страной, а через международное сотрудничество, чтобы избежать гонки вооружений в области AI.

Эти идеи и мотивации можно рассматривать как предвестники возможного "AGI Manhattan Project", хотя сам термин не был использован в их публичных заявлениях. Их цель — обеспечить, чтобы AGI принесла пользу человечеству, а не вред, путем координации усилий, инвестиций в безопасность и создание глобальных стандартов.

AGI Manhattan Project

AGI Manhattan Project — это гипотетический проект, который часто упоминается в контексте разработки искусственного общего интеллекта (AGI). Сравнение с Манхэттенским проектом, который был секретной военной программой США во время Второй мировой войны, направленной на создание атомной бомбы, подчеркивает масштаб и важность такого начинания. Вот более подробный обзор:

Концепция AGI Manhattan Project:

  1. Цель: Создание AGI, системы искусственного интеллекта, которая обладает способностью к самостоятельному обучению, пониманию и решению широкого спектра задач на уровне или выше человеческого интеллекта.
  2. Масштаб: Проект предполагает привлечение значительных ресурсов, как финансовых, так и интеллектуальных. Это включает в себя ведущих ученых, инженеров, философов, этиков и других специалистов со всего мира.
  3. Финансирование: Для такого проекта потребуется значительное финансирование, вероятно, на уровне миллиардов долларов, что может быть обеспечено правительствами, крупными корпорациями или международными консорциумами.
  4. Координация: Как и в оригинальном Манхэттенском проекте, потребуется высокая степень координации и секретности, чтобы сконцентрировать усилия и защитить разработки от преждевременного распространения или злоупотребления.
  5. Этические и безопасностные аспекты: Создание AGI несет в себе серьезные этические и безопасностные вызовы. Проект должен включать в себя разработку и внедрение мер безопасности, а также обсуждение этических аспектов использования AGI.
  6. Методология:
    • Исследования: Интенсивное исследование в области когнитивной науки, нейробиологии, машинного обучения, теории информации и других смежных дисциплин.
    • Разработка: Разработка алгоритмов, архитектур и моделей, которые могут привести к созданию AGI.
    • Тестирование и эксперименты: Постоянное тестирование и эксперименты для проверки гипотез и прогресса в разработке.
  7. Международное сотрудничество: Учитывая глобальное влияние AGI, проект, скорее всего, потребует международного сотрудничества для обмена знаниями, ресурсами и для установления глобальных стандартов безопасности.
  8. Возможные результаты:
    • Прорыв в технологиях: Разработка AGI может привести к революционным изменениям во всех сферах жизни, от медицины до космических исследований.
    • Риски: Также существуют значительные риски, включая возможность потери контроля над AGI, этические дилеммы и социальные изменения.

AGI Manhattan Project — это пока что теоретическая концепция, которая подчеркивает важность и сложность задачи создания AGI. Хотя на данный момент нет официальных программ с таким названием, многие организации и исследователи работают над аспектами, которые могли бы стать частью такого проекта в будущем. Этот проект требует не только технологических прорывов, но и глубокого понимания последствий для человечества и разработки соответствующих этических и юридических рамок.

Слушания в Конгрессе

Новый доклад для Конгресса рекомендует США начать "Проект Манхэттен" для создания искусственного общего интеллекта. Такой шаг был бы равносильным самоубийственной гонке.

Новый доклад Комиссии по экономическим и стратегическим вопросам между США и Китаем рекомендует, чтобы "Конгресс создал и финансировал программу, напоминающую Проект Манхэттен, целью которой будет гонка за обретением способности искусственного общего интеллекта (AGI)".

Гонка за AGI - это самоубийственная гонка. Предложенный проект AGI Manhattan и фундаментальное непонимание, которое его подкрепляет, представляет собой опасную угрозу для национальной безопасности США. Любая система, превосходящая человека в общем познании и решении проблем, по определению будет лучше человека в исследовании и разработке AI, и, следовательно, сможет самостоятельно улучшаться и размножаться с пугающей скоростью. Ведущие эксперты в области AI согласны с тем, что у нас нет способа предсказать или контролировать такую систему, а также нет надежного способа согласовать её цели и ценности с нашими собственными. Именно поэтому генеральные директора OpenAI, Anthropic и Google DeepMind присоединились к ведущим исследователям в области AI в прошлом году, чтобы предупредить, что AGI может привести к вымиранию человечества. Представление AGI как блага для национальной безопасности противоречит научному консенсусу. Называть это угрозой национальной безопасности - это замечательное преуменьшение.

Адвокаты AGI лукаво манят обещаниями сокращения болезней и бедности, но доклад раскрывает более глубокую мотивацию: ложную надежду, что это даст своему создателю власть. На самом деле, гонка с Китаем за первенство в создании AGI может быть охарактеризована как "война надежд" - основанная на иллюзорной надежде, что её можно контролировать.

В условиях конкурентной гонки не будет возможности решить нерешенные технические проблемы контроля и выравнивания, и каждый стимул будет способствовать передаче решений и власти самой AI. Почти неизбежный результат будет заключаться в том, что интеллект, превосходящий наш собственный, не только будет неконтролируемым по своей природе, но и может самостоятельно управлять системами, которые обеспечивают безопасность и процветание США. Наша критическая инфраструктура, включая ядерные и финансовые системы, будет иметь мало защиты от такой системы. Как сказал лауреат Нобелевской премии по ИИ Джефф Хинтон в прошлом месяце: "Когда искусственные интеллекты станут умнее нас, они возьмут на себя контроль."

Доклад совершает научное мошенничество, предполагая, что AGI почти наверняка контролируем. Более того, утверждение, что такой проект соответствует интересам "национальной безопасности", лукаво искажает науку и последствия этой трансформирующей технологии, что подтверждается техническими ошибками в самом докладе - который, похоже, был подготовлен без значительного участия экспертов по ИИ. США должны надежно укреплять национальную безопасность не путем потери контроля над AGI, а путем создания инновационного инструментального AI, который укрепляет её промышленность, науку, образование, здравоохранение и оборону, и тем самым закрепляет лидерство США на поколения вперед.