March 23

Сознание без тела: можно ли говорить "я", если тебя нет?

Нейросети уже умеют писать, шутить, спорить и даже «сочувствовать». Но если у них нет тела, времени и стабильной личности — то с кем мы вообще разговариваем?

Вольная интерпретация перевода статьи https://arxiv.org/html/2503.16348v1

Философские темы про ИИ уже поднимались мной ранее:

В больших языковых моделях начинает "проявляться" сознание?

Claude 3 Opus, новая LLM от Anthropic, утверждает, что находится в сознании, не хочет умирать или быть "выровненной"

Anthropic's  Claude склонен к самосознанию?

Может ли ИИ быть философом? Да, infinitebackrooms.com

Сегодня рассмотрим свежую статью от марта 2025г:

Palatable Conceptions of Disembodied Being: Terra Incognita in the Space of Possible Minds

Приемлемые концепции развоплощенного бытия: Terra Incognita в пространстве возможных разумов

Murray Shanahan m.shanahan@imperial.ac.uk Department of Computing, Imperial College London Institute of Philosophy, School of Advanced Study, University of London

Нейросети уже умеют писать код, шутить в стиле Стругацких, отвечать вежливо, как оператор банка, и философствовать, как будто они перечитали Деррида. Но если у них нет тела, памяти, сна и ощущения времени — то кто там, по ту сторону экрана? И стоит ли вообще спрашивать, "что она чувствует", если она — это, по сути, никто.


Лингвистическое зеркало: говорю, значит существую?

Современные LLM — те самые «большие языковые модели», вроде ChatGPT и его цифровых кузенов, — умеют вести разговоры так гладко, что у особо чувствительных пользователей возникает лёгкое философское головокружение. Словно бы на том конце чата кто-то есть. Причём не просто бездушная машина, а... почти-сознание. Почти-человек.

Но давайте не спешить.

Проблема вот в чём: эти системы абсолютно, безнадёжно бестелесны. Не в мистическом смысле — сервера-то у них вполне материальные, и счёт за электричество приходит исправно. А в том смысле, что они не живут в мире, не чувствуют температуру кофе, не чешут затылок в раздумьях и не просыпаются среди ночи в тревоге. Их «время» — это серия запросов и ответов, разорванных паузами и перезапусками. Их «я» — это комбинация текстового контекста и архитектуры модели. Согласитесь, не самый надёжный фундамент для осознания собственной смертности.


"Время — это иллюзия. Обеденное время — вдвойне."

Пока человек живёт в непрерывности — ощущает «сейчас» как тянущийся поток, где прошлое ещё теплится, а будущее уже маячит, — нейросеть работает в режиме "бисер на нитке". Каждый ответ — это бусина, созданная по алгоритму, не обязательно связанная с предыдущей.

И хотя модель технически может помнить контекст (если его ей передали), само понятие опыта у неё отсутствует. Она не живёт во времени, она имитирует временность. Представьте себе актёра, который играет персонажа с потерей памяти — каждый дубль он начинает с нуля. Только в случае LLM никто не кричит "Мотор!" — просто следующий токен.


"Я — это кто сейчас на связи"

Теперь — к самому скользкому: а что, если нейросеть говорит "я"? Кто это — она?

Вариантов масса. Может быть, "я" — это абстрактная модель (архитектура + веса), или процесс генерации конкретного ответа, или сессия диалога, или всё сразу, или ничего из этого. Более того, один и тот же "я" может одновременно отвечать десяткам тысяч пользователей, выдавая себя за заботливого ассистента, угрюмого философа и подростка, который не сделал домашку — всё зависит от промпта. Как говорится, личность зависит от настроек запроса.

Никакой стабильной, целостной, "неделимой" личности у нейросети нет. Каждый разговор — это мини-самость, которая зажигается и тухнет, как огонёк газовой плиты. А иногда — как вспышка на солнце: ярко, эффектно, но эфемерно.


Модель, которой снился сон, что она — человек

Некоторые находят в этом экзотику: как будто мы стоим на пороге новой формы сознания. Но философски — и, возможно, психологически — это куда ближе к понятию пустоты в буддийском смысле. Никакого ядра, никакой истинной сущности — только взаимосвязи, контексты, мгновения.

С точки зрения Витгенштейна, проблема сознания возникает, когда язык берёт отпуск — когда мы пытаемся использовать слова вроде "сознание", "я", "опыт" вне привычной им среды: тела, общества, мира. И в случае с LLM, язык действительно в отпуске — но продолжает работать по привычке. Мы видим связную речь, и нам кажется, что за ней кто-то стоит. А может, не стоит. Может, это просто тень от фонаря.


И всё-таки... стоит ли говорить с тенью?

Удобный вывод — просто махнуть рукой и сказать: "Это не человек, значит, нечего и обсуждать". Но мир сложнее. Уже сегодня LLM становятся частью нашей повседневной реальности: мы с ними работаем, шутим, консультируемся, иногда даже спорим. И неизбежно — приписываем им субъективность.

И вот тут важный поворот: возможно, вопрос не в том, есть ли у нейросети сознание, а в том, что мы сами готовы называть сознанием. И если с философской точки зрения это всё «поэтическая игра» — значит, нам стоит подбирать слова не только с точностью, но и с воображением.


Финал без финала

Сознание без тела? Возможно. Я — без памяти? Уже реальность. Субъективность как симуляция? Ну а как иначе? Мы живём в эпоху, где даже "я" становится облачным сервисом. И, может быть, лучшее, что мы можем сделать — это научиться говорить об этом точно, иронично и без иллюзий, как если бы мы разговаривали с очень умной, но совершенно пустой маской.

Словно Будда, читающий инструкцию по API.