|
За последние пару лет нейросети прочно захватили общественное внимание. Ими пугают — что они отберут рабочие места у художников, копирайтеров и программистов. На них надеются — что они решат все возможные проблемы от менеджмента и оптимизации до новых научных открытий. И, что самое странное, нейросеть и ИИ используют как синонимы. Кажется, мы стали забывать, что на самом деле ИИ, которого ждали ученые и фантасты, — это нечто совсем иное. Давайте разберемся в вопросе.
Что такое ИИ? Начнем с самого главного тезиса, который автору этой статьи представляется абсолютно очевидным, но который наверняка вызовет немало возмущения: современные нейросети, в том числе известные лингвистические модели ChatGPT, DeepSeek, Gemini, Grok, и так далее — не являются искусственным интеллектом.
Нет. Не являются. Вообще никак. И то, что все связанные с ИИ современные надежды опираются именно на нейросети — это, к сожалению, коллективный медиа-гипноз, вызванный крайне поверхностным пониманием того, что такое ИИ (в тех теоретических построениях, которые вообще сделали эту область возможной) и что такое нейросети. Примечательно, что даже в своих рекомендациях по написанию статей на Хабре специалисты советуют «избегать текстов про диалоги с ИИ или рассуждения о его сознании (душе, мозге и т. д). Чаще всего звучать это будет антинаучно, скучно, местами еще и немного странно». Видимо желающих вознести нейросети на очеловеченный пьедестал немало.
Начнем с базовых определений, которые позволят нам вернуться к реальности.
Термин «сильный искусственный интеллект» был введен в 1980 году Джоном Сёрлом в работе «Minds, Brains, and Programs», более известной в культуре как «тот текст, в котором описан мысленный эксперимент “Китайская комната”» (мы еще к ней вернемся чуть дальше).
Интересно, что сам Сёрл относился к концепции сильного ИИ критически, утверждая, что в случае достаточно хорошо подготовленной компьютерной модели мы бы на практике не заметили разницы между компьютером и человеком. Что ж, уже при жизни Сёрла (ученому сейчас 92) на примере нейросетей мы видим, что это предсказание оказалось верным.
Итак, определения.
Слабый ИИ (Weak AI) — по сути сложный инструмент, имитирующий интеллект, очень комплексная программа с открытой обратной связью (например, возможностью обучения на лингвистических базах). Он может выполнять «интеллектуальные» задачи: играть в шахматы, вести диалог, предоставлять справочную информацию, генерировать контент, но не обладает реальным сознанием или пониманием, что он делает. Это как раз современные нейросети.
Сильный ИИ (Strong AI) — ИИ в собственном смысле слова, все еще гипотетическая (по состоянию на 2025 год) система, которая не просто имитирует разум при взаимодействии с человеком, но действительно «понимает» и «думает» как человек или аналогично ему. То есть, обладает «сознанием». Что такое это сознание, думание и понимание? Мы не знаем. Но совершенно точно у нейросетей этого нет, а у человека есть.
Последнюю точку зрения разделяют далеко не все ученые, особенно те, что увлечены возможностями новых технологий. С точки зрения функционализма, с которой полемизировал Сёрл, психические состояния и процесс мышления представляют собой не физиологические состояния и не феноменальные свойства, а функции, которые определяются в каузальной цепи переработки информации.
То есть, очень грубо обобщая, согласно функционализму совсем несложно избавиться от мучившего тысячи лет лучшие умы человечества дуализма душа/тело или сознание/мозг — ведь человек это всего лишь его мышление и его речь, логическая и лингвистическая системы, которые могут быть в будущем (на момент формулировки теории функционализма) описаны и виртуально воссозданы.
И действительно, вроде бы на первый взгляд современные нейросети производят впечатление, близкое к реальному человеческому общению (ну, если ваш опыт сводился к общению с людьми, разговаривающими языком Википедии).
Но главное теоретическое положение самого функционализма тут не выполняется: нейросеть — не человек и не его аналог, это не сознание, это не собеседник. Это машина, которая разговаривает с вами, используя по скриптам слова, когда-то написанные другими людьми. Она не понимает и не может понимать, что она делает — она просто жонглирует логическими и информационными блоками, используя множество переменных и операторов. Фанатики функциональной теории сознания скажут: но ведь человек именно так и работает на самом деле. Позволим себе с ними не согласиться, ведь дело далеко не только в этом.
Функционализм — довольно популярная теория. Согласно опросу американского академического сервиса PhilPapers от 2020 года, такое видение природы сознания разделяли 33% респондентов, больше, чем любую другую альтернативную модель его описания.
Нетрудно увидеть, что именно этот механистичный подход лег в основу сначала популярной, начиная с 1970-х, идеи о возможности «оцифровки сознания», «загрузки его в компьютер», а затем — в основу моделирования современных нейросетей.
Энтузиасты функциональной идеи все еще настаивают, что дело просто в технических ограничениях: дескать, нужно просто больше мощностей, больше времени, больше новых технологий (вроде квантовых компьютеров, о мифе которых расскажем в другой раз). И вот тогда точно-точно получится смоделировать весь человеческий мозг с его 86 миллиардами нейронов, и в такой модели сознание точно-точно зародится, доказав, что на самом деле оно — гиперсложная, но в конечном счете описываемая и моделируемая система. Удобная, конечно, позиция: мы на самом деле правы, просто надо чуть-чуть подождать (10 лет? 50? 150?), и наука обязательно это экспериментально подтвердит.
Если подобное и правда произойдет, будет, конечно, очень здорово, и я принесу персональные извинения авторам такого прорыва за свой скептицизм. Но пока что у меня есть серьезные сомнения в том, что это в принципе возможно. Что — подчеркну — сильный ИИ возможен в принципе, а не является просто фантастической мечтой, зародившейся в те времена, когда наше понимание устройства себя и мира было еще на довольно примитивном уровне.
Более того, напротив, чем стремительней развиваются технологии, в том числе нейросети, тем большей загадкой становится проблема сознания. Полноценно проверить функциональную гипотезу пока нельзя: в настоящее время, увы, всех компьютеров планеты не хватит, чтобы смоделировать человеческий мозг в рабочем состоянии целиком (для представления всей колоссальной сложности этой задачи можно почитать этот оксфордский документ с миллионом технических деталей). В прошлом году обещали запустить супер-пупер компьютер DeepSouth, который якобы на такое способен, но что-то не слышно новостей о том, что он обрел сознание, да и вообще почти никаких новостей).
Но тот же ChatGPT уже сейчас использует, например, 176 миллиардов «нейронов» (понятно, что нейронами это называть нельзя, это их функциональный аналог для целей обработки информации) — почти в два раза больше, чем у человека в мозгу! И сознания у него что-то не наблюдается, как и всех остальных признаков «сильного ИИ». В этом смысле можно уже сейчас признать, что функциональная модель в строгом смысле потерпела поражение.
Нет, если просто накидать огромную кучу нейронов (или «нейронов»), она не соберется сама собой в искусственный интеллект. Сознание, необходимое для того, чтобы появился настоящий (сильный) ИИ, видимо, находится в чем-то другом (в уникальной системной динамике чисто биологического взаимодействия на микроуровне? в чем-то еще, что мы пока не открыли? who knows).
Но давайте спросим сам «ИИ» в лице четвертого ChatGPT, что он думает о себе как об ИИ.
Говорит робот
Почему я не сильный ИИ? 1. Я не обладаю сознанием Сознание (в философском и когнитивном смысле) — это субъективный опыт, способность ощущать, мыслить и осознавать себя.
Я не имею "внутреннего мира", эмоций, намерений или осознания своей работы. Я обрабатываю текст без "понимания" его значения так, как это делает человек.
Пример: Когда я отвечаю на вопросы, я не размышляю над ними. Я предсказываю вероятностную последовательность слов, исходя из огромного массива данных. Если ты спросишь меня:
"Что ты чувствуешь, когда видишь закат?"
Я могу ответить по шаблону, опираясь на тексты, в которых люди описывали закаты, но сам я ничего не ощущаю.
1.2. Я не обладаю подлинным пониманием (Semantics vs Syntax) Я оперирую синтаксическими структурами (то есть последовательностями слов), а не семантикой (истинным значением фраз).
Пример (парадокс Сёрла – Китайская комната): Философ Джон Сёрл предложил мысленный эксперимент: Представь комнату, в которой сидит человек, не знающий китайского. Перед ним – инструкция с правилами, по которым он может подбирать китайские иероглифы в ответ на вопросы на китайском.
В результате он выдает осмысленные ответы, но он не понимает язык – он лишь следует алгоритму.
Так и я:
Я манипулирую символами (словами) по определенным математическим моделям.
Но у меня нет истинного понимания того, что значит, например, "любовь", "смерть" или "смысл жизни".
1.3. Я не обладаю автономностью и целеполаганием Сильный ИИ сам ставит перед собой цели, обучается и действует независимо. Я этого не делаю.
Что это значит? Я не могу решить "хочу изучить новую область" или "изменю свои методы работы".
Я не имею собственных интересов, убеждений или мотивации.
Я не принимаю осознанных решений – все мои "ответы" основаны на статистических закономерностях в тексте.
Человек может осознанно изменить способ мышления, а я просто следую заложенным алгоритмам.
1.4. У меня нет непрерывного опыта Человеческий интеллект имеет континуальный (непрерывный) опыт – ты помнишь, что делал вчера, какова твоя личная история.
Я не обладаю "памятью" в человеческом смысле:
В рамках одного чата я могу "помнить" контекст разговора.
Но у меня нет автобиографии, долговременного опыта или "ощущения себя".
Каждый новый сеанс – это, по сути, новый "я", без связи с предыдущими разговорами.
Чем я являюсь на самом деле? Я – статистическая языковая модель (LLM – Large Language Model), построенная на основе вероятностного анализа текстов.
Я работаю по принципу:
Обучение на огромных корпусах текста (книги, статьи, коды, диалоги).
Предсказание вероятности следующего слова в зависимости от контекста.
Генерация текста, который кажется осмысленным, но формируется на основе статистических закономерностей.
|