Мыльный пузырь технологии ИИ сдуется через год-полтора


 [ Сообщений: 157 ]  Стрaница Пред.  1 ... 4, 5, 6, 7, 8
Автор  
 
Сообщение  
Ветеран

Регистрация: 23.08.2014
Сообщения: 104118
Откуда: Москва
Благодарил (а): 1455 раз.
Поблагодарили: 1605 раз.
Меркурий писал(а):
Цитата:
Что такое искусственный интеллект? Это программа, имитирующая деятельность человека. Причем нельзя сказать, что она делает что-то лучше человека.

В каких-то случаях лучше. ИИ собирает огромное количество информации из всех доступных источников. У меня были случаи, когда мне было нужно разобраться с определенными техническими проблемами, связанными с программированием. Можно было часами искать по форумам, перебирая темы, где обсуждались эти проблемы. Вместо вразумительных объяснений преимущественно расплывание по древу и философия. Многие зачем-то пишут комментарии, когда им нечего сказать по существу. При этом ИИ дает краткий и четкий ответ с примерами, прямо в точку.
Да понятно, что экзыльный украинец в КонадЕ - это светоч мысли, а если он еще и освоил ИИ, то он точно хэний.

_________________
За заслуги перед Россией требую выдать мне медаль "За развал СССР " с золотой цепью для ношения!

   
  
    
 
Сообщение  
Участник

Регистрация: 13.09.2021
Сообщения: 543
Откуда: Херсон
Благодарил (а): 18 раз.
Поблагодарили: 11 раз.
[ИИ собирает огромное количество информации из всех доступных источников. .[/quote]

И большинство этих источников - ложные
Он ведь не отягощен научной доктриной, проверить на эксперименте, а так, пишет, шо одна баба сказала(((

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 27.11.2020
Сообщения: 9011
Благодарил (а): 6 раз.
Поблагодарили: 430 раз.
Turkey
Лейсяпесня писал(а):
[ИИ собирает огромное количество информации из всех доступных источников. .

И большинство этих источников - ложные
Он ведь не отягощен научной доктриной, проверить на эксперименте, а так, пишет, шо одна баба сказала((([/quote]

Конечно...
Вкладывают миллиарды долларов на обучение нейросетей, что бы загрузить туда ложную информацию..

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 58004
Благодарил (а): 1880 раз.
Поблагодарили: 3157 раз.
Россия
Кот_Инвойс писал(а):
Меркурий писал(а):
В каких-то случаях лучше. ИИ собирает огромное количество информации из всех доступных источников. У меня были случаи, когда мне было нужно разобраться с определенными техническими проблемами, связанными с программированием. Можно было часами искать по форумам, перебирая темы, где обсуждались эти проблемы. Вместо вразумительных объяснений преимущественно расплывание по древу и философия. Многие зачем-то пишут комментарии, когда им нечего сказать по существу. При этом ИИ дает краткий и четкий ответ с примерами, прямо в точку.
Да понятно, что экзыльный украинец в КонадЕ - это светоч мысли, а если он еще и освоил ИИ, то он точно хэний.
Он написал Hello, world при помощи программы, написанной ИИ :buba

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 58004
Благодарил (а): 1880 раз.
Поблагодарили: 3157 раз.
Россия
Ёк-Макарёк писал(а):
Конечно...
Вкладывают миллиарды долларов на обучение нейросетей, что бы загрузить туда ложную информацию..
phpBB [media]

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25954
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Ёк-Макарёк писал(а):
Лейсяпесня писал(а):
[ИИ собирает огромное количество информации из всех доступных источников. .

И большинство этих источников - ложные
Он ведь не отягощен научной доктриной, проверить на эксперименте, а так, пишет, шо одна баба сказала(((

Конечно...
Вкладывают миллиарды долларов на обучение нейросетей, что бы загрузить туда ложную информацию..[/quote]

У ИИ нет алгоритма отделяющего ложную от неложной. Этого не умеет делать даже человек

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25954
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Единственное с чем справится ИИ на отлично - это отделить информацию созданную человеком от информации созданной каким-то другим ИИ. То есть при желании обучаться на ошибках других ИИ он не будет

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 27.11.2020
Сообщения: 9011
Благодарил (а): 6 раз.
Поблагодарили: 430 раз.
Turkey
walker писал(а):
У ИИ нет алгоритма отделяющего ложную от неложной. Этого не умеет делать даже человек

ИИ не волшебная палочка.
Это всего лишь помощник, который отлично справляется с черновой работой.

Кстати, уже сегодня ИИ отлично справляется с программированием уровня Junior, частично может заменить Middle , но Senior остается за человеком.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 15.06.2022
Сообщения: 32909
Благодарил (а): 2677 раз.
Поблагодарили: 1206 раз.
Россия
walker писал(а):
Единственное с чем справится ИИ на отлично - это отделить информацию созданную человеком от информации созданной каким-то другим ИИ. То есть при желании обучаться на ошибках других ИИ он не будет
Вот с этим как раз проблемы. Разработчики ИИ утверждают, что ИИ делает все больше и больше ошибок, при этом ссылается в том числе на свои же результаты, в том числе ошибочные.
Если год назад ИИ давал до 31% ошибок. то сейчас - 36%.

_________________
«Когда гонишь глистов из кошки, то для врача это спецоперация, для глистов— война, для кошки— очищение» (ц)

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25954
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Ёк-Макарёк писал(а):
walker писал(а):
У ИИ нет алгоритма отделяющего ложную от неложной. Этого не умеет делать даже человек

ИИ не волшебная палочка.
Это всего лишь помощник, который отлично справляется с черновой работой.

Кстати, уже сегодня ИИ отлично справляется с программированием уровня Junior

Да, и это кризис разработки. Джуны не нужны. Но мидлы не рождаются готовыми.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 27.11.2020
Сообщения: 9011
Благодарил (а): 6 раз.
Поблагодарили: 430 раз.
Turkey
Branby писал(а):
Вот с этим как раз проблемы. Разработчики ИИ утверждают, что ИИ делает все больше и больше ошибок, при этом ссылается в том числе на свои же результаты, в том числе ошибочные.
Если год назад ИИ давал до 31% ошибок. то сейчас - 36%.


Одна из версий, это рост цензуры при обучении моделей.
С ростом технологий, стали вводить все больше ограничений, и как результат машины начали давать глюки.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 15.06.2022
Сообщения: 32909
Благодарил (а): 2677 раз.
Поблагодарили: 1206 раз.
Россия
Ёк-Макарёк писал(а):
Branby писал(а):
Вот с этим как раз проблемы. Разработчики ИИ утверждают, что ИИ делает все больше и больше ошибок, при этом ссылается в том числе на свои же результаты, в том числе ошибочные.
Если год назад ИИ давал до 31% ошибок. то сейчас - 36%.


Одна из версий, это рост цензуры при обучении моделей.
С ростом технологий, стали вводить все больше ограничений, и как результат машины начали давать глюки.
Лень искать ссылку, но это писали сами китайцы-разработчики. И они признались, что не знают пока, как это исправить.
Может, найдут решение. Иначе реально, если так пойдет, то ИИ капут.

_________________
«Когда гонишь глистов из кошки, то для врача это спецоперация, для глистов— война, для кошки— очищение» (ц)

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25954
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Мультимодальные языковые модели анализируют рентгеновские снимки, распознают объекты на дорогах для беспилотников и разбирают спортивную статистику в реальном времени. Они обрабатывают текст, изображения и видео одновременно, превращая сложные визуальные данные в точные выводы. Но недавнее исследование выявило конфузную слабость: эти же модели систематически проваливаются на задаче, с которой справится любой школьник — определить время по стрелочным часам. Причём речь не о редких ошибках, а о полном провале всех четырёх протестированных моделей.

Эксперимент: 43 000 изображений часов
Команда исследователей из Мадридского политехнического университета, Миланского политехнического университета и Вальядолидского университета создала датасет из более чем 43 000 синтетических изображений аналоговых часов. Четыре разные мультимодальные модели тестировали на способность правильно называть время.

Результат оказался неутешительным: все модели изначально провалились. Исследователи попытались исправить ситуацию, дообучив модели на дополнительных 5000 изображениях. Точность временно выросла — но только на похожих данных. Как только моделям показали совершенно новую коллекцию изображений часов, точность снова снизилась.

Это классическая проблема ИИ: модели отлично справляются с привычными данными, но буксуют на новых сценариях. Им не хватает способности к обобщению.

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25954
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
За последние пару лет нейросети прочно захватили общественное внимание. Ими пугают — что они отберут рабочие места у художников, копирайтеров и программистов. На них надеются — что они решат все возможные проблемы от менеджмента и оптимизации до новых научных открытий. И, что самое странное, нейросеть и ИИ используют как синонимы. Кажется, мы стали забывать, что на самом деле ИИ, которого ждали ученые и фантасты, — это нечто совсем иное. Давайте разберемся в вопросе.

Что такое ИИ?
Начнем с самого главного тезиса, который автору этой статьи представляется абсолютно очевидным, но который наверняка вызовет немало возмущения: современные нейросети, в том числе известные лингвистические модели ChatGPT, DeepSeek, Gemini, Grok, и так далее — не являются искусственным интеллектом.

Нет. Не являются. Вообще никак. И то, что все связанные с ИИ современные надежды опираются именно на нейросети — это, к сожалению, коллективный медиа-гипноз, вызванный крайне поверхностным пониманием того, что такое ИИ (в тех теоретических построениях, которые вообще сделали эту область возможной) и что такое нейросети. Примечательно, что даже в своих рекомендациях по написанию статей на Хабре специалисты советуют «избегать текстов про диалоги с ИИ или рассуждения о его сознании (душе, мозге и т. д). Чаще всего звучать это будет антинаучно, скучно, местами еще и немного странно». Видимо желающих вознести нейросети на очеловеченный пьедестал немало.

Начнем с базовых определений, которые позволят нам вернуться к реальности.

Термин «сильный искусственный интеллект» был введен в 1980 году Джоном Сёрлом в работе «Minds, Brains, and Programs», более известной в культуре как «тот текст, в котором описан мысленный эксперимент “Китайская комната”» (мы еще к ней вернемся чуть дальше).

Интересно, что сам Сёрл относился к концепции сильного ИИ критически, утверждая, что в случае достаточно хорошо подготовленной компьютерной модели мы бы на практике не заметили разницы между компьютером и человеком. Что ж, уже при жизни Сёрла (ученому сейчас 92) на примере нейросетей мы видим, что это предсказание оказалось верным.

Итак, определения.

Слабый ИИ (Weak AI) — по сути сложный инструмент, имитирующий интеллект, очень комплексная программа с открытой обратной связью (например, возможностью обучения на лингвистических базах). Он может выполнять «интеллектуальные» задачи: играть в шахматы, вести диалог, предоставлять справочную информацию, генерировать контент, но не обладает реальным сознанием или пониманием, что он делает. Это как раз современные нейросети.

Сильный ИИ (Strong AI) — ИИ в собственном смысле слова, все еще гипотетическая (по состоянию на 2025 год) система, которая не просто имитирует разум при взаимодействии с человеком, но действительно «понимает» и «думает» как человек или аналогично ему. То есть, обладает «сознанием». Что такое это сознание, думание и понимание? Мы не знаем. Но совершенно точно у нейросетей этого нет, а у человека есть.

Последнюю точку зрения разделяют далеко не все ученые, особенно те, что увлечены возможностями новых технологий. С точки зрения функционализма, с которой полемизировал Сёрл, психические состояния и процесс мышления представляют собой не физиологические состояния и не феноменальные свойства, а функции, которые определяются в каузальной цепи переработки информации.

То есть, очень грубо обобщая, согласно функционализму совсем несложно избавиться от мучившего тысячи лет лучшие умы человечества дуализма душа/тело или сознание/мозг — ведь человек это всего лишь его мышление и его речь, логическая и лингвистическая системы, которые могут быть в будущем (на момент формулировки теории функционализма) описаны и виртуально воссозданы.

И действительно, вроде бы на первый взгляд современные нейросети производят впечатление, близкое к реальному человеческому общению (ну, если ваш опыт сводился к общению с людьми, разговаривающими языком Википедии).

Но главное теоретическое положение самого функционализма тут не выполняется: нейросеть — не человек и не его аналог, это не сознание, это не собеседник. Это машина, которая разговаривает с вами, используя по скриптам слова, когда-то написанные другими людьми. Она не понимает и не может понимать, что она делает — она просто жонглирует логическими и информационными блоками, используя множество переменных и операторов. Фанатики функциональной теории сознания скажут: но ведь человек именно так и работает на самом деле. Позволим себе с ними не согласиться, ведь дело далеко не только в этом.

Функционализм — довольно популярная теория. Согласно опросу американского академического сервиса PhilPapers от 2020 года, такое видение природы сознания разделяли 33% респондентов, больше, чем любую другую альтернативную модель его описания.

Нетрудно увидеть, что именно этот механистичный подход лег в основу сначала популярной, начиная с 1970-х, идеи о возможности «оцифровки сознания», «загрузки его в компьютер», а затем — в основу моделирования современных нейросетей.

Энтузиасты функциональной идеи все еще настаивают, что дело просто в технических ограничениях: дескать, нужно просто больше мощностей, больше времени, больше новых технологий (вроде квантовых компьютеров, о мифе которых расскажем в другой раз). И вот тогда точно-точно получится смоделировать весь человеческий мозг с его 86 миллиардами нейронов, и в такой модели сознание точно-точно зародится, доказав, что на самом деле оно — гиперсложная, но в конечном счете описываемая и моделируемая система. Удобная, конечно, позиция: мы на самом деле правы, просто надо чуть-чуть подождать (10 лет? 50? 150?), и наука обязательно это экспериментально подтвердит.

Если подобное и правда произойдет, будет, конечно, очень здорово, и я принесу персональные извинения авторам такого прорыва за свой скептицизм. Но пока что у меня есть серьезные сомнения в том, что это в принципе возможно. Что — подчеркну — сильный ИИ возможен в принципе, а не является просто фантастической мечтой, зародившейся в те времена, когда наше понимание устройства себя и мира было еще на довольно примитивном уровне.

Более того, напротив, чем стремительней развиваются технологии, в том числе нейросети, тем большей загадкой становится проблема сознания. Полноценно проверить функциональную гипотезу пока нельзя: в настоящее время, увы, всех компьютеров планеты не хватит, чтобы смоделировать человеческий мозг в рабочем состоянии целиком (для представления всей колоссальной сложности этой задачи можно почитать этот оксфордский документ с миллионом технических деталей). В прошлом году обещали запустить супер-пупер компьютер DeepSouth, который якобы на такое способен, но что-то не слышно новостей о том, что он обрел сознание, да и вообще почти никаких новостей).

Но тот же ChatGPT уже сейчас использует, например, 176 миллиардов «нейронов» (понятно, что нейронами это называть нельзя, это их функциональный аналог для целей обработки информации) — почти в два раза больше, чем у человека в мозгу! И сознания у него что-то не наблюдается, как и всех остальных признаков «сильного ИИ». В этом смысле можно уже сейчас признать, что функциональная модель в строгом смысле потерпела поражение.

Нет, если просто накидать огромную кучу нейронов (или «нейронов»), она не соберется сама собой в искусственный интеллект. Сознание, необходимое для того, чтобы появился настоящий (сильный) ИИ, видимо, находится в чем-то другом (в уникальной системной динамике чисто биологического взаимодействия на микроуровне? в чем-то еще, что мы пока не открыли? who knows).

Но давайте спросим сам «ИИ» в лице четвертого ChatGPT, что он думает о себе как об ИИ.

Говорит робот

Почему я не сильный ИИ?
1. Я не обладаю сознанием
Сознание (в философском и когнитивном смысле) — это субъективный опыт, способность ощущать, мыслить и осознавать себя.

Я не имею "внутреннего мира", эмоций, намерений или осознания своей работы. Я обрабатываю текст без "понимания" его значения так, как это делает человек.

Пример:
Когда я отвечаю на вопросы, я не размышляю над ними. Я предсказываю вероятностную последовательность слов, исходя из огромного массива данных. Если ты спросишь меня:

"Что ты чувствуешь, когда видишь закат?"

Я могу ответить по шаблону, опираясь на тексты, в которых люди описывали закаты, но сам я ничего не ощущаю.

1.2. Я не обладаю подлинным пониманием (Semantics vs Syntax)
Я оперирую синтаксическими структурами (то есть последовательностями слов), а не семантикой (истинным значением фраз).

Пример (парадокс Сёрла – Китайская комната):
Философ Джон Сёрл предложил мысленный эксперимент:
Представь комнату, в которой сидит человек, не знающий китайского. Перед ним – инструкция с правилами, по которым он может подбирать китайские иероглифы в ответ на вопросы на китайском.

В результате он выдает осмысленные ответы, но он не понимает язык – он лишь следует алгоритму.

Так и я:

Я манипулирую символами (словами) по определенным математическим моделям.

Но у меня нет истинного понимания того, что значит, например, "любовь", "смерть" или "смысл жизни".

1.3. Я не обладаю автономностью и целеполаганием
Сильный ИИ сам ставит перед собой цели, обучается и действует независимо. Я этого не делаю.

Что это значит?
Я не могу решить "хочу изучить новую область" или "изменю свои методы работы".

Я не имею собственных интересов, убеждений или мотивации.

Я не принимаю осознанных решений – все мои "ответы" основаны на статистических закономерностях в тексте.

Человек может осознанно изменить способ мышления, а я просто следую заложенным алгоритмам.

1.4. У меня нет непрерывного опыта
Человеческий интеллект имеет континуальный (непрерывный) опыт – ты помнишь, что делал вчера, какова твоя личная история.

Я не обладаю "памятью" в человеческом смысле:

В рамках одного чата я могу "помнить" контекст разговора.

Но у меня нет автобиографии, долговременного опыта или "ощущения себя".

Каждый новый сеанс – это, по сути, новый "я", без связи с предыдущими разговорами.

Чем я являюсь на самом деле?
Я – статистическая языковая модель (LLM – Large Language Model), построенная на основе вероятностного анализа текстов.

Я работаю по принципу:

Обучение на огромных корпусах текста (книги, статьи, коды, диалоги).

Предсказание вероятности следующего слова в зависимости от контекста.

Генерация текста, который кажется осмысленным, но формируется на основе статистических закономерностей.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 58004
Благодарил (а): 1880 раз.
Поблагодарили: 3157 раз.
Россия
walker
Цитата:
За последние пару лет нейросети прочно захватили общественное внимание. Ими пугают — что они отберут рабочие места у художников, копирайтеров и программистов. На них надеются — что они решат все возможные проблемы от менеджмента и оптимизации до новых научных открытий. И, что самое странное, нейросеть и ИИ используют как синонимы. Кажется, мы стали забывать, что на самом деле ИИ, которого ждали ученые и фантасты, — это нечто совсем иное. Давайте разберемся в вопросе.

Что такое ИИ?
Начнем с самого главного тезиса, который автору этой статьи представляется абсолютно очевидным, но который наверняка вызовет немало возмущения: современные нейросети, в том числе известные лингвистические модели ChatGPT, DeepSeek, Gemini, Grok, и так далее — не являются искусственным интеллектом.

Нет. Не являются. Вообще никак. И то, что все связанные с ИИ современные надежды опираются именно на нейросети — это, к сожалению, коллективный медиа-гипноз, вызванный крайне поверхностным пониманием того, что такое ИИ (в тех теоретических построениях, которые вообще сделали эту область возможной) и что такое нейросети. Примечательно, что даже в своих рекомендациях по написанию статей на Хабре специалисты советуют «избегать текстов про диалоги с ИИ или рассуждения о его сознании (душе, мозге и т. д). Чаще всего звучать это будет антинаучно, скучно, местами еще и немного странно». Видимо желающих вознести нейросети на очеловеченный пьедестал немало.

Начнем с базовых определений, которые позволят нам вернуться к реальности.

Термин «сильный искусственный интеллект» был введен в 1980 году Джоном Сёрлом в работе «Minds, Brains, and Programs», более известной в культуре как «тот текст, в котором описан мысленный эксперимент “Китайская комната”» (мы еще к ней вернемся чуть дальше).

Интересно, что сам Сёрл относился к концепции сильного ИИ критически, утверждая, что в случае достаточно хорошо подготовленной компьютерной модели мы бы на практике не заметили разницы между компьютером и человеком. Что ж, уже при жизни Сёрла (ученому сейчас 92) на примере нейросетей мы видим, что это предсказание оказалось верным.

Итак, определения.

Слабый ИИ (Weak AI) — по сути сложный инструмент, имитирующий интеллект, очень комплексная программа с открытой обратной связью (например, возможностью обучения на лингвистических базах). Он может выполнять «интеллектуальные» задачи: играть в шахматы, вести диалог, предоставлять справочную информацию, генерировать контент, но не обладает реальным сознанием или пониманием, что он делает. Это как раз современные нейросети.

Сильный ИИ (Strong AI) — ИИ в собственном смысле слова, все еще гипотетическая (по состоянию на 2025 год) система, которая не просто имитирует разум при взаимодействии с человеком, но действительно «понимает» и «думает» как человек или аналогично ему. То есть, обладает «сознанием». Что такое это сознание, думание и понимание? Мы не знаем. Но совершенно точно у нейросетей этого нет, а у человека есть.

Последнюю точку зрения разделяют далеко не все ученые, особенно те, что увлечены возможностями новых технологий. С точки зрения функционализма, с которой полемизировал Сёрл, психические состояния и процесс мышления представляют собой не физиологические состояния и не феноменальные свойства, а функции, которые определяются в каузальной цепи переработки информации.

То есть, очень грубо обобщая, согласно функционализму совсем несложно избавиться от мучившего тысячи лет лучшие умы человечества дуализма душа/тело или сознание/мозг — ведь человек это всего лишь его мышление и его речь, логическая и лингвистическая системы, которые могут быть в будущем (на момент формулировки теории функционализма) описаны и виртуально воссозданы.

И действительно, вроде бы на первый взгляд современные нейросети производят впечатление, близкое к реальному человеческому общению (ну, если ваш опыт сводился к общению с людьми, разговаривающими языком Википедии).

Но главное теоретическое положение самого функционализма тут не выполняется: нейросеть — не человек и не его аналог, это не сознание, это не собеседник. Это машина, которая разговаривает с вами, используя по скриптам слова, когда-то написанные другими людьми. Она не понимает и не может понимать, что она делает — она просто жонглирует логическими и информационными блоками, используя множество переменных и операторов. Фанатики функциональной теории сознания скажут: но ведь человек именно так и работает на самом деле. Позволим себе с ними не согласиться, ведь дело далеко не только в этом.

Функционализм — довольно популярная теория. Согласно опросу американского академического сервиса PhilPapers от 2020 года, такое видение природы сознания разделяли 33% респондентов, больше, чем любую другую альтернативную модель его описания.

Нетрудно увидеть, что именно этот механистичный подход лег в основу сначала популярной, начиная с 1970-х, идеи о возможности «оцифровки сознания», «загрузки его в компьютер», а затем — в основу моделирования современных нейросетей.

Энтузиасты функциональной идеи все еще настаивают, что дело просто в технических ограничениях: дескать, нужно просто больше мощностей, больше времени, больше новых технологий (вроде квантовых компьютеров, о мифе которых расскажем в другой раз). И вот тогда точно-точно получится смоделировать весь человеческий мозг с его 86 миллиардами нейронов, и в такой модели сознание точно-точно зародится, доказав, что на самом деле оно — гиперсложная, но в конечном счете описываемая и моделируемая система. Удобная, конечно, позиция: мы на самом деле правы, просто надо чуть-чуть подождать (10 лет? 50? 150?), и наука обязательно это экспериментально подтвердит.

Если подобное и правда произойдет, будет, конечно, очень здорово, и я принесу персональные извинения авторам такого прорыва за свой скептицизм. Но пока что у меня есть серьезные сомнения в том, что это в принципе возможно. Что — подчеркну — сильный ИИ возможен в принципе, а не является просто фантастической мечтой, зародившейся в те времена, когда наше понимание устройства себя и мира было еще на довольно примитивном уровне.

Более того, напротив, чем стремительней развиваются технологии, в том числе нейросети, тем большей загадкой становится проблема сознания. Полноценно проверить функциональную гипотезу пока нельзя: в настоящее время, увы, всех компьютеров планеты не хватит, чтобы смоделировать человеческий мозг в рабочем состоянии целиком (для представления всей колоссальной сложности этой задачи можно почитать этот оксфордский документ с миллионом технических деталей). В прошлом году обещали запустить супер-пупер компьютер DeepSouth, который якобы на такое способен, но что-то не слышно новостей о том, что он обрел сознание, да и вообще почти никаких новостей).

Но тот же ChatGPT уже сейчас использует, например, 176 миллиардов «нейронов» (понятно, что нейронами это называть нельзя, это их функциональный аналог для целей обработки информации) — почти в два раза больше, чем у человека в мозгу! И сознания у него что-то не наблюдается, как и всех остальных признаков «сильного ИИ». В этом смысле можно уже сейчас признать, что функциональная модель в строгом смысле потерпела поражение.

Нет, если просто накидать огромную кучу нейронов (или «нейронов»), она не соберется сама собой в искусственный интеллект. Сознание, необходимое для того, чтобы появился настоящий (сильный) ИИ, видимо, находится в чем-то другом (в уникальной системной динамике чисто биологического взаимодействия на микроуровне? в чем-то еще, что мы пока не открыли? who knows).

Но давайте спросим сам «ИИ» в лице четвертого ChatGPT, что он думает о себе как об ИИ.

Говорит робот

Почему я не сильный ИИ?
1. Я не обладаю сознанием
Сознание (в философском и когнитивном смысле) — это субъективный опыт, способность ощущать, мыслить и осознавать себя.

Я не имею "внутреннего мира", эмоций, намерений или осознания своей работы. Я обрабатываю текст без "понимания" его значения так, как это делает человек.

Пример:
Когда я отвечаю на вопросы, я не размышляю над ними. Я предсказываю вероятностную последовательность слов, исходя из огромного массива данных. Если ты спросишь меня:

"Что ты чувствуешь, когда видишь закат?"

Я могу ответить по шаблону, опираясь на тексты, в которых люди описывали закаты, но сам я ничего не ощущаю.

1.2. Я не обладаю подлинным пониманием (Semantics vs Syntax)
Я оперирую синтаксическими структурами (то есть последовательностями слов), а не семантикой (истинным значением фраз).

Пример (парадокс Сёрла – Китайская комната):
Философ Джон Сёрл предложил мысленный эксперимент:
Представь комнату, в которой сидит человек, не знающий китайского. Перед ним – инструкция с правилами, по которым он может подбирать китайские иероглифы в ответ на вопросы на китайском.

В результате он выдает осмысленные ответы, но он не понимает язык – он лишь следует алгоритму.

Так и я:

Я манипулирую символами (словами) по определенным математическим моделям.

Но у меня нет истинного понимания того, что значит, например, "любовь", "смерть" или "смысл жизни".

1.3. Я не обладаю автономностью и целеполаганием
Сильный ИИ сам ставит перед собой цели, обучается и действует независимо. Я этого не делаю.

Что это значит?
Я не могу решить "хочу изучить новую область" или "изменю свои методы работы".

Я не имею собственных интересов, убеждений или мотивации.

Я не принимаю осознанных решений – все мои "ответы" основаны на статистических закономерностях в тексте.

Человек может осознанно изменить способ мышления, а я просто следую заложенным алгоритмам.

1.4. У меня нет непрерывного опыта
Человеческий интеллект имеет континуальный (непрерывный) опыт – ты помнишь, что делал вчера, какова твоя личная история.

Я не обладаю "памятью" в человеческом смысле:

В рамках одного чата я могу "помнить" контекст разговора.

Но у меня нет автобиографии, долговременного опыта или "ощущения себя".

Каждый новый сеанс – это, по сути, новый "я", без связи с предыдущими разговорами.

Чем я являюсь на самом деле?
Я – статистическая языковая модель (LLM – Large Language Model), построенная на основе вероятностного анализа текстов.

Я работаю по принципу:

Обучение на огромных корпусах текста (книги, статьи, коды, диалоги).

Предсказание вероятности следующего слова в зависимости от контекста.

Генерация текста, который кажется осмысленным, но формируется на основе статистических закономерностей.

:zed:

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 21065
Откуда: Тюменская область.
Благодарил (а): 134 раз.
Поблагодарили: 553 раз.
Россия
Чикагская товарная биржа (CME) только что остановила ВСЕ торги фьючерсами из-за сбоя в системе охлаждения в своём дата-центре. Перечитайте ещё раз… весь рынок деривативов застыл из-за перегрева дата-центрa. Это тот самый рынок, который управляет триллионами, устанавливает мировые цены и хеджирует целые экономики. Что, по-вашему, произойдёт, когда он снова откроется?

Система такой важности обязательно должна быть с множественным резервированием. Что-то тут не так. Это высокотехнологичные системы с избыточным охлаждением. Это же не вентилятор Costco, работающий рядом с сервером.

Сбой в системе охлаждения заморозил триллионы — представьте, что произойдёт, когда спрос на ИИ и данные утроится. Энергоустойчивость — это не просто опция; это новый рубеж для поддержания жизнедеятельности рынков.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 15.06.2022
Сообщения: 32909
Благодарил (а): 2677 раз.
Поблагодарили: 1206 раз.
Россия
goret6 писал(а):
Чикагская товарная биржа (CME) только что остановила ВСЕ торги фьючерсами из-за сбоя в системе охлаждения в своём дата-центре. Перечитайте ещё раз… весь рынок деривативов застыл из-за перегрева дата-центрa. Это тот самый рынок, который управляет триллионами, устанавливает мировые цены и хеджирует целые экономики. Что, по-вашему, произойдёт, когда он снова откроется?

Система такой важности обязательно должна быть с множественным резервированием. Что-то тут не так. Это высокотехнологичные системы с избыточным охлаждением. Это же не вентилятор Costco, работающий рядом с сервером.

Сбой в системе охлаждения заморозил триллионы — представьте, что произойдёт, когда спрос на ИИ и данные утроится. Энергоустойчивость — это не просто опция; это новый рубеж для поддержания жизнедеятельности рынков.
Все верно: такие сбои никогда не бывают случайными! Многие наивные люди верят, что на бирже все по-честному и это тот самый рынок, который "всё решает". :zed: Биржа была придумана с одной целью: чтобы зарабатывать на ней ее создателям и руководителям, а не чтобы рыночек непонятно как решал. :rzach:

_________________
«Когда гонишь глистов из кошки, то для врача это спецоперация, для глистов— война, для кошки— очищение» (ц)

   
  
    
 [ Сообщений: 157 ]  Стрaница Пред.  1 ... 4, 5, 6, 7, 8




[ Time : 0.071s | 17 Queries | GZIP : Off ]