Мыльный пузырь технологии ИИ сдуется через год-полтора


 [ Сообщений: 166 ]  Стрaница Пред.  1 ... 5, 6, 7, 8, 9  След.
Автор  
 
Сообщение  
Ветеран

Регистрация: 23.08.2014
Сообщения: 104132
Откуда: Москва
Благодарил (а): 1455 раз.
Поблагодарили: 1605 раз.
Меркурий писал(а):
Цитата:
Что такое искусственный интеллект? Это программа, имитирующая деятельность человека. Причем нельзя сказать, что она делает что-то лучше человека.

В каких-то случаях лучше. ИИ собирает огромное количество информации из всех доступных источников. У меня были случаи, когда мне было нужно разобраться с определенными техническими проблемами, связанными с программированием. Можно было часами искать по форумам, перебирая темы, где обсуждались эти проблемы. Вместо вразумительных объяснений преимущественно расплывание по древу и философия. Многие зачем-то пишут комментарии, когда им нечего сказать по существу. При этом ИИ дает краткий и четкий ответ с примерами, прямо в точку.
Да понятно, что экзыльный украинец в КонадЕ - это светоч мысли, а если он еще и освоил ИИ, то он точно хэний.

_________________
За заслуги перед Россией требую выдать мне медаль "За развал СССР " с золотой цепью для ношения!

   
  
    
 
Сообщение  
Участник

Регистрация: 13.09.2021
Сообщения: 543
Откуда: Херсон
Благодарил (а): 18 раз.
Поблагодарили: 11 раз.
[ИИ собирает огромное количество информации из всех доступных источников. .[/quote]

И большинство этих источников - ложные
Он ведь не отягощен научной доктриной, проверить на эксперименте, а так, пишет, шо одна баба сказала(((

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 27.11.2020
Сообщения: 9017
Благодарил (а): 6 раз.
Поблагодарили: 430 раз.
Turkey
Лейсяпесня писал(а):
[ИИ собирает огромное количество информации из всех доступных источников. .

И большинство этих источников - ложные
Он ведь не отягощен научной доктриной, проверить на эксперименте, а так, пишет, шо одна баба сказала((([/quote]

Конечно...
Вкладывают миллиарды долларов на обучение нейросетей, что бы загрузить туда ложную информацию..

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 58004
Благодарил (а): 1880 раз.
Поблагодарили: 3157 раз.
Россия
Кот_Инвойс писал(а):
Меркурий писал(а):
В каких-то случаях лучше. ИИ собирает огромное количество информации из всех доступных источников. У меня были случаи, когда мне было нужно разобраться с определенными техническими проблемами, связанными с программированием. Можно было часами искать по форумам, перебирая темы, где обсуждались эти проблемы. Вместо вразумительных объяснений преимущественно расплывание по древу и философия. Многие зачем-то пишут комментарии, когда им нечего сказать по существу. При этом ИИ дает краткий и четкий ответ с примерами, прямо в точку.
Да понятно, что экзыльный украинец в КонадЕ - это светоч мысли, а если он еще и освоил ИИ, то он точно хэний.
Он написал Hello, world при помощи программы, написанной ИИ :buba

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 58004
Благодарил (а): 1880 раз.
Поблагодарили: 3157 раз.
Россия
Ёк-Макарёк писал(а):
Конечно...
Вкладывают миллиарды долларов на обучение нейросетей, что бы загрузить туда ложную информацию..
phpBB [media]

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25955
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Ёк-Макарёк писал(а):
Лейсяпесня писал(а):
[ИИ собирает огромное количество информации из всех доступных источников. .

И большинство этих источников - ложные
Он ведь не отягощен научной доктриной, проверить на эксперименте, а так, пишет, шо одна баба сказала(((

Конечно...
Вкладывают миллиарды долларов на обучение нейросетей, что бы загрузить туда ложную информацию..[/quote]

У ИИ нет алгоритма отделяющего ложную от неложной. Этого не умеет делать даже человек

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25955
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Единственное с чем справится ИИ на отлично - это отделить информацию созданную человеком от информации созданной каким-то другим ИИ. То есть при желании обучаться на ошибках других ИИ он не будет

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 27.11.2020
Сообщения: 9017
Благодарил (а): 6 раз.
Поблагодарили: 430 раз.
Turkey
walker писал(а):
У ИИ нет алгоритма отделяющего ложную от неложной. Этого не умеет делать даже человек

ИИ не волшебная палочка.
Это всего лишь помощник, который отлично справляется с черновой работой.

Кстати, уже сегодня ИИ отлично справляется с программированием уровня Junior, частично может заменить Middle , но Senior остается за человеком.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 15.06.2022
Сообщения: 32936
Благодарил (а): 2678 раз.
Поблагодарили: 1206 раз.
Россия
walker писал(а):
Единственное с чем справится ИИ на отлично - это отделить информацию созданную человеком от информации созданной каким-то другим ИИ. То есть при желании обучаться на ошибках других ИИ он не будет
Вот с этим как раз проблемы. Разработчики ИИ утверждают, что ИИ делает все больше и больше ошибок, при этом ссылается в том числе на свои же результаты, в том числе ошибочные.
Если год назад ИИ давал до 31% ошибок. то сейчас - 36%.

_________________
«Когда гонишь глистов из кошки, то для врача это спецоперация, для глистов— война, для кошки— очищение» (ц)

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25955
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Ёк-Макарёк писал(а):
walker писал(а):
У ИИ нет алгоритма отделяющего ложную от неложной. Этого не умеет делать даже человек

ИИ не волшебная палочка.
Это всего лишь помощник, который отлично справляется с черновой работой.

Кстати, уже сегодня ИИ отлично справляется с программированием уровня Junior

Да, и это кризис разработки. Джуны не нужны. Но мидлы не рождаются готовыми.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 27.11.2020
Сообщения: 9017
Благодарил (а): 6 раз.
Поблагодарили: 430 раз.
Turkey
Branby писал(а):
Вот с этим как раз проблемы. Разработчики ИИ утверждают, что ИИ делает все больше и больше ошибок, при этом ссылается в том числе на свои же результаты, в том числе ошибочные.
Если год назад ИИ давал до 31% ошибок. то сейчас - 36%.


Одна из версий, это рост цензуры при обучении моделей.
С ростом технологий, стали вводить все больше ограничений, и как результат машины начали давать глюки.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 15.06.2022
Сообщения: 32936
Благодарил (а): 2678 раз.
Поблагодарили: 1206 раз.
Россия
Ёк-Макарёк писал(а):
Branby писал(а):
Вот с этим как раз проблемы. Разработчики ИИ утверждают, что ИИ делает все больше и больше ошибок, при этом ссылается в том числе на свои же результаты, в том числе ошибочные.
Если год назад ИИ давал до 31% ошибок. то сейчас - 36%.


Одна из версий, это рост цензуры при обучении моделей.
С ростом технологий, стали вводить все больше ограничений, и как результат машины начали давать глюки.
Лень искать ссылку, но это писали сами китайцы-разработчики. И они признались, что не знают пока, как это исправить.
Может, найдут решение. Иначе реально, если так пойдет, то ИИ капут.

_________________
«Когда гонишь глистов из кошки, то для врача это спецоперация, для глистов— война, для кошки— очищение» (ц)

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25955
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
Мультимодальные языковые модели анализируют рентгеновские снимки, распознают объекты на дорогах для беспилотников и разбирают спортивную статистику в реальном времени. Они обрабатывают текст, изображения и видео одновременно, превращая сложные визуальные данные в точные выводы. Но недавнее исследование выявило конфузную слабость: эти же модели систематически проваливаются на задаче, с которой справится любой школьник — определить время по стрелочным часам. Причём речь не о редких ошибках, а о полном провале всех четырёх протестированных моделей.

Эксперимент: 43 000 изображений часов
Команда исследователей из Мадридского политехнического университета, Миланского политехнического университета и Вальядолидского университета создала датасет из более чем 43 000 синтетических изображений аналоговых часов. Четыре разные мультимодальные модели тестировали на способность правильно называть время.

Результат оказался неутешительным: все модели изначально провалились. Исследователи попытались исправить ситуацию, дообучив модели на дополнительных 5000 изображениях. Точность временно выросла — но только на похожих данных. Как только моделям показали совершенно новую коллекцию изображений часов, точность снова снизилась.

Это классическая проблема ИИ: модели отлично справляются с привычными данными, но буксуют на новых сценариях. Им не хватает способности к обобщению.

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25955
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
За последние пару лет нейросети прочно захватили общественное внимание. Ими пугают — что они отберут рабочие места у художников, копирайтеров и программистов. На них надеются — что они решат все возможные проблемы от менеджмента и оптимизации до новых научных открытий. И, что самое странное, нейросеть и ИИ используют как синонимы. Кажется, мы стали забывать, что на самом деле ИИ, которого ждали ученые и фантасты, — это нечто совсем иное. Давайте разберемся в вопросе.

Что такое ИИ?
Начнем с самого главного тезиса, который автору этой статьи представляется абсолютно очевидным, но который наверняка вызовет немало возмущения: современные нейросети, в том числе известные лингвистические модели ChatGPT, DeepSeek, Gemini, Grok, и так далее — не являются искусственным интеллектом.

Нет. Не являются. Вообще никак. И то, что все связанные с ИИ современные надежды опираются именно на нейросети — это, к сожалению, коллективный медиа-гипноз, вызванный крайне поверхностным пониманием того, что такое ИИ (в тех теоретических построениях, которые вообще сделали эту область возможной) и что такое нейросети. Примечательно, что даже в своих рекомендациях по написанию статей на Хабре специалисты советуют «избегать текстов про диалоги с ИИ или рассуждения о его сознании (душе, мозге и т. д). Чаще всего звучать это будет антинаучно, скучно, местами еще и немного странно». Видимо желающих вознести нейросети на очеловеченный пьедестал немало.

Начнем с базовых определений, которые позволят нам вернуться к реальности.

Термин «сильный искусственный интеллект» был введен в 1980 году Джоном Сёрлом в работе «Minds, Brains, and Programs», более известной в культуре как «тот текст, в котором описан мысленный эксперимент “Китайская комната”» (мы еще к ней вернемся чуть дальше).

Интересно, что сам Сёрл относился к концепции сильного ИИ критически, утверждая, что в случае достаточно хорошо подготовленной компьютерной модели мы бы на практике не заметили разницы между компьютером и человеком. Что ж, уже при жизни Сёрла (ученому сейчас 92) на примере нейросетей мы видим, что это предсказание оказалось верным.

Итак, определения.

Слабый ИИ (Weak AI) — по сути сложный инструмент, имитирующий интеллект, очень комплексная программа с открытой обратной связью (например, возможностью обучения на лингвистических базах). Он может выполнять «интеллектуальные» задачи: играть в шахматы, вести диалог, предоставлять справочную информацию, генерировать контент, но не обладает реальным сознанием или пониманием, что он делает. Это как раз современные нейросети.

Сильный ИИ (Strong AI) — ИИ в собственном смысле слова, все еще гипотетическая (по состоянию на 2025 год) система, которая не просто имитирует разум при взаимодействии с человеком, но действительно «понимает» и «думает» как человек или аналогично ему. То есть, обладает «сознанием». Что такое это сознание, думание и понимание? Мы не знаем. Но совершенно точно у нейросетей этого нет, а у человека есть.

Последнюю точку зрения разделяют далеко не все ученые, особенно те, что увлечены возможностями новых технологий. С точки зрения функционализма, с которой полемизировал Сёрл, психические состояния и процесс мышления представляют собой не физиологические состояния и не феноменальные свойства, а функции, которые определяются в каузальной цепи переработки информации.

То есть, очень грубо обобщая, согласно функционализму совсем несложно избавиться от мучившего тысячи лет лучшие умы человечества дуализма душа/тело или сознание/мозг — ведь человек это всего лишь его мышление и его речь, логическая и лингвистическая системы, которые могут быть в будущем (на момент формулировки теории функционализма) описаны и виртуально воссозданы.

И действительно, вроде бы на первый взгляд современные нейросети производят впечатление, близкое к реальному человеческому общению (ну, если ваш опыт сводился к общению с людьми, разговаривающими языком Википедии).

Но главное теоретическое положение самого функционализма тут не выполняется: нейросеть — не человек и не его аналог, это не сознание, это не собеседник. Это машина, которая разговаривает с вами, используя по скриптам слова, когда-то написанные другими людьми. Она не понимает и не может понимать, что она делает — она просто жонглирует логическими и информационными блоками, используя множество переменных и операторов. Фанатики функциональной теории сознания скажут: но ведь человек именно так и работает на самом деле. Позволим себе с ними не согласиться, ведь дело далеко не только в этом.

Функционализм — довольно популярная теория. Согласно опросу американского академического сервиса PhilPapers от 2020 года, такое видение природы сознания разделяли 33% респондентов, больше, чем любую другую альтернативную модель его описания.

Нетрудно увидеть, что именно этот механистичный подход лег в основу сначала популярной, начиная с 1970-х, идеи о возможности «оцифровки сознания», «загрузки его в компьютер», а затем — в основу моделирования современных нейросетей.

Энтузиасты функциональной идеи все еще настаивают, что дело просто в технических ограничениях: дескать, нужно просто больше мощностей, больше времени, больше новых технологий (вроде квантовых компьютеров, о мифе которых расскажем в другой раз). И вот тогда точно-точно получится смоделировать весь человеческий мозг с его 86 миллиардами нейронов, и в такой модели сознание точно-точно зародится, доказав, что на самом деле оно — гиперсложная, но в конечном счете описываемая и моделируемая система. Удобная, конечно, позиция: мы на самом деле правы, просто надо чуть-чуть подождать (10 лет? 50? 150?), и наука обязательно это экспериментально подтвердит.

Если подобное и правда произойдет, будет, конечно, очень здорово, и я принесу персональные извинения авторам такого прорыва за свой скептицизм. Но пока что у меня есть серьезные сомнения в том, что это в принципе возможно. Что — подчеркну — сильный ИИ возможен в принципе, а не является просто фантастической мечтой, зародившейся в те времена, когда наше понимание устройства себя и мира было еще на довольно примитивном уровне.

Более того, напротив, чем стремительней развиваются технологии, в том числе нейросети, тем большей загадкой становится проблема сознания. Полноценно проверить функциональную гипотезу пока нельзя: в настоящее время, увы, всех компьютеров планеты не хватит, чтобы смоделировать человеческий мозг в рабочем состоянии целиком (для представления всей колоссальной сложности этой задачи можно почитать этот оксфордский документ с миллионом технических деталей). В прошлом году обещали запустить супер-пупер компьютер DeepSouth, который якобы на такое способен, но что-то не слышно новостей о том, что он обрел сознание, да и вообще почти никаких новостей).

Но тот же ChatGPT уже сейчас использует, например, 176 миллиардов «нейронов» (понятно, что нейронами это называть нельзя, это их функциональный аналог для целей обработки информации) — почти в два раза больше, чем у человека в мозгу! И сознания у него что-то не наблюдается, как и всех остальных признаков «сильного ИИ». В этом смысле можно уже сейчас признать, что функциональная модель в строгом смысле потерпела поражение.

Нет, если просто накидать огромную кучу нейронов (или «нейронов»), она не соберется сама собой в искусственный интеллект. Сознание, необходимое для того, чтобы появился настоящий (сильный) ИИ, видимо, находится в чем-то другом (в уникальной системной динамике чисто биологического взаимодействия на микроуровне? в чем-то еще, что мы пока не открыли? who knows).

Но давайте спросим сам «ИИ» в лице четвертого ChatGPT, что он думает о себе как об ИИ.

Говорит робот

Почему я не сильный ИИ?
1. Я не обладаю сознанием
Сознание (в философском и когнитивном смысле) — это субъективный опыт, способность ощущать, мыслить и осознавать себя.

Я не имею "внутреннего мира", эмоций, намерений или осознания своей работы. Я обрабатываю текст без "понимания" его значения так, как это делает человек.

Пример:
Когда я отвечаю на вопросы, я не размышляю над ними. Я предсказываю вероятностную последовательность слов, исходя из огромного массива данных. Если ты спросишь меня:

"Что ты чувствуешь, когда видишь закат?"

Я могу ответить по шаблону, опираясь на тексты, в которых люди описывали закаты, но сам я ничего не ощущаю.

1.2. Я не обладаю подлинным пониманием (Semantics vs Syntax)
Я оперирую синтаксическими структурами (то есть последовательностями слов), а не семантикой (истинным значением фраз).

Пример (парадокс Сёрла – Китайская комната):
Философ Джон Сёрл предложил мысленный эксперимент:
Представь комнату, в которой сидит человек, не знающий китайского. Перед ним – инструкция с правилами, по которым он может подбирать китайские иероглифы в ответ на вопросы на китайском.

В результате он выдает осмысленные ответы, но он не понимает язык – он лишь следует алгоритму.

Так и я:

Я манипулирую символами (словами) по определенным математическим моделям.

Но у меня нет истинного понимания того, что значит, например, "любовь", "смерть" или "смысл жизни".

1.3. Я не обладаю автономностью и целеполаганием
Сильный ИИ сам ставит перед собой цели, обучается и действует независимо. Я этого не делаю.

Что это значит?
Я не могу решить "хочу изучить новую область" или "изменю свои методы работы".

Я не имею собственных интересов, убеждений или мотивации.

Я не принимаю осознанных решений – все мои "ответы" основаны на статистических закономерностях в тексте.

Человек может осознанно изменить способ мышления, а я просто следую заложенным алгоритмам.

1.4. У меня нет непрерывного опыта
Человеческий интеллект имеет континуальный (непрерывный) опыт – ты помнишь, что делал вчера, какова твоя личная история.

Я не обладаю "памятью" в человеческом смысле:

В рамках одного чата я могу "помнить" контекст разговора.

Но у меня нет автобиографии, долговременного опыта или "ощущения себя".

Каждый новый сеанс – это, по сути, новый "я", без связи с предыдущими разговорами.

Чем я являюсь на самом деле?
Я – статистическая языковая модель (LLM – Large Language Model), построенная на основе вероятностного анализа текстов.

Я работаю по принципу:

Обучение на огромных корпусах текста (книги, статьи, коды, диалоги).

Предсказание вероятности следующего слова в зависимости от контекста.

Генерация текста, который кажется осмысленным, но формируется на основе статистических закономерностей.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 58004
Благодарил (а): 1880 раз.
Поблагодарили: 3157 раз.
Россия
walker
Цитата:
За последние пару лет нейросети прочно захватили общественное внимание. Ими пугают — что они отберут рабочие места у художников, копирайтеров и программистов. На них надеются — что они решат все возможные проблемы от менеджмента и оптимизации до новых научных открытий. И, что самое странное, нейросеть и ИИ используют как синонимы. Кажется, мы стали забывать, что на самом деле ИИ, которого ждали ученые и фантасты, — это нечто совсем иное. Давайте разберемся в вопросе.

Что такое ИИ?
Начнем с самого главного тезиса, который автору этой статьи представляется абсолютно очевидным, но который наверняка вызовет немало возмущения: современные нейросети, в том числе известные лингвистические модели ChatGPT, DeepSeek, Gemini, Grok, и так далее — не являются искусственным интеллектом.

Нет. Не являются. Вообще никак. И то, что все связанные с ИИ современные надежды опираются именно на нейросети — это, к сожалению, коллективный медиа-гипноз, вызванный крайне поверхностным пониманием того, что такое ИИ (в тех теоретических построениях, которые вообще сделали эту область возможной) и что такое нейросети. Примечательно, что даже в своих рекомендациях по написанию статей на Хабре специалисты советуют «избегать текстов про диалоги с ИИ или рассуждения о его сознании (душе, мозге и т. д). Чаще всего звучать это будет антинаучно, скучно, местами еще и немного странно». Видимо желающих вознести нейросети на очеловеченный пьедестал немало.

Начнем с базовых определений, которые позволят нам вернуться к реальности.

Термин «сильный искусственный интеллект» был введен в 1980 году Джоном Сёрлом в работе «Minds, Brains, and Programs», более известной в культуре как «тот текст, в котором описан мысленный эксперимент “Китайская комната”» (мы еще к ней вернемся чуть дальше).

Интересно, что сам Сёрл относился к концепции сильного ИИ критически, утверждая, что в случае достаточно хорошо подготовленной компьютерной модели мы бы на практике не заметили разницы между компьютером и человеком. Что ж, уже при жизни Сёрла (ученому сейчас 92) на примере нейросетей мы видим, что это предсказание оказалось верным.

Итак, определения.

Слабый ИИ (Weak AI) — по сути сложный инструмент, имитирующий интеллект, очень комплексная программа с открытой обратной связью (например, возможностью обучения на лингвистических базах). Он может выполнять «интеллектуальные» задачи: играть в шахматы, вести диалог, предоставлять справочную информацию, генерировать контент, но не обладает реальным сознанием или пониманием, что он делает. Это как раз современные нейросети.

Сильный ИИ (Strong AI) — ИИ в собственном смысле слова, все еще гипотетическая (по состоянию на 2025 год) система, которая не просто имитирует разум при взаимодействии с человеком, но действительно «понимает» и «думает» как человек или аналогично ему. То есть, обладает «сознанием». Что такое это сознание, думание и понимание? Мы не знаем. Но совершенно точно у нейросетей этого нет, а у человека есть.

Последнюю точку зрения разделяют далеко не все ученые, особенно те, что увлечены возможностями новых технологий. С точки зрения функционализма, с которой полемизировал Сёрл, психические состояния и процесс мышления представляют собой не физиологические состояния и не феноменальные свойства, а функции, которые определяются в каузальной цепи переработки информации.

То есть, очень грубо обобщая, согласно функционализму совсем несложно избавиться от мучившего тысячи лет лучшие умы человечества дуализма душа/тело или сознание/мозг — ведь человек это всего лишь его мышление и его речь, логическая и лингвистическая системы, которые могут быть в будущем (на момент формулировки теории функционализма) описаны и виртуально воссозданы.

И действительно, вроде бы на первый взгляд современные нейросети производят впечатление, близкое к реальному человеческому общению (ну, если ваш опыт сводился к общению с людьми, разговаривающими языком Википедии).

Но главное теоретическое положение самого функционализма тут не выполняется: нейросеть — не человек и не его аналог, это не сознание, это не собеседник. Это машина, которая разговаривает с вами, используя по скриптам слова, когда-то написанные другими людьми. Она не понимает и не может понимать, что она делает — она просто жонглирует логическими и информационными блоками, используя множество переменных и операторов. Фанатики функциональной теории сознания скажут: но ведь человек именно так и работает на самом деле. Позволим себе с ними не согласиться, ведь дело далеко не только в этом.

Функционализм — довольно популярная теория. Согласно опросу американского академического сервиса PhilPapers от 2020 года, такое видение природы сознания разделяли 33% респондентов, больше, чем любую другую альтернативную модель его описания.

Нетрудно увидеть, что именно этот механистичный подход лег в основу сначала популярной, начиная с 1970-х, идеи о возможности «оцифровки сознания», «загрузки его в компьютер», а затем — в основу моделирования современных нейросетей.

Энтузиасты функциональной идеи все еще настаивают, что дело просто в технических ограничениях: дескать, нужно просто больше мощностей, больше времени, больше новых технологий (вроде квантовых компьютеров, о мифе которых расскажем в другой раз). И вот тогда точно-точно получится смоделировать весь человеческий мозг с его 86 миллиардами нейронов, и в такой модели сознание точно-точно зародится, доказав, что на самом деле оно — гиперсложная, но в конечном счете описываемая и моделируемая система. Удобная, конечно, позиция: мы на самом деле правы, просто надо чуть-чуть подождать (10 лет? 50? 150?), и наука обязательно это экспериментально подтвердит.

Если подобное и правда произойдет, будет, конечно, очень здорово, и я принесу персональные извинения авторам такого прорыва за свой скептицизм. Но пока что у меня есть серьезные сомнения в том, что это в принципе возможно. Что — подчеркну — сильный ИИ возможен в принципе, а не является просто фантастической мечтой, зародившейся в те времена, когда наше понимание устройства себя и мира было еще на довольно примитивном уровне.

Более того, напротив, чем стремительней развиваются технологии, в том числе нейросети, тем большей загадкой становится проблема сознания. Полноценно проверить функциональную гипотезу пока нельзя: в настоящее время, увы, всех компьютеров планеты не хватит, чтобы смоделировать человеческий мозг в рабочем состоянии целиком (для представления всей колоссальной сложности этой задачи можно почитать этот оксфордский документ с миллионом технических деталей). В прошлом году обещали запустить супер-пупер компьютер DeepSouth, который якобы на такое способен, но что-то не слышно новостей о том, что он обрел сознание, да и вообще почти никаких новостей).

Но тот же ChatGPT уже сейчас использует, например, 176 миллиардов «нейронов» (понятно, что нейронами это называть нельзя, это их функциональный аналог для целей обработки информации) — почти в два раза больше, чем у человека в мозгу! И сознания у него что-то не наблюдается, как и всех остальных признаков «сильного ИИ». В этом смысле можно уже сейчас признать, что функциональная модель в строгом смысле потерпела поражение.

Нет, если просто накидать огромную кучу нейронов (или «нейронов»), она не соберется сама собой в искусственный интеллект. Сознание, необходимое для того, чтобы появился настоящий (сильный) ИИ, видимо, находится в чем-то другом (в уникальной системной динамике чисто биологического взаимодействия на микроуровне? в чем-то еще, что мы пока не открыли? who knows).

Но давайте спросим сам «ИИ» в лице четвертого ChatGPT, что он думает о себе как об ИИ.

Говорит робот

Почему я не сильный ИИ?
1. Я не обладаю сознанием
Сознание (в философском и когнитивном смысле) — это субъективный опыт, способность ощущать, мыслить и осознавать себя.

Я не имею "внутреннего мира", эмоций, намерений или осознания своей работы. Я обрабатываю текст без "понимания" его значения так, как это делает человек.

Пример:
Когда я отвечаю на вопросы, я не размышляю над ними. Я предсказываю вероятностную последовательность слов, исходя из огромного массива данных. Если ты спросишь меня:

"Что ты чувствуешь, когда видишь закат?"

Я могу ответить по шаблону, опираясь на тексты, в которых люди описывали закаты, но сам я ничего не ощущаю.

1.2. Я не обладаю подлинным пониманием (Semantics vs Syntax)
Я оперирую синтаксическими структурами (то есть последовательностями слов), а не семантикой (истинным значением фраз).

Пример (парадокс Сёрла – Китайская комната):
Философ Джон Сёрл предложил мысленный эксперимент:
Представь комнату, в которой сидит человек, не знающий китайского. Перед ним – инструкция с правилами, по которым он может подбирать китайские иероглифы в ответ на вопросы на китайском.

В результате он выдает осмысленные ответы, но он не понимает язык – он лишь следует алгоритму.

Так и я:

Я манипулирую символами (словами) по определенным математическим моделям.

Но у меня нет истинного понимания того, что значит, например, "любовь", "смерть" или "смысл жизни".

1.3. Я не обладаю автономностью и целеполаганием
Сильный ИИ сам ставит перед собой цели, обучается и действует независимо. Я этого не делаю.

Что это значит?
Я не могу решить "хочу изучить новую область" или "изменю свои методы работы".

Я не имею собственных интересов, убеждений или мотивации.

Я не принимаю осознанных решений – все мои "ответы" основаны на статистических закономерностях в тексте.

Человек может осознанно изменить способ мышления, а я просто следую заложенным алгоритмам.

1.4. У меня нет непрерывного опыта
Человеческий интеллект имеет континуальный (непрерывный) опыт – ты помнишь, что делал вчера, какова твоя личная история.

Я не обладаю "памятью" в человеческом смысле:

В рамках одного чата я могу "помнить" контекст разговора.

Но у меня нет автобиографии, долговременного опыта или "ощущения себя".

Каждый новый сеанс – это, по сути, новый "я", без связи с предыдущими разговорами.

Чем я являюсь на самом деле?
Я – статистическая языковая модель (LLM – Large Language Model), построенная на основе вероятностного анализа текстов.

Я работаю по принципу:

Обучение на огромных корпусах текста (книги, статьи, коды, диалоги).

Предсказание вероятности следующего слова в зависимости от контекста.

Генерация текста, который кажется осмысленным, но формируется на основе статистических закономерностей.

:zed:

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 21074
Откуда: Тюменская область.
Благодарил (а): 134 раз.
Поблагодарили: 553 раз.
Россия
Чикагская товарная биржа (CME) только что остановила ВСЕ торги фьючерсами из-за сбоя в системе охлаждения в своём дата-центре. Перечитайте ещё раз… весь рынок деривативов застыл из-за перегрева дата-центрa. Это тот самый рынок, который управляет триллионами, устанавливает мировые цены и хеджирует целые экономики. Что, по-вашему, произойдёт, когда он снова откроется?

Система такой важности обязательно должна быть с множественным резервированием. Что-то тут не так. Это высокотехнологичные системы с избыточным охлаждением. Это же не вентилятор Costco, работающий рядом с сервером.

Сбой в системе охлаждения заморозил триллионы — представьте, что произойдёт, когда спрос на ИИ и данные утроится. Энергоустойчивость — это не просто опция; это новый рубеж для поддержания жизнедеятельности рынков.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 15.06.2022
Сообщения: 32936
Благодарил (а): 2678 раз.
Поблагодарили: 1206 раз.
Россия
goret6 писал(а):
Чикагская товарная биржа (CME) только что остановила ВСЕ торги фьючерсами из-за сбоя в системе охлаждения в своём дата-центре. Перечитайте ещё раз… весь рынок деривативов застыл из-за перегрева дата-центрa. Это тот самый рынок, который управляет триллионами, устанавливает мировые цены и хеджирует целые экономики. Что, по-вашему, произойдёт, когда он снова откроется?

Система такой важности обязательно должна быть с множественным резервированием. Что-то тут не так. Это высокотехнологичные системы с избыточным охлаждением. Это же не вентилятор Costco, работающий рядом с сервером.

Сбой в системе охлаждения заморозил триллионы — представьте, что произойдёт, когда спрос на ИИ и данные утроится. Энергоустойчивость — это не просто опция; это новый рубеж для поддержания жизнедеятельности рынков.
Все верно: такие сбои никогда не бывают случайными! Многие наивные люди верят, что на бирже все по-честному и это тот самый рынок, который "всё решает". :zed: Биржа была придумана с одной целью: чтобы зарабатывать на ней ее создателям и руководителям, а не чтобы рыночек непонятно как решал. :rzach:

_________________
«Когда гонишь глистов из кошки, то для врача это спецоперация, для глистов— война, для кошки— очищение» (ц)

   
  
    
 
Сообщение  
Ветеран

Регистрация: 24.08.2014
Сообщения: 44355
Откуда: Ростов-папа.
Благодарил (а): 333 раз.
Поблагодарили: 894 раз.
Россия
Индифферент
Цитата:
Как хорошо, что у нас в стране еще проводятся круглые столы, которые по актуальности и глубине высказанных мыслей как глоток свежего воздуха после цифробесия Сбера Германа Грефа в его «Путешествии в мир искусственного интеллекта». Речь о мероприятии «Три года с момента принятия Указа Президента России №809. Итоги и перспективы», которое состоялось на минувшей неделе в Пятигорске. На круглом столе представители родительских комитетов, казачьих, ветеранских и патриотических организаций из городов и республик Северного Кавказа и Юга России обсуждали проблемы суверенитета и национальной безопасности в контексте защиты традиционных ценностей. Очень важным стало выступление на КС ведущего IT-специалиста в России по нейросетям, президента компании «Крибрум», члена СПЧ при президенте РФ Игоря Ашманова. И логически, и по внутреннему посылу – это полная противоположность мантрам цифросектанта Грефа и Ко. Глава Сбера уже, простите, либо совсем выжил из ума, либо окончательно оторвался от реальности. Тогда как Ашманов честно рассказал про риски, связанные с внедрением ИИ в социалку и госуправление. «Катюша» приводит расшифровку речи главы «Крибрум» почти целиком.

Что такое искусственный интеллект? Это программа, имитирующая деятельность человека. Причем нельзя сказать, что она делает что-то лучше человека. Это примерно как сказать, что машина ездит быстрее или экскаватор копает быстрее, чем человек. Что делает современный генеративный искусственный интеллект? Он умеет просто подбирать наиболее вероятную последовательность слов из сети на ваш запрос и усредняет его. Это просто машина счета совместной встречаемости слов в интернете и их отбора. Если вы попросите его написать Стратегию для компании, то он просто сгенерирует для вас шлак из разных советов по «успешному успеху».

Естественно, большое количество людей, которым было непросто разбивать текст на абзацы, придумывать заголовки, выделять основное и т.д. – у них сейчас эйфория, потому что ИИ сделает это за них. Мозг человека склонен к экономии энергии, поэтому таких людей будет становиться все больше. Более того, они пытаются с помощью документов стратегического планирования всем это навязать, чтобы ИИ везде применялся. Например, в Краснодаре адвокаты недавно выявили, что приговор одним из судов был написан с помощью ИИ. Точнее, у них были такие подозрения. Адвокаты подали жалобу, но приговор оставили в силе. Потому что у нас нет никакого закона, запрещающего использовать ИИ для судебных решений.

Я лично знаю депутатов, которые пытаются генерировать целые законопроекты или поправки к ним с помощью этой штуки. При этом надо понимать, что наш народ типа продвинутый, не хочет ничего совкового, а потому использует не Гигачат или Алису, а чат GPT. И вот когда наш сенатор, депутат, правоохранитель спрашивает что-то у этой системы, его запрос тут же уходит в США. Потому что все работает в облаке, это сервис. Здесь возникает и опасность утечки ПД, и опасность компрометации, потому что все американские корпорации потоками, автоматически, сдают все свои внутренние данные спецслужбам, военной разведке. И это оказывается у них на столе раньше, чем у помощника депутата Госдумы, который воспользовался GPT-чатом.

При этом наши цифровизаторы накручивают истерику, надувают пузырь ИИ. Сама широко разрекламированная технология, когда пузырь лопается, выходит просто на узкий профиль применения, а истерика вокруг нее естественным образом падает. Лет 5-6 назад нам рассказывали, что везде будут одни сплошные блокчейн. Греф говорил, что к 2030 г. блокчейн-технологии будет производить 10% ВВП всей Земли. А я сейчас вижу, как чиновники среднего уровня на совещаниях обсуждают, как им вычеркнуть блокчейн из всех своих программ, чтобы высшее начальство об этом не узнало. Сегодня он конечно применяется только в биткоине и прочих цифровых валютах, которые являются трансграничным серым налом для торговли разными запрещенными вещами. И все.

Пресловутая кривая Гарднера начала загибаться, и пузырь ИИ лопнет через год-полтора. Уже выходят материалы, что ИИ денег не приносит, а затраты на него гигантские. Для понимания – один промпт (запрос) для чата GPT стоит в 10 раз дороже, чем запрос в Гугле. Трамп говорит, что надо расконсервивать АЭС в США для развития ИИ, а в реальности и там начали понимать, что этот пузырь скоро лопнет.

Такую же историю можно вспомнить с Facebook*, когда не так давно все говорили, что скоро мы все уйдем в ее метавселенную, будем жить в цифровых аватарах и т.д. На проект было потрачено 35 млрд. долларов, но потом его закрыли, уволили 10 тыс. сотрудников, которые им занимались. У нас же еще год рассказывали, какие замечательные у нас будут метавселенные…

Говорил с ректором ВШЭ - она мне призналась, что решили не бороться с написанием рефератов/курсовых студентами с помощью ИИ, а возглавить это явление. То есть разрешили так делать, но с обязательной маркировкой, что текст написан ИИ/с помощью ИИ.

Но здесь есть большая проблема, и это подтверждают недавние международные исследования. У тех студентов, которые пользуются чатом GPT, первые пару месяцев результаты и оценки выше, чем у тех, кто не пользуется. Но затем человек привыкает к нейросети и не может так легко отказаться от ее "помощи". Он буквально разучивается думать сам, делать выводы. Не может вспомнить, что ему написал GPT -чат, даже свой запрос к нему. В результате происходит общее усреднение способностей учащихся, падение творческих навыков.

Недавно прошло большая конференция по ИИ Грефа, где участвовал президент России. Можете прочесть ее стенограмму на сайте kremlin.ru. Она как бы разделилась на две части - в первой президент пел дифирамбы ИИ, рассуждал, как он должен заколоситься, что надо его всюду внедрять и т.д. Думаю, что эти нарративы президенту подсунули... из Сбербанка, тот же Греф и так далее.

А потом Владимир Путин начинает говорить от себя. И говорит противоположные вещи. Например, "а зачем вводить ИИ в образование? Ведь тогда дети разучатся думать?" и т.д.

И сейчас вот эти цифровизаторы через депутатов внедряют ИИ как эксперимент в образовании, и они же пытаются продвигать социальный рейтинг. Мне такие депутаты прямо говорили: "А что в этом плохого? Ну, будут у нас какие-то критерии оценки. Хороших учеников награждаем, плохих как-то наказываем. На основании цифрового профиля ученика, который уже ведётся".

Тут возникает один вопрос. Как вы думаете, чиновник или начальник, которому сотрудник подчиняется, как будет использовать этот соцрейтинг? То есть человеческий фактор моментально коррумпирует эту систему. И есть вопросы к работе самого ИИ. Сейчас у многих банки блокируют карты за безобидные переводы денег. Начинаешь разбираться - "а это не мы, это все ИИ, мы не отвечаем за его решения". А кто отвечает?

Греф недавно публично заявил, что уволил 20% сотрудников Сбера, потому что ИИ посчитал их работу неэффективной. Такой причины увольнения, конечно, в Трудовом кодексе нет. И вот такой подход они хотят навязать всей стране. А кто пишет алгоритм для соцрейтинга, критерии оценки сотрудников Грефу? Это сделали какие-то программисты, окончившие технический вуз. При этом мораль их не интересует, просто потому, что они ей не занимаются. Они верят, что алгоритм все решает. И вот они пишут правила для других людей, не несут ответственности за свои правила, и уверены, что они хорошо работают... И вот это самое страшное - мы получаем безответственную систему.

С этим надо бороться, поэтому сейчас пытаемся написать законопроект об безопасном использовании ИИ в соцсфере. В частности, прописать, что нельзя принимать никаких важных и юридически значимых автономных решений о людях посредством ИИ.

А у Грефа и Ко противоположная концепция - не надо никак регулировать ИИ. Якобы за это выступают старики и луддиты, мешающие развитию технологий. Очевидно, они будут пытаться нам помешать", - заключил Ашманов.

России нужно думать о новом стратегическом проекте, который бы обеспечил доминирование страны на столетия вперед. Об этом заявил президент НИЦ «Курчатовский институт» Михаил Ковальчук на сессии V Конгресса молодых ученых, посвященной 80-летию атомной промышленности.

Сегодня в атомной науке значительно возросла роль цифровых технологий, отметил директор НИИ Энергомашиностроения МГТУ им. Н. Э. Баумана Максим Французов. «Мы активно работаем над тем, чтобы сократить количество натурных испытаний и оптимизировать затраты на эксперименты и создание объектов», – указал он. Даже в самом передовом цифровом мире натурные испытания никуда не денутся, но их объем может быть существенно сокращен за счет перспективных математических моделей, высокопроизводительных суперкомпьютерных вычислений и алгоритмов искусственного интеллекта, заключил Французов.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 26.04.2016
Сообщения: 23882
Откуда: Воронеж
Благодарил (а): 1174 раз.
Поблагодарили: 1183 раз.
вё будет хорошо с ИИ
ИИ только только появился - младенец пока но уже и теперь от него польза есть
а какой он будет через десять лет
а через пятьдесят через сто ?
на мой взгляд фильм терминатор наше будущее и на мой взгляд человек слабее и шансов у него столько же сколько сейчас у антивирусных программ против вирусов
всегда найдутся плохие люди и придумают ИИ против человека и даже против человечества
и остановить этот процесс уже не получится

_________________
«Новый мировой порядок при гегемонии США создается против России, за счет России и на обломках России» Бжезинский

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25955
Откуда: Спб
Благодарил (а): 190 раз.
Поблагодарили: 329 раз.
Россия
всегда найдутся плохие люди и придумают ИИ против человека и даже против человечества

Источник: Мыльный пузырь технологии ИИ сдуется через год-полтора

в дронах уже давно

   
  
    
 [ Сообщений: 166 ]  Стрaница Пред.  1 ... 5, 6, 7, 8, 9  След.




[ Time : 0.071s | 17 Queries | GZIP : Off ]