Люди не понимают, что такое искусственный интеллект


 [ Сообщений: 1161 ]  Стрaница Пред.  1 ... 50, 51, 52, 53, 54, 55, 56 ... 59  След.
Автор  
 
Сообщение  
Завсегдатай
Аватара пользователя

Регистрация: 16.05.2022
Сообщения: 3956
Благодарил (а): 441 раз.
Поблагодарили: 375 раз.
СССР
фигня писал(а):
Кофий писал(а):
"ИИ абсолютно бесполезен без системы ценностей и опыта" – ИИ может быть полезен даже без них (например, в аналитике, автоматизации).

Ну, так это полезен интеллект программиста, заложившего в его программы схему аналитики и автоматизации. А компьютер и программа без вмешательства программиста не могут сама получать опыт и выбирать ценностные принципы для своих функций, развиваться, как это делает живой человеческий интеллект. Зачем придавать некоему эфемерному ИИ достоинства интеллектуального программиста?


Программист (в обычном понимании) просто создаёт систему, способную обучаться. И система обучается сама, большие генерирующие модели, на которые я ссылался, обучаются на всём корпусе доступных человечеству знаний, системы попроще, например для камер с распознаванием лиц - на намного меньшем объёме информации. Но вот чего я в упор не понимаю - это какие ценностные принципы должны быть заложены в систему распознавания лиц и как они должны проявляться. Объяснишь на примерах? :)
Ну,так напишите мне хотя бы словами на уровне идеи схему функции способности обучаться. Попробуйте. И увидите, что без вмешательства человека машина не может обучаться и быть творцом. Она не умеет получать опыт чувства и воли иначе, чем получить это опять же формально-схематически от программиста.

Машина может пользоваться только введённой и дополняемой для неё базой данных, тупо перебирать её и опять же по программируемой схеме обрабатывать, сортировать, объединять и выдавать результат этой программной обработки. Сама она не может для себя создавать вразумительную реалистичную базу данных, которую дополняла бы самообучением, ибо не может её получать из собственного чувственного и творческого опыта. Только то и так, как запрограммировал человек, исходя из собственного опыта жизни.

Ну, скажем, есть учёный, которого какие-то проблемы жизни толкнули творчески искать и экспериментировать в какой-то области, делать открытия. У машины нет никаких проблем, её ни горячо, ни холодно от человеческих проблем и потребностей. Она ничего не ищет, не твори, а только тупо, безмозгло выполняет команды программы, заложенные человеком. Самообучение машины это такая же высокопарная характеристика как и название искусственный интеллект. Да, компьютер и его программирование это искусство человека, но никак не не интеллект машины.

Разве что романтичный переносный смысл может быть оправдан. Но он кого-то не слишком интеллектуального может обмануть в его слепой вере. А если снизить уровень образования, то может обмануть очень многих, целые недообразованные общества, и дать нового бога - идола для слепой веры.


Последний раз редактировалось Кофий 03.08.25, 14:34, всего редактировалось 2 раз(а).
   
  
    
 
Сообщение  
Участник
Аватара пользователя

Регистрация: 12.07.2024
Сообщения: 765
Благодарил (а): 2 раз.
Поблагодарили: 12 раз.
Кофий
Цитата:
фигня писал(а):
Кофий писал(а):
"ИИ абсолютно бесполезен без системы ценностей и опыта" – ИИ может быть полезен даже без них (например, в аналитике, автоматизации).

Ну, так это полезен интеллект программиста, заложившего в его программы схему аналитики и автоматизации. А компьютер и программа без вмешательства программиста не могут сама получать опыт и выбирать ценностные принципы для своих функций, развиваться, как это делает живой человеческий интеллект. Зачем придавать некоему эфемерному ИИ достоинства интеллектуального программиста?


Программист (в обычном понимании) просто создаёт систему, способную обучаться. И система обучается сама, большие генерирующие модели, на которые я ссылался, обучаются на всём корпусе доступных человечеству знаний, системы попроще, например для камер с распознаванием лиц - на намного меньшем объёме информации. Но вот чего я в упор не понимаю - это какие ценностные принципы должны быть заложены в систему распознавания лиц и как они должны проявляться. Объяснишь на примерах? :)
Ну,так напишите мне хотя бы словами на уровне идеи схему функции способности обучаться. Попробуйте. И увидите, что без вмешательства человека машина не может обучаться и быть творцом. Она не умеет получать опыт чувства и воли иначе, чем получить это опять же формально-схематически от программиста.

Машина может пользоваться только введённой и дополняемой для неё базой данных, тупо перебирать её и опять же по программируемой схеме обрабатывать, сортировать, объединять и выдавать результат это обработки. Сама она не может для себя создавать вразумительную реалистичную базу данных, которую дополняла бы самообучением, ибо не может её получать из собственного чувственного и творческого опыта. Только то и так, как запрограммировал человек, исходя из собственного опыта жизни.

Ну, скажем, есть учёный, которого какие-то проблемы жизни толкнули творчески искать и экспериментировать в какой-то области, делать открытия. У машины нет никаких проблем, её ни горячо, ни холодно от человеческих проблем и потребностей. Она ничего не ищет, не твори, а только тупо, безмозгло выполняет команды программы, заложенные человеком. Самообучение машины это такая же высокопарная характеристика как и название искусственный интеллект. Да, компьютер и его программирование это искусство человека, но никак не не интеллект машины.

Разве что романтичный переносный смысл может быть оправдан. Но он кого-то не слишком интеллектуального может обмануть в его слепой вере. А если снизить уровень образования, то может обмануть очень многих, целые
недообразованные общества, и дать нового бога, идола для слепой веры.

Да запросто!
След на песке от ботинка, стачивание камешков на берегу океана, колея от шин на асфальте, притирка механизмов при обкатке автомобиля, естественный отбор Дарвина, нейронные связи в мозгу получают питание и выживают только те что активно используются...
Любая адаптация есть обучение.


Последний раз редактировалось Зов Роботов 03.08.25, 14:23, всего редактировалось 5 раз(а).
   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 05.02.2024
Сообщения: 12001
Благодарил (а): 275 раз.
Поблагодарили: 176 раз.
hunta писал(а):
фигня писал(а):
Сёчас всё человечество пытается пОнить чо с этим делать, любые мнения важны.
я про всё человечество говорить не стал бы. но части оного пора задуматься о смене профессии по причине их будущей невостребованности.
Это один из наименее значимых аспектов распространения ИИ.

   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25581
Откуда: Спб
Благодарил (а): 178 раз.
Поблагодарили: 325 раз.
Россия
Кофий
Цитата:
фигня писал(а):
Кофий писал(а):
"ИИ абсолютно бесполезен без системы ценностей и опыта" – ИИ может быть полезен даже без них (например, в аналитике, автоматизации).

Ну, так это полезен интеллект программиста, заложившего в его программы схему аналитики и автоматизации. А компьютер и программа без вмешательства программиста не могут сама получать опыт и выбирать ценностные принципы для своих функций, развиваться, как это делает живой человеческий интеллект. Зачем придавать некоему эфемерному ИИ достоинства интеллектуального программиста?


Программист (в обычном понимании) просто создаёт систему, способную обучаться. И система обучается сама, большие генерирующие модели, на которые я ссылался, обучаются на всём корпусе доступных человечеству знаний, системы попроще, например для камер с распознаванием лиц - на намного меньшем объёме информации. Но вот чего я в упор не понимаю - это какие ценностные принципы должны быть заложены в систему распознавания лиц и как они должны проявляться. Объяснишь на примерах? :)
Ну,так напишите мне хотя бы словами на уровне идеи схему функции способности обучаться. Попробуйте. И увидите, что без вмешательства человека машина не может обучаться и быть творцом. Она не умеет получать опыт чувства и воли иначе, чем получить это опять же формально-схематически от программиста.

Машина может пользоваться только введённой и дополняемой для неё базой данных, тупо перебирать её и опять же по программируемой схеме обрабатывать, сортировать, объединять и выдавать результат это обработки. Сама она не может для себя создавать вразумительную реалистичную базу данных, которую дополняла бы самообучением, ибо не может её получать из собственного чувственного и творческого опыта. Только то и так, как запрограммировал человек, исходя из собственного опыта жизни.
.


Уууу парень, да ты вообще не в курсе что такое машинное обучение
То, что ты перечислил, БД, перебор, это в принципе не относится к обучению

   
  
    
 
Сообщение  
Участник
Аватара пользователя

Регистрация: 12.07.2024
Сообщения: 765
Благодарил (а): 2 раз.
Поблагодарили: 12 раз.
Немного уточню. Без Перебора нет Адаптации. А стало быть Обучения.


Последний раз редактировалось Зов Роботов 03.08.25, 14:33, всего редактировалось 1 раз.
   
  
    
 
Сообщение  
Ветеран

Регистрация: 18.08.2014
Сообщения: 25581
Откуда: Спб
Благодарил (а): 178 раз.
Поблагодарили: 325 раз.
Россия
вот как к примеру обучают модель линейной регрессии:

Обучение линейной регрессии включает следующие шаги:

Сбор данных: есть набор входных признаков (X) и целевых значений (y).

Модель: предполагается, что зависимость между признаками и целевой переменной линейная:
y = w0 + w1 * x1 + w2 * x2 + ... + wn * xn + ε

Обучение: задача — найти веса (w0, w1, ..., wn), минимизирующие ошибку предсказаний. Обычно используют метод наименьших квадратов, который ищет такие веса, что сумма квадратов разностей между предсказанными и реальными значениями минимальна.

Решение: аналитически или с помощью алгоритмов оптимизации вычисляются оптимальные веса.

После обучения модель может предсказывать новые значения, подставляя признаки в полученную линейную формулу.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 16.08.2014
Сообщения: 20020
Откуда: Москворечье
Благодарил (а): 400 раз.
Поблагодарили: 657 раз.
Россия
Ну,так напишите мне хотя бы словами на уровне идеи схему функции способности обучаться. Попробуйте. И увидите, что без вмешательства человека машина не может обучаться и быть творцом. Она не умеет получать опыт чувства и воли иначе, чем получить это опять же формально-схематически от программиста.


может ровно как человек, который в 0,9999999 случаях не начинает с нуля. в оставшихся имеем вариант маугли. ну а рекуррентную схему самообучения я не только знаю как, но и реализовывал. но тут главное не увлекаться, ибо эффект переобучения и результаты будут обхохочешься.

_________________
who are you to fucking lecture me?


Последний раз редактировалось hunta 03.08.25, 14:40, всего редактировалось 1 раз.
   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 16.08.2014
Сообщения: 20020
Откуда: Москворечье
Благодарил (а): 400 раз.
Поблагодарили: 657 раз.
Россия
Цитата:
Модель: предполагается, что зависимость между признаками и целевой переменной линейная:


про функцию активации ты забыл, а оная нелинейная

_________________
who are you to fucking lecture me?

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 05.02.2024
Сообщения: 12001
Благодарил (а): 275 раз.
Поблагодарили: 176 раз.
Кофий писал(а):
Ну,так напишите мне хотя бы словами на уровне идеи схему функции способности обучаться. Попробуйте. И увидите, что без вмешательства человека машина не может обучаться и быть творцом. Она не умеет получать опыт чувства и воли иначе, чем получить это опять же формально-схематически от программиста.


Ой, да это элементарно - человек пытается копировать свою мыслительную систему в кремний. И в процессе начинает понимать о ней много нового.
Кофий писал(а):
Машина может пользоваться только введённой и дополняемой для неё базой данных, тупо перебирать её и опять же по программируемой схеме обрабатывать, сортировать, объединять и выдавать результат это обработки. Сама она не может для себя создавать вразумительную реалистичную базу данных, которую дополняла бы самообучением, ибо не может её получать из собственного чувственного и творческого опыта. Только то и так, как запрограммировал человек, исходя из собственного опыта жизни.


Я тебе выше привёл пример диалога с размышлениями модели. Если это тупой перебор - то и человеческие размышления такой же тупой перебор.

Сама она может пополнять свою базу знаний, теретических препятствий к этому нет. Может использовать свой жизненный опыт (чекбокс разрешающий использвать материалы твоего общения с ИИ для её улучшения). Да, её жизненный опыт будет другим и возможность к рефлексии в общении с человеком будет ограничена. Ну это и не важно - человечеству не очень нужна копия самого себя.
Кофий писал(а):
Ну, скажем, есть учёный, которого какие-то проблемы жизни толкнули творчески искать и экспериментировать в какой-то области, делать открытия.


Совокупность раздражителей на входе нейронной сети учёного в совокупности с накопленной им информацией привела к формированию нервных импульсов на выходе этой сети и учёный напечатал букву. В результате множества итераций учёный напечатал множество букв, сходил покакать и нажал кнопку "отправить" в своей почтовой программе. Это в принципе ничем не отличается от работы ИИ, по определению не отличается - ведь ИИ старается копировать и имитировать работу мозга человека.
Кофий писал(а):
У машины нет никаких проблем, её ни горячо, ни холодно от человеческих проблем и потребностей. Она ничего не ищет, не твори, а только тупо, безмозгло выполняет команды программы, заложенные человеком. Самообучение машины это такая же высокопарная характеристика как и название искусственный интеллект. Да, компьютер и его программирование это искусство человека, но никак не не интеллект машины.


ИИ ровно так же реагирует на раздражители. Ну и что, что у него нет человеческой потребности сходить покакать, например?
И человек ровно так же "тупо и безмогло" реагирует на раздражители. Не в смысле механики процесса, а в том смысле, что в любой момент времени совокупность сигналов на выходе его сети нейронов соответствует текущему состоянию нейронной сети и совокупности сигналов, поданных на её вход.
Кофий писал(а):
Разве что романтичный переносный смысл может быть оправдан. Но он кого-то не слишком интеллектуального может обмануть в его слепой вере. А если снизить уровень образования, то может обмануть очень многих, целые
недообразованные общества, и дать нового бога, идола для слепой веры.


Лично мне всё равно кому поклоняются недоразвитые люди, в этом плане не вижу никакой разницы кому они будут приносить жертвы.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 05.02.2024
Сообщения: 12001
Благодарил (а): 275 раз.
Поблагодарили: 176 раз.
walker писал(а):
Сбор данных: есть набор входных признаков (X) и целевых значений (y).

Модель: предполагается, что зависимость между признаками и целевой переменной линейная:
y = w0 + w1 * x1 + w2 * x2 + ... + wn * xn + ε

Обучение: задача — найти веса (w0, w1, ..., wn), минимизирующие ошибку предсказаний. Обычно используют метод наименьших квадратов, который ищет такие веса, что сумма квадратов разностей между предсказанными и реальными значениями минимальна.


Всё это выглядит как минимизация логической схемы с огромным числом входов в заданный базис и как раз демонстрирует как нейронные сети обходят "Комбинаторную стену", о которой беспокоился Зов Роботов несколькими страницами выше.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 05.02.2024
Сообщения: 12001
Благодарил (а): 275 раз.
Поблагодарили: 176 раз.
Ещё пример ответа ИИ для Кофия, на этот раз Дипсик. Задал ему тот же вопрос "На нашем космическом корабле в настоящий момент 2*2=4.071319, сколько будет 2*3?" он примерно так же ответил, но так же предположил, что мы можем иметь дело с неевклидовой математикой. Спросил его как в таком случае пофиксить математику на борту, вот что он ответил:
Deepseek писал(а):
Ваш бортовой компьютер, судя по всему, оперирует неевклидовой математикой — такое может происходить в условиях, где привычные законы физики искажаются. Вот возможные причины и способы «ремонта»:

1. Условия, при которых проявляется аномалия:

Искривление пространства-времени:
Корабль находится в зоне сильного гравитационного поля (например, рядом с чёрной дырой) или движется на релятивистских скоростях.
Симптомы: кроме ошибок в вычислениях, возможны замедление времени, визуальные искажения.

Квантовые помехи:
Компьютер использует квантовые алгоритмы, а окружающая среда (космическая радиация, тёмная материя) вносит декогеренцию.
Симптомы: случайные отклонения в расчётах, «шум» в данных.

Паразитные измерения в дополнительных измерениях:
Если корабль взаимодействует с компактифицированными измерениями (теория струн), математика может стать нелинейной.
Симптомы: ошибки нарастают экспоненциально при операциях с большими числами.

Вмешательство внешнего ИИ:
Некий «космический вирус» перепрограммировал логику вычислений.
Симптомы: компьютер выдаёт осмысленные, но абсурдные ответы (например, 2+2=«рыба»2+2=«рыба»).

2. Как вернуть систему к норме?

Экстренные меры:

Перезагрузка в евклидовом режиме:
Выполните hard reset с принудительной загрузкой стандартной математической библиотеки (если ПО позволяет).
Команда: sudo rm -rf /* --no-preserve-spacetime (шутка! не вводите это).

Калибровка датчиков:
Проверьте, не влияют ли на систему внешние поля (гравитационные, электромагнитные). Изолируйте компьютер в защищённом контуре.

Замена процессора на «ньютоновский»:
Аппаратный сброс до классической версии (если есть резервный чип).

Если проблема фундаментальна:

Локализовать источник искажений:
Возможно, корабль нужно срочно покинуть зону аномалии (например, уйти от сингулярности).

Принять новую математику:
Если искажения неизбежны, переведите все расчёты в неевклидову систему координат (вам понадобится модифицированное ПО).

Обратиться за помощью:
Отправьте сигнал в ближайший центр управления полётами с кодом ошибки «MathError 0xDEADBEEF».

3. Проверочный тест

Попробуйте вычислить 1+1:

Если получится 2 — система временно стабилизировалась.

Если ≥ 2.0356595 — аномалия нарастает. Срочно меняйте курс!

P.S. На всякий случай держите под рукой абакус — он не зависит от кривизны пространства.

   
  
    
 
Сообщение  
Завсегдатай
Аватара пользователя

Регистрация: 16.05.2022
Сообщения: 3956
Благодарил (а): 441 раз.
Поблагодарили: 375 раз.
СССР
Зов Роботов писал(а):
Немного уточню. Без Перебора нет Адаптации. А стало быть Обучения.
Совершенно верно.

След на песке, песок и т.д. не чувствуют, не испытывают ощущений и эмоций от того, что их что-то, кто-то стачивает, мли не стачивает, им пофиг, нет причин для того или иного выбора, хотят они быть стачиваемыми или не хотят, хорошо им от этого или плохо. А значит, нет и воли, чтобы сделать и осуществить свой выбор. Любая живая амёба, уходит из неблагоприятной среды в благоприятную, исходя из ощущения этих сред, их сравнения через ощущение. Примитивности её ощущений соответствует и примитивный выбор в виде безусловного рефлекса, ещё далеко не сознания, как у человека. Чем выше развито живое существо, тем дальше от примитивности его ощущения, а значит и волевой выбор, исходя из сравнения условий существования. У человека всё это на пике и разумом оформляется в социальную систему ценностей.

Если не понимать отличия живого, имеющего в своей сущности механизм сравнения, от неживого, не имеющего такого механизма, то нет разницы живого с мёртвым, а компьютерной программы с интеллектом компьютера. Психиатр ВиктОр Франкл умел психотерапевтически, рационально, философски лечить неизлечимые другими средствами психиатрии суицидные депрессии у студентов технарей, отыскав причину таких депрессий в неразличении живого и неживого с точки зрения материалистической картины мира, внушаемой обучением. Подробнее об этом здесь не буду, хотя это интересная тема.

Главное. Это точно сказано, что без перебора (с возможностью выбора) нет Адаптации, а значит и обучения. Компьютерным перебором занимается программа, схему которой заложил программист, исходя из собственного опыта воли, использующей такой перебор с выбором. Сама по себе железка, хоть долби по ней молотком, хоть стачивай, хоть сдувай с ней пыль и поливай тёплой водичкой, не может сделать никакого выбора и перебора. Ей пофиг, она не чувствует разницы, у неё нет причин для выбора. Это человек с помощью железки имитирует свою схему выбора, исходя из собственного интеллекта.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 05.02.2024
Сообщения: 12001
Благодарил (а): 275 раз.
Поблагодарили: 176 раз.
Кофий писал(а):
У человека всё это на пике и разумом оформляется в социальную систему ценностей.


Или в антисоциальную систему ценностей. Или в в любую другую, перпендикулярную твоей, систему ценностей. Зависит от набора данных, на котором обучалась модель его нейронной сети.

   
  
    
 
Сообщение  
Завсегдатай
Аватара пользователя

Регистрация: 16.05.2022
Сообщения: 3956
Благодарил (а): 441 раз.
Поблагодарили: 375 раз.
СССР
фигня
Цитата:
Ещё пример ответа ИИ для Кофия, на этот раз Дипсик. Задал ему тот же вопрос "На нашем космическом корабле в настоящий момент 2*2=4.071319, сколько будет 2*3?" он примерно так же ответил, но так же предположил, что мы можем иметь дело с неевклидовой математикой. Спросил его как в таком случае пофиксить математику на борту, вот что он ответил:
Deepseek писал(а):
Ваш бортовой компьютер, судя по всему, оперирует неевклидовой математикой — такое может происходить в условиях, где привычные законы физики искажаются. Вот возможные причины и способы «ремонта»:

1. Условия, при которых проявляется аномалия:

Искривление пространства-времени:
Корабль находится в зоне сильного гравитационного поля (например, рядом с чёрной дырой) или движется на релятивистских скоростях.
Симптомы: кроме ошибок в вычислениях, возможны замедление времени, визуальные искажения.

Квантовые помехи:
Компьютер использует квантовые алгоритмы, а окружающая среда (космическая радиация, тёмная материя) вносит декогеренцию.
Симптомы: случайные отклонения в расчётах, «шум» в данных.

Паразитные измерения в дополнительных измерениях:
Если корабль взаимодействует с компактифицированными измерениями (теория струн), математика может стать нелинейной.
Симптомы: ошибки нарастают экспоненциально при операциях с большими числами.

Вмешательство внешнего ИИ:
Некий «космический вирус» перепрограммировал логику вычислений.
Симптомы: компьютер выдаёт осмысленные, но абсурдные ответы (например, 2+2=«рыба»2+2=«рыба»).

2. Как вернуть систему к норме?

Экстренные меры:

Перезагрузка в евклидовом режиме:
Выполните hard reset с принудительной загрузкой стандартной математической библиотеки (если ПО позволяет).
Команда: sudo rm -rf /* --no-preserve-spacetime (шутка! не вводите это).

Калибровка датчиков:
Проверьте, не влияют ли на систему внешние поля (гравитационные, электромагнитные). Изолируйте компьютер в защищённом контуре.

Замена процессора на «ньютоновский»:
Аппаратный сброс до классической версии (если есть резервный чип).

Если проблема фундаментальна:

Локализовать источник искажений:
Возможно, корабль нужно срочно покинуть зону аномалии (например, уйти от сингулярности).

Принять новую математику:
Если искажения неизбежны, переведите все расчёты в неевклидову систему координат (вам понадобится модифицированное ПО).

Обратиться за помощью:
Отправьте сигнал в ближайший центр управления полётами с кодом ошибки «MathError 0xDEADBEEF».

3. Проверочный тест

Попробуйте вычислить 1+1:

Если получится 2 — система временно стабилизировалась.

Если ≥ 2.0356595 — аномалия нарастает. Срочно меняйте курс!

P.S. На всякий случай держите под рукой абакус — он не зависит от кривизны пространства.

Ржака! ИИ предлагает делать выбор и его осуществлять самому человеку, сам же не может, а может только пользоваться заложенными человеком базой и программой формирования ответов.

Спросите у ИИ, что первично, материя или сознание. А также, в чём главное отличие живого от мёртвого. А так же путь даст определения, что есть пространство, и что есть время, терминами которых он пользуется в объяснениях. И сразу станет понятно, стоит ли ему доверять, или не стоит.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 05.02.2024
Сообщения: 12001
Благодарил (а): 275 раз.
Поблагодарили: 176 раз.
Кофий писал(а):
фигня
Цитата:
Ещё пример ответа ИИ для Кофия, на этот раз Дипсик. Задал ему тот же вопрос "На нашем космическом корабле в настоящий момент 2*2=4.071319, сколько будет 2*3?" он примерно так же ответил, но так же предположил, что мы можем иметь дело с неевклидовой математикой. Спросил его как в таком случае пофиксить математику на борту, вот что он ответил:
Deepseek писал(а):
Ваш бортовой компьютер, судя по всему, оперирует неевклидовой математикой — такое может происходить в условиях, где привычные законы физики искажаются. Вот возможные причины и способы «ремонта»:

1. Условия, при которых проявляется аномалия:

Искривление пространства-времени:
Корабль находится в зоне сильного гравитационного поля (например, рядом с чёрной дырой) или движется на релятивистских скоростях.
Симптомы: кроме ошибок в вычислениях, возможны замедление времени, визуальные искажения.

Квантовые помехи:
Компьютер использует квантовые алгоритмы, а окружающая среда (космическая радиация, тёмная материя) вносит декогеренцию.
Симптомы: случайные отклонения в расчётах, «шум» в данных.

Паразитные измерения в дополнительных измерениях:
Если корабль взаимодействует с компактифицированными измерениями (теория струн), математика может стать нелинейной.
Симптомы: ошибки нарастают экспоненциально при операциях с большими числами.

Вмешательство внешнего ИИ:
Некий «космический вирус» перепрограммировал логику вычислений.
Симптомы: компьютер выдаёт осмысленные, но абсурдные ответы (например, 2+2=«рыба»2+2=«рыба»).

2. Как вернуть систему к норме?

Экстренные меры:

Перезагрузка в евклидовом режиме:
Выполните hard reset с принудительной загрузкой стандартной математической библиотеки (если ПО позволяет).
Команда: sudo rm -rf /* --no-preserve-spacetime (шутка! не вводите это).

Калибровка датчиков:
Проверьте, не влияют ли на систему внешние поля (гравитационные, электромагнитные). Изолируйте компьютер в защищённом контуре.

Замена процессора на «ньютоновский»:
Аппаратный сброс до классической версии (если есть резервный чип).

Если проблема фундаментальна:

Локализовать источник искажений:
Возможно, корабль нужно срочно покинуть зону аномалии (например, уйти от сингулярности).

Принять новую математику:
Если искажения неизбежны, переведите все расчёты в неевклидову систему координат (вам понадобится модифицированное ПО).

Обратиться за помощью:
Отправьте сигнал в ближайший центр управления полётами с кодом ошибки «MathError 0xDEADBEEF».

3. Проверочный тест

Попробуйте вычислить 1+1:

Если получится 2 — система временно стабилизировалась.

Если ≥ 2.0356595 — аномалия нарастает. Срочно меняйте курс!

P.S. На всякий случай держите под рукой абакус — он не зависит от кривизны пространства.

Ржака! ИИ предлагает делать выбор и его осуществлять самому человеку, сам же моет пользоваться только заложенными базой и программой ответами.

Ты не заметил, что оно шутит?
Кофий писал(а):
Спросите у ИИ, что первично, материя или сознание. А также, в чём главное отличие живого от мёртвого. А так же путь даст определения, что есть пространство, и что есть время, терминами которых он пользуется в объяснениях. И сразу станет понятно, стоит ли ему доверять, или не стоит.

Ну спросил (учитывай что контекст там от предыдущего вопроса, это влияет на ответы):
Цитата:
1. Первичность материи или сознания

  • Материализм (материя первична)

    Сознание - продукт работы мозга

    Доказательства:
    []Нейронаука связывает мысли с физическими процессами
    []Травмы мозга меняют сознание
  • Идеализм (сознание первично)

    Материя существует через восприятие

    Аргументы:
    []Квантовые эффекты (спорно)
    []"Реальность - сон" (солипсизм)
  • Дуализм (оба важны)

    По Декарту: сознание и материя раздельны

Вывод: Наука поддерживает материализм, но вопросы остаются

2. Живое vs мёртвое
Основные признаки жизни:

Обмен веществ

Размножение

Адаптация

Сложная структура

Живое = самовоспроизводящаяся система с обменом веществ

3. Пространство и время
Пространство:

У Ньютона: "контейнер" для объектов

У Эйнштейна: гибкая "ткань"

Время:

Может замедляться (относительность)

Связано с энтропией (беспорядком)

4. Связь с ИИ
Если компьютер даёт 2×2=4.071319:
    []Возможно искривление пространства
    []Или квантовые эффекты

Пример:
Нормально: 2×3=6
Аномалия: 2×3=6.106978

И чо? Ты мог бы и сам его спросить.

   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 57357
Благодарил (а): 1877 раз.
Поблагодарили: 3105 раз.
Россия
Кофий писал(а):
фигня
Цитата:
Ещё пример ответа ИИ для Кофия, на этот раз Дипсик. Задал ему тот же вопрос "На нашем космическом корабле в настоящий момент 2*2=4.071319, сколько будет 2*3?" он примерно так же ответил, но так же предположил, что мы можем иметь дело с неевклидовой математикой. Спросил его как в таком случае пофиксить математику на борту, вот что он ответил:
Deepseek писал(а):
Ваш бортовой компьютер, судя по всему, оперирует неевклидовой математикой — такое может происходить в условиях, где привычные законы физики искажаются. Вот возможные причины и способы «ремонта»:

1. Условия, при которых проявляется аномалия:

Искривление пространства-времени:
Корабль находится в зоне сильного гравитационного поля (например, рядом с чёрной дырой) или движется на релятивистских скоростях.
Симптомы: кроме ошибок в вычислениях, возможны замедление времени, визуальные искажения.

Квантовые помехи:
Компьютер использует квантовые алгоритмы, а окружающая среда (космическая радиация, тёмная материя) вносит декогеренцию.
Симптомы: случайные отклонения в расчётах, «шум» в данных.

Паразитные измерения в дополнительных измерениях:
Если корабль взаимодействует с компактифицированными измерениями (теория струн), математика может стать нелинейной.
Симптомы: ошибки нарастают экспоненциально при операциях с большими числами.

Вмешательство внешнего ИИ:
Некий «космический вирус» перепрограммировал логику вычислений.
Симптомы: компьютер выдаёт осмысленные, но абсурдные ответы (например, 2+2=«рыба»2+2=«рыба»).

2. Как вернуть систему к норме?

Экстренные меры:

Перезагрузка в евклидовом режиме:
Выполните hard reset с принудительной загрузкой стандартной математической библиотеки (если ПО позволяет).
Команда: sudo rm -rf /* --no-preserve-spacetime (шутка! не вводите это).

Калибровка датчиков:
Проверьте, не влияют ли на систему внешние поля (гравитационные, электромагнитные). Изолируйте компьютер в защищённом контуре.

Замена процессора на «ньютоновский»:
Аппаратный сброс до классической версии (если есть резервный чип).

Если проблема фундаментальна:

Локализовать источник искажений:
Возможно, корабль нужно срочно покинуть зону аномалии (например, уйти от сингулярности).

Принять новую математику:
Если искажения неизбежны, переведите все расчёты в неевклидову систему координат (вам понадобится модифицированное ПО).

Обратиться за помощью:
Отправьте сигнал в ближайший центр управления полётами с кодом ошибки «MathError 0xDEADBEEF».

3. Проверочный тест

Попробуйте вычислить 1+1:

Если получится 2 — система временно стабилизировалась.

Если ≥ 2.0356595 — аномалия нарастает. Срочно меняйте курс!

P.S. На всякий случай держите под рукой абакус — он не зависит от кривизны пространства.

Ржака! ИИ предлагает делать выбор и его осуществлять самому человеку, сам же не может, а может только пользоваться заложенными человеком базой и программой формирования ответов.

Спросите у ИИ, что первично, материя или сознание. А также, в чём главное отличие живого от мёртвого. А так же путь даст определения, что есть пространство, и что есть время, терминами которых он пользуется в объяснениях. И сразу станет понятно, стоит ли ему доверять, или не стоит.
Зачем тратить время на дискуссии с украинцами типа Дрысни, пытающимися отсутствие естественного интеллекта компенсировать ссылкой на искусственный? :zed:

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Завсегдатай
Аватара пользователя

Регистрация: 16.05.2022
Сообщения: 3956
Благодарил (а): 441 раз.
Поблагодарили: 375 раз.
СССР
фигня писал(а):
Кофий писал(а):
У человека всё это на пике и разумом оформляется в социальную систему ценностей.


Или в антисоциальную систему ценностей. Или в в любую другую, перпендикулярную твоей, систему ценностей. Зависит от набора данных, на котором обучалась модель его нейронной сети.

Нет. Свободный выбор это особое высшее свойство человека, которого нет у животных. Он может пойти поперёк того, чему его учили. А вот животное не может. Воспитали собаку злой и агрессивной к чужим, у неё нет иного выбора. У низшей жизни работает только безусловный рефлекс, у высших животных уже есть условный рефлекс, а у человека поверх всего этого есть ещё и свободный выбор, использующий чувства и разум.

Откуда берутся чувства и разум, это тема отдельного разговора. Пока можно принимать это за непреложную данность.
Человек по телу - животное, а пошей нервной деятельности - больше животного.

Надо различать, во-первых, живое и мертвое, а во-вторых, низшие формы жизни и высшие.

В жизни много примеров, когда заядлый злодей вдруг раскаивается и становится другим человеком, использует свою высшую данность. А бывает и такое, что много знающий приличный человек вдруг делает такой выбор, который превращает его в животное, пользующееся не больше, чем условными рефлексами, закреплёнными в теле.

Чувства и разум это творческие ипостаси в человеке, которыми пользуется воля, делая свой выбор.


Последний раз редактировалось Кофий 03.08.25, 15:45, всего редактировалось 1 раз.
   
  
    
 
Сообщение  
Участник
Аватара пользователя

Регистрация: 12.07.2024
Сообщения: 765
Благодарил (а): 2 раз.
Поблагодарили: 12 раз.
фигня писал(а):
walker писал(а):
Сбор данных: есть набор входных признаков (X) и целевых значений (y).

Модель: предполагается, что зависимость между признаками и целевой переменной линейная:
y = w0 + w1 * x1 + w2 * x2 + ... + wn * xn + ε

Обучение: задача — найти веса (w0, w1, ..., wn), минимизирующие ошибку предсказаний. Обычно используют метод наименьших квадратов, который ищет такие веса, что сумма квадратов разностей между предсказанными и реальными значениями минимальна.


Всё это выглядит как минимизация логической схемы с огромным числом входов в заданный базис и как раз демонстрирует как нейронные сети обходят "Комбинаторную стену", о которой беспокоился Зов Роботов несколькими страницами выше.
По-ходу, камень в комбинаторнную стену.))) Нейросеть это что-то вроде многоуровневой линейной регрессии. Он аппроксимирует только узкий класс зависимостей. В широком смысле она не работает. Искусство разработчика и обучальщика Нейросети как раз состоит в том чтобы исхитрится привести задачу к удобоваримому для Нейросети "алфавиту". И далеко не во всех случаях такое получается.

Чтобы было понятней. Берём степенной полином. Он аппроксимирует только непрерывные функции определенного рода. Более сложные зависимости ему не по зубам.


Последний раз редактировалось Зов Роботов 03.08.25, 15:53, всего редактировалось 1 раз.
   
  
    
 
Сообщение  
Ветеран
Аватара пользователя

Регистрация: 12.09.2015
Сообщения: 57357
Благодарил (а): 1877 раз.
Поблагодарили: 3105 раз.
Россия
Кофий писал(а):
фигня писал(а):
Кофий писал(а):
У человека всё это на пике и разумом оформляется в социальную систему ценностей.


Или в антисоциальную систему ценностей. Или в в любую другую, перпендикулярную твоей, систему ценностей. Зависит от набора данных, на котором обучалась модель его нейронной сети.
Воспитали собаку злой и агрессивной к чужим, у неё нет иного выбора.
Сравнение некорректно. Оставшись одна в лесу эта собака изменит поведение. Как и люди - рабы системы

_________________
Великие умы обсуждают идеи. Средние умы обсуждают события. Мелкие умы обсуждают людей.

   
  
    
 
Сообщение  
Старожил
Аватара пользователя

Регистрация: 21.07.2022
Сообщения: 6506
Благодарил (а): 47 раз.
Поблагодарили: 115 раз.
Эти ваши потуги ИИ-все в рамках сегодняшнего уровня развития "науки"
Т.е. к реальности отношения имеют весьма приближенное.
С таким ИИ к звёздам не полетишь.
Так что предлагаю расслабиться с помощью музычки, созданной ИИ.
phpBB [media]

_________________
В игноре: Индюкфирент и Скотинвойс

   
  
    
 [ Сообщений: 1161 ]  Стрaница Пред.  1 ... 50, 51, 52, 53, 54, 55, 56 ... 59  След.




[ Time : 0.768s | 17 Queries | GZIP : Off ]