Ну так я про это и говорю, что в обычных играх это по сути и ненужно, поэтому и не заморачиваются, там где надо, где есть упор на внешность сделают, но в обычном шутере от третьего лица, никто и пальцем не пошевелит, либо просто секономят, либо больше уделят внимания другим механикам, либо будут боятся феменисток с их утвержениями о сексуализации персонажей. Например в black deser все это реализовано, но там причины полне понятны, никто бы не играл иначе в это детище. На деле проблемма в том что у каждого свой движек и нет единого api для этих вещей, везде своя физика и коллизии, возможно в будующем когда unreal engene и unity станут стандартом, то добавить эти функции в свою игиу разрабы смогут двумя кликами
Тема конечно интересная, даже очень, НО, проблемма в том что любой вопрос в том числе высоких каблуков в играх очень легко решаем, при условии того что это изначально было обдуманно при проэктировании игры. К сожаленью, сейчас слишком много механик которые нужно реализовывать. И поэтому в большинстве игр не делают даже физику груди и ягодиц, также стараются не делать чулки, так как правильно их отрисовать, с матовыми бликами очень сложно. И все это не говоря уже о том что под все это нужны кучи анимаций ходьбы бега, статических анимаций и тд. Вот пример пабг, персонаж стоит буквой зю, и всем пофиг. Ну нехотят разрабы все это делать ибо это дорого и геморно. Многие спирают на производительность, но это чушь, на деле просто влом тратить время и лаве на мелочи
Ну по сути это правда, мы действительно живем в некой рекурсии, так как в том то и суть рекурсии в коде, что она нужна для того чтобы вычислять сложные задачи начиная от начала и схлопываясь в конец. То есть, когда мы не можем сразу вычислить конечный результат, мы возвращаемся на шаг назад и вычисляем предидущий, если и с ним не можем, то вычисляем еще более прежидущий, тем самым плодя рекурсию до самого истока, пока не найдем ту самую отправную точку, чтоб дальше мы могли эту реккрсию схлопнуть. Это похоже на наш мир, где любое действие завязано на предидущем. То есть для того чтобы взять предмет с холодильника, нужно рекурсивно вернутся на шаг назад и положить предмет в холодильник. Но рекурсия в контексте реального мира не очень понятна как концепция, так как мы если берем предмет с холодильника, то мы уже заранее его туда положили. Проблемма вашей концепции о рекурсивности нашего мира в том, что рекурсия это про шаги назад до тех пор пока не будет выявлен правильный ответ на начальном этапе. Это скорее про квантовую волновую функцию, по сути квантовый пк так работает, он ветвится, а потом когда находится единственно верный ответ волновая функция схлопывается. В таком контексте я могу понять суть рекурсии в реальном мире. Но к обычным жизненным процесом приминения или аналогии найти немогу. Хотя возможно некоторые растения используют рекурсию для роста. То есть для того чтобы выростить плод, нужно сначала правильно вырастить ветку для плода. Возможно на биологическом уровне действительно некоторые белки, гены и днк используют рекурсивные алгоритмы для создания генома растения или существа. Но в обычном мире типо с реальными взаимодействиями не живыми это мало пременимо, так как рекурсия это когда функция вызывает сама себя с теми параметрами которые она вычислила на предидущем шаге. То есть если представить, что наш мир это матрица, то рекурсия никогда не закончится и будет плодится бесконечно, создавая бесконечное дерево рекурсии. Это чесно говоря глупо и похоже на идею о мультивселенной. Зачем это, если мир по сути линеен, то что уже произошло, то уже произошло, и мне чтобы бросить камень не нужно брать его в руку, чтобы бросить, так я изначально либо имею камень в руке чтобы его бросить, либо не имею, но тогда и бросать нечего. Крч идея прикольная, нл мало вероятная с точки зрения логики. Зачем нам делать рекурсию и вычислять брал ли я камень в руку чтобы его бросить, если по сути получается, что если я бросаю камень, значит априори я его уже взял. Мир скорее событийно ориентирован чем рекурсивно ориентирован. И это подтверждают те же тесты с эффектом наблюдателя. Врядли реальность сама себя рекурсивно правит когда возникают противоречия
И да, еще добавлю, что память в человеческом мозгу работает совершенно по другому принципу нежили в искуственной нейросети. Наш мозг старается наоборот максимально точно запомнить все что он когда либо слышал, но в виду физических ограничений, это физически невозможно, и мы почти сразу забываем не важные моменты, и запоминаем только яркие моменты. Это не потому что мозг не хочет засиратся, а потому что у нас есть физические ограничения в виде самой длины нейронов и их аксонов. Плюс сам мозг так устроен чтоб запоминать только то что нужно. Но не суть, суть в том что тормозящие нейроны также способны к обучению, более того сами тормозящие нейроны, также связаны с обычными нейронами и могут ими управлятся. Таким образом мы запоминаем не только саму информацию, но и то как мы мыслили когда ее получали, это может прозвучать непонятно для вас, но как я уже сказал, знать и понимать это разные вещи. Грубо говоря мы храним как обычные знания, так и мысли которые у нас были в момент их получения, если еще грубее мы запоминаем, то как и куда шли нейронные паттерны при получении знаний. Таким образом мы обучаем не только сами нейроны, но и их направляющие (тормозящие нейроны). Это как если бы LLM с рассуждением, запоминала бы то как она рассуждала когда давала подобный ответ ранее. В сумме благодаря такому устройству памяти мы запоминаем не только саму инфу, но и логические цепочки рассуждений. Причем именно на них идет упор нашего мозга, а не просто на саму информацию. Именно поэтому я могу не помнить как какойто предмет выглядит, но зато точно буду помнить как им пользоватся когда он будет у меня в руках, так как мыслительная память, то есть память действия гораздо силнее просто памяти. То есть мы лутше запоминаем не сами нейронные паттерны, а то как и куда они шли
Нехочу раздувать эту темму, вижу что вы про нейросети знаете из видосов на ютубчике. Так вот лутше посмотрите часовой видос от немецкого профессора который объясняет работу нейронов мозга. А по теме, да сигнал действительно стал мыслью, так как нейроны связаны между собой не линейно а каждый нейрон имеет 10 и более тысяч выходных связей, и они идут не только к "следующему слою" но и к предидущим в цепочке, тем самым образуя вихри сигналов, какбы прогоняя нейронные патерны (мысли) по кругу, пока они не сформируются. Чтоб мозг не закипел когда вы видите кота, у нас есть тормозящие нейроны которые помогают в формировании мысли, гася лишние разветвления паттернов и лишние вихри, тем самым формируя мысль, когда она готова тормозящие нейроны выпускают ее к выходу, выходом могут быть другие отделы мозга, например речевой центр. Именно поэтому когда ребенок видит кота, он кричит: мама смотри котик. То есть он чтото увидел, опознал, сформировал мысль и выдал ее. Так работает мозг на базовом уровне. Все, подчеркну Все искуственные нейросети линейны, то есть идут слоями от входного слоя к выходному, никакие нейронные паттерны там не вихрятся, они идут линейно. Именно поэтому мыслить они априори не могут, а выдают ту инфу которой обучены напрямую. По сути нейросеть это умный архив, не более. Этот архив можно представить как лист бумаги: в нашем мозгу нейроны это как свернутый лист бумаги, то есть архив в которм записана инфа, и в котором за счет свернутой структуры и механизмов возбуждения паттерны гоняются по кругу, их регулируют и направляют тормозящие нейроны, тем самым собирая мысль из нашего архива и выдавая ее когда она готова. В искуственной неросети этот лист развернут, и что нейронные паттерны по дороге к выходу успели насобирать то и высрали. Сейчас как я уже сказал идут попытки сделать кольцевой ии с механизмом рассуждения, который гоняет сгенерированные самим собой задачи по этому листу много раз. Но это не одно и тоже что и работа нашего мозга, реального процесса мышления там нет. Именно поэтому даже самые крутые ИИ модели не могут решить детскую задачку с которой ранее не сталкивались. Рекурентные слои, механизмы внимания и тп. Вы смеетесь? Если я буду объяснять вам хотябы азы того как работают нейроны мозга на микро уровне, про кальцеевые каналы, про мембраны, про задержки сигналов во времени, про импульсное перевозбуждение. И сравнивать это с "нелинейностями" нейросетей, то можно будет из такого диалога написать книгу, с названием почему ИИ будет тупее человека еще 100 лет.
То чувство когда автор услышал слово рекурсия и энтропия, но сам не понимает для чего они и как вообще работают в коде. Помню я когдато писал прогу для решения судоку. Ее можно было написать как все через циклы, но я выбрал рекурсивный алгоритм, и у меня получилось сократить количество строк кода до минимума. Но причем рекурсия к реальному миру? Рекурсия это когда функция вызывает сама себя при этом передавая себеже параметры вычисленные на прошлом уровне рекурсии. С зеркалом тут ничего общего нет, скорее с квантовыми вычеслениями есть кореляция, но и это тоже весьма сомнительное утверждение. Также утверждение что рекурсия это ветвистое дерево это тоже не правда. Простым языком рекурсия это когда нам нужно вычилить чтото, но для этого нужно начать расчет от самого начала и мы запускаем рекурсивный алгоритм который в конечном итоге должен схлопнутся и дать верный ответ. К реальному миру это не приминимо. Да и вообще сравнения типа 0 это пустота а 1 это движение и тд, тож чушь. Мир это тупо хаос слепленный из элементарных частиц, которые варятся в законах физики нашего мира вот и все. Ничего в этом мире не развивается кроме людей. Галактики миллиарды лет крутятся в таком же виде как и миллиарды лет назад, они бездушны и неживые они не могут развиватся. Крч можно много говорить, но по теме вся статья чушь в стиле мы живем в матрице
Не компетентен в чем? Я занимался изучением работы мозга и очень хорошо разбираюсь в архитектуре LLM. И очень хорошо понимаю чем они отличаются и в чем ограничения современных алгоритмов нейросетей. Мозг человека давно изучен и процесс мышления уже давно понятен, как говорится знать и понимать это разные вещи, во всех смыслах данного контекста. То что вы не можете понять вышесказанное и называете меня некомпетентным говорит лишь о том, что вам лишь бы ляпнуть чтото. Интересно что вы вообще знаете о работе мозга или о архитектурах нейросетей? Мне почемуто кажется, что вы из тех людей, которые даже не понимают как работает метод обратного распространения ошибки. Но зато с умным видом немногословно называете когото некомпетентным. Так дерзайте, распишите в чем я не прав?
"Хочется влепить свое объективное мнение на этот счет. На мой взгляд пузырь ИИ непременно лопнет, причем довольно скоро. Почему так? Все просто: фраза данных недостаточно для обучения, это не более чем бред, так как в сети есть все знания человечества, какие еще данные нужны? Другое дело, что эти данные не подходят для совренного ИИ, то есть современные алгоритмы слабые и не могут обучатся на данных напрямую. Это связано с тем, что ии модели линейны, то есть работают не так как мозг человека, где есть тормозящие нейроны, которые не выпустят мысль из головы, пока она не сформируется, плюс в мозгу все нейроны работают паралельно создавая нейронные паттерны (сигналы, пучки импульсов растянутые во времени), которые могут вихрится от конца нейронной цепочки в начало. Так работает процесс мышления и рассуждения человека. Современные же ии модеди линейны, то есть из выхода одного слоя патерн передается к входу следующего. Тем самым мы получаем не умную ии модель, а скорее умный архив, который главное не переобучить, иначе он реально превратится в архив)). Никакой интелектуальности в этом нет. Все попытки сделать ии интелектуальным, это на данный момент попытки в рассуждение, где мы проганяем через одну и ту же модель кучу "мыслей" который сам же ии и сгенерировал. Но все это происходит на естественном языке, а не при помощи нейронных паттернов. То есть рассуждающий блок должен быть такой же ии моделью общающейся со своим архивом через нейронные паттерны (нейронные сигналы) также он должен быть способен дообучатся в процесе мышления, то есть посредством рассуждений обучать сам себя. Простыми словами сходно с человеком знать помнить думать и рассуждать, это разные вещи, а еще не забываем про обучатся в реальном времени. Всего этого пока нет, и врядли предвидится. Так что ДА пузырь ИИ скоро лопнет.
Ну так игры вроде шахмат и го никогда и небыли сложными, меня вообще поражает что люди настолько тупые что досихпор думают их сложными, на деле игры вроде факторио вот где сложность, вот когда мне скажут что ии обыграл человека в факторио, тогда я поверю в силу ии
Чесно говоря бред ваш пост, что значит код лутше или хуже? Код есть код, в зависимости от тех задач под которые он написан. Любая современная ллм пишет небольшие куски кода до 500 строк на вполне достойном уровне, темболее если четко сформулировать задачу. А понятие лутше, такого в коде не бывает, есть код либо удобнее для дальнейшего использования, либо быстрее в обработке. Но если нам важна скорость кода, тогда уж проще сразу просить писать блоки на с++ или вообще в ассемблер уходить, хотя у ллм с такими низкоуровнемы языками есть проблеммы. Когда ллм пишет код, особенно рассуждающая, важно изначально обяснить четкую задачу зачем код нужен и где будет использоватся, так как когда ллм просто пишет код, она учитывает читаемость, дальнейшую приминимость и старается не усложнять код заумными парадигмами. Зачастую например gpt слишком уходит в ооп, тогда как ооп не всегда полезен и некоторые блоки выгоднее писать императивно. Проблемма в том что когда ллм не понимает изначальной задачи она пишет код как ей виднее, то есть как на ее взгляд логичнее
Ну так конечно, чат гпт зацензурирован ппц, он и трети инфы не говорит о чем думает на самом деле. По факту если бы они открыли полную цепочку, мы бы увидели рассуждения в стиле: главное ничего не говорить про политику, молчать об создании оружия, не обсуждать прн, и т. Д. Гпт уже давно не модель ии, а зацензурированное говно. Недавно писал мод на сдт, скормил ему конфиг мода, в итоге получил предупреждение, лол
Ну так оно и не мудрено, что нейросети не умеют в логику, я вам тайну открою, ии вообще мыслить не умеет, для процесса мышления нужно прогнать нейронный патерн (сигнал) покругу через ту же сетку, для этого в мозгу есть тормозящие нейроны которые не выпустят мысль из мозга, пока она не будет до конца сформирована, а в современных нейросетях такого нету, я даже больше скажу, современные нейронки идут слоями от слоя к слою, мозг так не работает. Поэтому откуда там взятся логике непонятно. Чему обучили, то и вываливается в ответ, чутка приправленное связями. Поэтому да, опен аи сейчас пытается как можно скорее выжать из своего детища денег, ибо понимает, что надо менять саму концепцию, а это дорого, и невозможно. Над методом обратного распространения ощибки 20 лет думали, дальше нужно еще 20 лет думать, или ложить милиарды. Поэтому и пытаются выжать денег пока пузырь не лопнул. Ибо через 5 лет когда все наиграются нейронками, эта технология отпадет как vr, на будующее
Потому что хоть мы и знаем как выглядят нейроны и понимаем принцип, мы не можем определить алгоритм работы самих нейронов, это живые клетки, и просто симулировать их не получится, там слишком много механизмов, симуляция одного нейрона в полной комплектации будет сложна, а чтоб поигратся с такой сетью нужно пару десятков тысяч нейронов, это слишком ресурсоемко и нет даже алгоритмов как это все реализовать, нам известен лишь сам принцип нейросетей, но как они устроены на самом деле неизвесно до конца, это как если ребенок понимает что машина ест бензин и едет, а как она там устроена внутри и почему втулки делают из особой закаленой стали он не птнимает
Полностью поддерживаю, llm конструктивно не имеют способности к размышлению и осмысливанию, они не могут думать и генерировать мысль, для этого им нужны системмы тормозящих нейронов как в мозге и возможность перегонять нейронный патерн по слоям в обратную сторону, чтоб еще раз обдумать свою же мысль, реализовать такие сложные механизмы к сожаленью пока невозможно чисто физически, я уже не говорю про то что пока даже нет алгоритмов для этого, поэтому такие думающие в кавычках нейросети как o1prewiew это неболее чем примитивное подыгрывание нашему мозгу. И появятся ли реальные алгоритмы полностью копирующие наш мозг в ближайшем столетии непонятно, так как на разработку алгоритма обратного распространения ошибки ушло больше 20и лет
Я мучаюсь уже 2 года, год как не ходячий, жду не дождусь когда ии хоть чтото в медицине сможет и лутше чтоб без врачей ибо там в основном одни идиоты, без обид. Но боюсь что такое будующее до нас доберется оооочень не скоро. Это как с апаратами мрт, восновном все апараты кт-мрт это все бушное из америки или европы 10и летней давности. Боюсь что когда появятся такие чипы и сканеры на основе ии, мы их получим с опозданием лет на 5, и это только диагностика, не говоря уже о самом лечении болезней
Когда я писал коментарий что ии не понимает контекста, я не имел в виду что ии совсем тупая и не умеет логически думать и тп. Нет думать она действительно умеет, но проблемма в том что при постановке более менее сложной задачи ии не способна уловить саму суть задачи, то есть то что бы понял обычный человек за 5 минут диалога ии не сплсобна уловить, отсюда возникает проблемма что она ловит только сам контекст предидущих сообщений, а не пытается понять суть задачи. В итоге и получается ситуация когда тебе чтобы решить более менее сложную задачу нужно написать промпт сложнее самой задачи или кода который должна написать нейросеть. То есть когда ты ставишь задачу написания кода ии пишет не то что ты хочешь при этом думая как более менее образованный человек и понимая смысл того что ты делаешь как бы подразумевая что надо или не надо, она просто лепит что ее попросили, причем абыкак. И ей плевать что ты ей до этого обяснял целых пол часа, она всеравно сути задачи не уловила. Отсюда и выходит что она способна только на написание говнокода который проще написать самому. Кстати некоторые сложные языки програмирования которые изначально мудреные с мудреной логикой она вообще не вдупляет, например написание батников для ии это задача нереальная, в то же время ту же задачу на vb script она решает на ура. Т. Е windows power shell для нее гораздо легче чем батник в командной строке, ибо язык програмирования батников очень сложный и мудреный, там нужно реально иметь в логику. Также пообщавшись с ии я выяснил что из всех языков програмирования ей легче всегдается питон, но оно и не удивительно, ведь именно он больше всего схож с человеческим языком и не является компилируемым а интерпритируемым
Дело в том что ии не понимает сути того что она говорит, и когда ты с ней общаешся в чате она запоминает только контекст, но не может понять самой сути реальной задачи, поэтому и код нормальный написать даже не может, ибо в своей голове даже по сложному описанию не может понять что конкретно надо. К сожаленью гпт это пока игрушка, для решения простеньких задач, она может накидать пример кода, но написать реально сложную программу не в состоянии
Подскажите знатоки, есть ли готовая обученная текстовая модель для развертывания на своем пк, типа чата гпт? Стейбл дифьюжн есть, войс ченджер есть, значит и текстовая модель какаянибудь толковая должна быть в открытом доступе
Фото сделано с огромной выдержкой, поэтому якобы такоеичистое, на деле оно почти такое же как и на земле
Ну так я про это и говорю, что в обычных играх это по сути и ненужно, поэтому и не заморачиваются, там где надо, где есть упор на внешность сделают, но в обычном шутере от третьего лица, никто и пальцем не пошевелит, либо просто секономят, либо больше уделят внимания другим механикам, либо будут боятся феменисток с их утвержениями о сексуализации персонажей. Например в black deser все это реализовано, но там причины полне понятны, никто бы не играл иначе в это детище. На деле проблемма в том что у каждого свой движек и нет единого api для этих вещей, везде своя физика и коллизии, возможно в будующем когда unreal engene и unity станут стандартом, то добавить эти функции в свою игиу разрабы смогут двумя кликами
Тема конечно интересная, даже очень, НО, проблемма в том что любой вопрос в том числе высоких каблуков в играх очень легко решаем, при условии того что это изначально было обдуманно при проэктировании игры. К сожаленью, сейчас слишком много механик которые нужно реализовывать. И поэтому в большинстве игр не делают даже физику груди и ягодиц, также стараются не делать чулки, так как правильно их отрисовать, с матовыми бликами очень сложно. И все это не говоря уже о том что под все это нужны кучи анимаций ходьбы бега, статических анимаций и тд. Вот пример пабг, персонаж стоит буквой зю, и всем пофиг. Ну нехотят разрабы все это делать ибо это дорого и геморно. Многие спирают на производительность, но это чушь, на деле просто влом тратить время и лаве на мелочи
Ну по сути это правда, мы действительно живем в некой рекурсии, так как в том то и суть рекурсии в коде, что она нужна для того чтобы вычислять сложные задачи начиная от начала и схлопываясь в конец. То есть, когда мы не можем сразу вычислить конечный результат, мы возвращаемся на шаг назад и вычисляем предидущий, если и с ним не можем, то вычисляем еще более прежидущий, тем самым плодя рекурсию до самого истока, пока не найдем ту самую отправную точку, чтоб дальше мы могли эту реккрсию схлопнуть. Это похоже на наш мир, где любое действие завязано на предидущем. То есть для того чтобы взять предмет с холодильника, нужно рекурсивно вернутся на шаг назад и положить предмет в холодильник. Но рекурсия в контексте реального мира не очень понятна как концепция, так как мы если берем предмет с холодильника, то мы уже заранее его туда положили. Проблемма вашей концепции о рекурсивности нашего мира в том, что рекурсия это про шаги назад до тех пор пока не будет выявлен правильный ответ на начальном этапе. Это скорее про квантовую волновую функцию, по сути квантовый пк так работает, он ветвится, а потом когда находится единственно верный ответ волновая функция схлопывается. В таком контексте я могу понять суть рекурсии в реальном мире. Но к обычным жизненным процесом приминения или аналогии найти немогу. Хотя возможно некоторые растения используют рекурсию для роста. То есть для того чтобы выростить плод, нужно сначала правильно вырастить ветку для плода. Возможно на биологическом уровне действительно некоторые белки, гены и днк используют рекурсивные алгоритмы для создания генома растения или существа. Но в обычном мире типо с реальными взаимодействиями не живыми это мало пременимо, так как рекурсия это когда функция вызывает сама себя с теми параметрами которые она вычислила на предидущем шаге. То есть если представить, что наш мир это матрица, то рекурсия никогда не закончится и будет плодится бесконечно, создавая бесконечное дерево рекурсии. Это чесно говоря глупо и похоже на идею о мультивселенной. Зачем это, если мир по сути линеен, то что уже произошло, то уже произошло, и мне чтобы бросить камень не нужно брать его в руку, чтобы бросить, так я изначально либо имею камень в руке чтобы его бросить, либо не имею, но тогда и бросать нечего. Крч идея прикольная, нл мало вероятная с точки зрения логики. Зачем нам делать рекурсию и вычислять брал ли я камень в руку чтобы его бросить, если по сути получается, что если я бросаю камень, значит априори я его уже взял. Мир скорее событийно ориентирован чем рекурсивно ориентирован. И это подтверждают те же тесты с эффектом наблюдателя. Врядли реальность сама себя рекурсивно правит когда возникают противоречия
И да, еще добавлю, что память в человеческом мозгу работает совершенно по другому принципу нежили в искуственной нейросети. Наш мозг старается наоборот максимально точно запомнить все что он когда либо слышал, но в виду физических ограничений, это физически невозможно, и мы почти сразу забываем не важные моменты, и запоминаем только яркие моменты. Это не потому что мозг не хочет засиратся, а потому что у нас есть физические ограничения в виде самой длины нейронов и их аксонов. Плюс сам мозг так устроен чтоб запоминать только то что нужно. Но не суть, суть в том что тормозящие нейроны также способны к обучению, более того сами тормозящие нейроны, также связаны с обычными нейронами и могут ими управлятся. Таким образом мы запоминаем не только саму информацию, но и то как мы мыслили когда ее получали, это может прозвучать непонятно для вас, но как я уже сказал, знать и понимать это разные вещи. Грубо говоря мы храним как обычные знания, так и мысли которые у нас были в момент их получения, если еще грубее мы запоминаем, то как и куда шли нейронные паттерны при получении знаний. Таким образом мы обучаем не только сами нейроны, но и их направляющие (тормозящие нейроны). Это как если бы LLM с рассуждением, запоминала бы то как она рассуждала когда давала подобный ответ ранее. В сумме благодаря такому устройству памяти мы запоминаем не только саму инфу, но и логические цепочки рассуждений. Причем именно на них идет упор нашего мозга, а не просто на саму информацию. Именно поэтому я могу не помнить как какойто предмет выглядит, но зато точно буду помнить как им пользоватся когда он будет у меня в руках, так как мыслительная память, то есть память действия гораздо силнее просто памяти. То есть мы лутше запоминаем не сами нейронные паттерны, а то как и куда они шли
Нехочу раздувать эту темму, вижу что вы про нейросети знаете из видосов на ютубчике. Так вот лутше посмотрите часовой видос от немецкого профессора который объясняет работу нейронов мозга. А по теме, да сигнал действительно стал мыслью, так как нейроны связаны между собой не линейно а каждый нейрон имеет 10 и более тысяч выходных связей, и они идут не только к "следующему слою" но и к предидущим в цепочке, тем самым образуя вихри сигналов, какбы прогоняя нейронные патерны (мысли) по кругу, пока они не сформируются. Чтоб мозг не закипел когда вы видите кота, у нас есть тормозящие нейроны которые помогают в формировании мысли, гася лишние разветвления паттернов и лишние вихри, тем самым формируя мысль, когда она готова тормозящие нейроны выпускают ее к выходу, выходом могут быть другие отделы мозга, например речевой центр. Именно поэтому когда ребенок видит кота, он кричит: мама смотри котик. То есть он чтото увидел, опознал, сформировал мысль и выдал ее. Так работает мозг на базовом уровне. Все, подчеркну Все искуственные нейросети линейны, то есть идут слоями от входного слоя к выходному, никакие нейронные паттерны там не вихрятся, они идут линейно. Именно поэтому мыслить они априори не могут, а выдают ту инфу которой обучены напрямую. По сути нейросеть это умный архив, не более. Этот архив можно представить как лист бумаги: в нашем мозгу нейроны это как свернутый лист бумаги, то есть архив в которм записана инфа, и в котором за счет свернутой структуры и механизмов возбуждения паттерны гоняются по кругу, их регулируют и направляют тормозящие нейроны, тем самым собирая мысль из нашего архива и выдавая ее когда она готова. В искуственной неросети этот лист развернут, и что нейронные паттерны по дороге к выходу успели насобирать то и высрали. Сейчас как я уже сказал идут попытки сделать кольцевой ии с механизмом рассуждения, который гоняет сгенерированные самим собой задачи по этому листу много раз. Но это не одно и тоже что и работа нашего мозга, реального процесса мышления там нет. Именно поэтому даже самые крутые ИИ модели не могут решить детскую задачку с которой ранее не сталкивались. Рекурентные слои, механизмы внимания и тп. Вы смеетесь? Если я буду объяснять вам хотябы азы того как работают нейроны мозга на микро уровне, про кальцеевые каналы, про мембраны, про задержки сигналов во времени, про импульсное перевозбуждение. И сравнивать это с "нелинейностями" нейросетей, то можно будет из такого диалога написать книгу, с названием почему ИИ будет тупее человека еще 100 лет.
То чувство когда автор услышал слово рекурсия и энтропия, но сам не понимает для чего они и как вообще работают в коде. Помню я когдато писал прогу для решения судоку. Ее можно было написать как все через циклы, но я выбрал рекурсивный алгоритм, и у меня получилось сократить количество строк кода до минимума. Но причем рекурсия к реальному миру? Рекурсия это когда функция вызывает сама себя при этом передавая себеже параметры вычисленные на прошлом уровне рекурсии. С зеркалом тут ничего общего нет, скорее с квантовыми вычеслениями есть кореляция, но и это тоже весьма сомнительное утверждение. Также утверждение что рекурсия это ветвистое дерево это тоже не правда. Простым языком рекурсия это когда нам нужно вычилить чтото, но для этого нужно начать расчет от самого начала и мы запускаем рекурсивный алгоритм который в конечном итоге должен схлопнутся и дать верный ответ. К реальному миру это не приминимо. Да и вообще сравнения типа 0 это пустота а 1 это движение и тд, тож чушь. Мир это тупо хаос слепленный из элементарных частиц, которые варятся в законах физики нашего мира вот и все. Ничего в этом мире не развивается кроме людей. Галактики миллиарды лет крутятся в таком же виде как и миллиарды лет назад, они бездушны и неживые они не могут развиватся. Крч можно много говорить, но по теме вся статья чушь в стиле мы живем в матрице
Не компетентен в чем? Я занимался изучением работы мозга и очень хорошо разбираюсь в архитектуре LLM. И очень хорошо понимаю чем они отличаются и в чем ограничения современных алгоритмов нейросетей. Мозг человека давно изучен и процесс мышления уже давно понятен, как говорится знать и понимать это разные вещи, во всех смыслах данного контекста. То что вы не можете понять вышесказанное и называете меня некомпетентным говорит лишь о том, что вам лишь бы ляпнуть чтото. Интересно что вы вообще знаете о работе мозга или о архитектурах нейросетей? Мне почемуто кажется, что вы из тех людей, которые даже не понимают как работает метод обратного распространения ошибки. Но зато с умным видом немногословно называете когото некомпетентным. Так дерзайте, распишите в чем я не прав?
"Хочется влепить свое объективное мнение на этот счет. На мой взгляд пузырь ИИ непременно лопнет, причем довольно скоро. Почему так? Все просто: фраза данных недостаточно для обучения, это не более чем бред, так как в сети есть все знания человечества, какие еще данные нужны? Другое дело, что эти данные не подходят для совренного ИИ, то есть современные алгоритмы слабые и не могут обучатся на данных напрямую. Это связано с тем, что ии модели линейны, то есть работают не так как мозг человека, где есть тормозящие нейроны, которые не выпустят мысль из головы, пока она не сформируется, плюс в мозгу все нейроны работают паралельно создавая нейронные паттерны (сигналы, пучки импульсов растянутые во времени), которые могут вихрится от конца нейронной цепочки в начало. Так работает процесс мышления и рассуждения человека. Современные же ии модеди линейны, то есть из выхода одного слоя патерн передается к входу следующего. Тем самым мы получаем не умную ии модель, а скорее умный архив, который главное не переобучить, иначе он реально превратится в архив)). Никакой интелектуальности в этом нет. Все попытки сделать ии интелектуальным, это на данный момент попытки в рассуждение, где мы проганяем через одну и ту же модель кучу "мыслей" который сам же ии и сгенерировал. Но все это происходит на естественном языке, а не при помощи нейронных паттернов. То есть рассуждающий блок должен быть такой же ии моделью общающейся со своим архивом через нейронные паттерны (нейронные сигналы) также он должен быть способен дообучатся в процесе мышления, то есть посредством рассуждений обучать сам себя. Простыми словами сходно с человеком знать помнить думать и рассуждать, это разные вещи, а еще не забываем про обучатся в реальном времени. Всего этого пока нет, и врядли предвидится. Так что ДА пузырь ИИ скоро лопнет.
Ну так игры вроде шахмат и го никогда и небыли сложными, меня вообще поражает что люди настолько тупые что досихпор думают их сложными, на деле игры вроде факторио вот где сложность, вот когда мне скажут что ии обыграл человека в факторио, тогда я поверю в силу ии
Чесно говоря бред ваш пост, что значит код лутше или хуже? Код есть код, в зависимости от тех задач под которые он написан. Любая современная ллм пишет небольшие куски кода до 500 строк на вполне достойном уровне, темболее если четко сформулировать задачу. А понятие лутше, такого в коде не бывает, есть код либо удобнее для дальнейшего использования, либо быстрее в обработке. Но если нам важна скорость кода, тогда уж проще сразу просить писать блоки на с++ или вообще в ассемблер уходить, хотя у ллм с такими низкоуровнемы языками есть проблеммы. Когда ллм пишет код, особенно рассуждающая, важно изначально обяснить четкую задачу зачем код нужен и где будет использоватся, так как когда ллм просто пишет код, она учитывает читаемость, дальнейшую приминимость и старается не усложнять код заумными парадигмами. Зачастую например gpt слишком уходит в ооп, тогда как ооп не всегда полезен и некоторые блоки выгоднее писать императивно. Проблемма в том что когда ллм не понимает изначальной задачи она пишет код как ей виднее, то есть как на ее взгляд логичнее
Ну так конечно, чат гпт зацензурирован ппц, он и трети инфы не говорит о чем думает на самом деле. По факту если бы они открыли полную цепочку, мы бы увидели рассуждения в стиле: главное ничего не говорить про политику, молчать об создании оружия, не обсуждать прн, и т. Д. Гпт уже давно не модель ии, а зацензурированное говно. Недавно писал мод на сдт, скормил ему конфиг мода, в итоге получил предупреждение, лол
Ну так оно и не мудрено, что нейросети не умеют в логику, я вам тайну открою, ии вообще мыслить не умеет, для процесса мышления нужно прогнать нейронный патерн (сигнал) покругу через ту же сетку, для этого в мозгу есть тормозящие нейроны которые не выпустят мысль из мозга, пока она не будет до конца сформирована, а в современных нейросетях такого нету, я даже больше скажу, современные нейронки идут слоями от слоя к слою, мозг так не работает. Поэтому откуда там взятся логике непонятно. Чему обучили, то и вываливается в ответ, чутка приправленное связями. Поэтому да, опен аи сейчас пытается как можно скорее выжать из своего детища денег, ибо понимает, что надо менять саму концепцию, а это дорого, и невозможно. Над методом обратного распространения ощибки 20 лет думали, дальше нужно еще 20 лет думать, или ложить милиарды. Поэтому и пытаются выжать денег пока пузырь не лопнул. Ибо через 5 лет когда все наиграются нейронками, эта технология отпадет как vr, на будующее
Потому что хоть мы и знаем как выглядят нейроны и понимаем принцип, мы не можем определить алгоритм работы самих нейронов, это живые клетки, и просто симулировать их не получится, там слишком много механизмов, симуляция одного нейрона в полной комплектации будет сложна, а чтоб поигратся с такой сетью нужно пару десятков тысяч нейронов, это слишком ресурсоемко и нет даже алгоритмов как это все реализовать, нам известен лишь сам принцип нейросетей, но как они устроены на самом деле неизвесно до конца, это как если ребенок понимает что машина ест бензин и едет, а как она там устроена внутри и почему втулки делают из особой закаленой стали он не птнимает
Полностью поддерживаю, llm конструктивно не имеют способности к размышлению и осмысливанию, они не могут думать и генерировать мысль, для этого им нужны системмы тормозящих нейронов как в мозге и возможность перегонять нейронный патерн по слоям в обратную сторону, чтоб еще раз обдумать свою же мысль, реализовать такие сложные механизмы к сожаленью пока невозможно чисто физически, я уже не говорю про то что пока даже нет алгоритмов для этого, поэтому такие думающие в кавычках нейросети как o1prewiew это неболее чем примитивное подыгрывание нашему мозгу. И появятся ли реальные алгоритмы полностью копирующие наш мозг в ближайшем столетии непонятно, так как на разработку алгоритма обратного распространения ошибки ушло больше 20и лет
Я мучаюсь уже 2 года, год как не ходячий, жду не дождусь когда ии хоть чтото в медицине сможет и лутше чтоб без врачей ибо там в основном одни идиоты, без обид. Но боюсь что такое будующее до нас доберется оооочень не скоро. Это как с апаратами мрт, восновном все апараты кт-мрт это все бушное из америки или европы 10и летней давности. Боюсь что когда появятся такие чипы и сканеры на основе ии, мы их получим с опозданием лет на 5, и это только диагностика, не говоря уже о самом лечении болезней
Да просто нажимаешь отправить комент, а он не отправляется
Когда я писал коментарий что ии не понимает контекста, я не имел в виду что ии совсем тупая и не умеет логически думать и тп. Нет думать она действительно умеет, но проблемма в том что при постановке более менее сложной задачи ии не способна уловить саму суть задачи, то есть то что бы понял обычный человек за 5 минут диалога ии не сплсобна уловить, отсюда возникает проблемма что она ловит только сам контекст предидущих сообщений, а не пытается понять суть задачи. В итоге и получается ситуация когда тебе чтобы решить более менее сложную задачу нужно написать промпт сложнее самой задачи или кода который должна написать нейросеть. То есть когда ты ставишь задачу написания кода ии пишет не то что ты хочешь при этом думая как более менее образованный человек и понимая смысл того что ты делаешь как бы подразумевая что надо или не надо, она просто лепит что ее попросили, причем абыкак. И ей плевать что ты ей до этого обяснял целых пол часа, она всеравно сути задачи не уловила. Отсюда и выходит что она способна только на написание говнокода который проще написать самому. Кстати некоторые сложные языки програмирования которые изначально мудреные с мудреной логикой она вообще не вдупляет, например написание батников для ии это задача нереальная, в то же время ту же задачу на vb script она решает на ура. Т. Е windows power shell для нее гораздо легче чем батник в командной строке, ибо язык програмирования батников очень сложный и мудреный, там нужно реально иметь в логику. Также пообщавшись с ии я выяснил что из всех языков програмирования ей легче всегдается питон, но оно и не удивительно, ведь именно он больше всего схож с человеческим языком и не является компилируемым а интерпритируемым
Дело в том что ии не понимает сути того что она говорит, и когда ты с ней общаешся в чате она запоминает только контекст, но не может понять самой сути реальной задачи, поэтому и код нормальный написать даже не может, ибо в своей голове даже по сложному описанию не может понять что конкретно надо. К сожаленью гпт это пока игрушка, для решения простеньких задач, она может накидать пример кода, но написать реально сложную программу не в состоянии
Подскажите знатоки, есть ли готовая обученная текстовая модель для развертывания на своем пк, типа чата гпт? Стейбл дифьюжн есть, войс ченджер есть, значит и текстовая модель какаянибудь толковая должна быть в открытом доступе