Обновить

Если ИИ не мыслит, то как он решает математические задачи?

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели59K
Всего голосов 85: ↑76 и ↓9+78
Комментарии279

Комментарии 279

Ну хорошо, а как это делает человек? Не как объясняет переносом разряда при сложении, в как на самом деле? Что происходит в нейронных сетях у человека в теменной коре, лобной коре? Фигурально говоря мы тоже не видим цифры 36 + 59 = 95, мы разбиваем это на аналоги "токенов" ещё на уровне сетчатки глаза.

Я думаю тут как и у моделей всё зависит от того на чем он обучался.

Кто-то, кто складывал очень много раз короткие числа, мог просто "зазубрить" ответ. Кто-то разбивает на десятки и еденицы как и модель. Кто-то может добавит к 59 один и отнимет ее от 36 и уже потом выполнит сложение 35 с 60. А кто-то не сможет решить без калкулятора даже такой пример.

НЛО прилетело и опубликовало эту надпись здесь

Свят-свят-свят. Это тоже работает, но искренне надеюсь, что такому немасштабируемому способу выполнять расчёты сейчас детей учит незначительное кол-во взрослых.

С одной стороны да. С другой стороны, все равно большие числа никто на бумаге не считает. Пофиг на самом деле ;)

хоть коммент выше и удалили, но когда прочитал ваш, то подумал что там вспомнили про менталку?))

Этот и другие способы (приёмы) очень удобен для быстрых и точных практических вычислений в уме.

Учить этому как раз и надо. Детям проще осваивать.

В журнале "Квант" были приёмы устного счёта, в том числе, и для различных функций. Номер за давностью лет не вспомню.

Пока учился почти все считал в уме для чисел до миллиона, была своя система как все это считать в голове, сейчас уже и не упомнить деталей, но попытки объяснить другим как я обсчитываю тот или иной вариант не находили понимания )))

И да меня этому не учили, сложилось само в процессе обучения и постепенного усложнения задач.

Сейчас увы только +- над двузначными числами мой предел, ну ладно иногда */ тоже )

64\5=(64*2)\10
Ну то есть умножаешь число на 2, а потом запятую переносишь ))

Вот видите, некоторые экземпляры человеческого мозга за десятилетия не способны научиться отличать косую черту от обратной косой черты. AI уже давно обогнал среднестатистического человека разумного в своем развитии.

Ну это проблемы какой то конкретной нейросети, у меня с чтением примера никаких проблем не возникло.

Ну это только один вариант )))

64 / 7 = (71 - 7) / 7 = 71/1 - 7/7 = 10 1/7 - 1 = 9 1/7

Ну так-то уж
64 / 7 = 63/7+1/7=9+1/7 ))

Тут на вкус и цвет, мне проще делить 70 на 7 чем 63 на 7 )))

64/7 = (63+1)/7=63/7+1/7= 9 1/7

Так ещё проще :-)

Вы говорите о системе, а это значит что решение происходило не в 1 проход, то-есть в процесса внутреннего диалога. LLM же умеет выдавать результат сразу. Это аналогично тому как мы можем предсказать куда полетит брошенный предмет(никакой системы у нас на это нет). Впрочем такие уникумы есть и среди людей, просто этот странный навык не нужен в повседневной жизни.

Сразу вспоминается классический анекдот:

Внук: Дедушка, сколько будет шестью восемь?Дед (доставая логарифмическую линейку НП-10): Сейчас прикинем... Где-то между сорока пятью и пятьюдесятью.

На следующий день.
Внук: Дедушка, из-за тебя мне двойку поставили. Училка говорит, что получится ровно сорок восемь.
Дедушка (достав линейку и очки): Действительно! Но зачем ей такая точность?

Дед за давностью лет забыл спросить: "шесть и восемь чего?".

Ну хорошо, а как это делает человек?

У меня были хорошие и плохие учителя. Плохие учили плохому, а хорошие — хорошему. Из вежливости я не буду называть фамилию одного из плохих учителей, но как-то раз он написал, что купил домой (ребёнку) игрушечного робота. Робот ходит, упирается в стенки, алгоритм это отслеживает и заставляет рандомно поворачивать, а потом пробовать заново. Вот и человек это такой же робот. Только алгоритм сложнее. И вот так по жизни, чего ни коснись, ему всё всегда было ясно.

А хорошими учителями были Фейнман и Дойч. У Фейнмана я прочитал его сборник шуток, и там был такой абзац:

Так я и сделал. Сунул в книгу палец, открыл ее и стал читать:
— «Триболюминисценция. Триболюминисценцией называется излучение света кристаллами в процессе их дробления».
А затем сказал:
— Это наука? Нет! Это всего лишь использование одних слов для объяснения значения другого. О природе здесь не сказано ничего — о том, какие кристаллы испускают при дроблении свет, почему они его испускают. Видели вы студента, который, вернувшись домой, попробовал бы это проверить? Не видели, потому что ему и проверять-то нечего. Вот если бы вместо этого было сказано: «Раздавив в темноте плоскогубцами кусок сахара, вы увидите синеватую вспышку. Такие же создаются и другими кристаллами. Почему так происходит, никто не знает. Это явление называется „триболюминисценцией“», — тогда, быть может, кто-нибудь и попробовал бы, вернувшись домой, проделать такой опыт. Поэкспериментировал бы с природой.

Я обратил внимание на выделенное. Это вообще типичный ход для Фейнмана. Он всегда спешит подчеркнуть, когда мы чего-то не знаем. Обозначает белые пятна на карте. И тем самым ставит проблему, которую нужно решить. Вот как мыслят настоящие учёные, понял я: они не маскируют своё невежество от себя же самого, а стараются его выявить.

От другого учителя, Дойча, я почерпнул идею эмерджентности. Например, можно сказать, что «в мозгу передаются импульсы». Однако, ответ должен лежать на подходящем уровне, а этот уровень слишком низкий. В принципе, всё на свете можно объяснить тем, что «так провзаимодействовали атомы». Но это не будет удовлетворительным ответом на вопрос, почему программа падает при нажатии на кнопку или почему из сейфа пропали деньги.

Так вот, что сказал бы я, применяя то, чему научился у этих великих учёных: никто не знает, как это делает человек, потому что на подходящем уровне объяснений у нас нет. И самое печальное, что как-то не видно, чтобы их искали.

Интересный коммент. Зацепило. Я написал книгу на эту тему. Хотелось бы дать её почитать умному человеку и услышать его отзыв

Сунул в книгу палец, открыл ее и стал читать:
— «Триболюминисценция.

Няп чувак открыл словарь и возмутился что это не учебник.

Гугл показывает абзацем выше:

В каждом отдельном случае все сводится не к науке, а к запоминанию. Поэтому сейчас я возьму на себя смелость наугад открыть этот учебник, зачитать вслух написанное на первой попавшейся странице и доказать правоту мною сказанного.

В хорошем учебнике, кроме обьяснения одних слов другими, должно быть еще что то. Математический аппарат как минимум.

Вы предположили, что "чувак" перепутал словарь с учебником. Как оказалось, это не так. Об этом я и написал.

Обсуждать различия словарей и учебников не вижу смысла.

Возможно это таки был словарь ака справочник, а не учебник, но в перевод попало именно слово "учебник" - нужно будет проверять оригинал.

К счастью, в наше время не так уж и сложно найти что-то.

I said, “That’s how it looks to me, when I see you teaching the kids ‘science’ here in Brazil.” (Big blast, right?) Then I held up the elementary physics textbook they were using.

Вы сами можете продолжить своё рассуждение: очевидно, это был плохой учебник. Если бы Фейнману попался хороший учебник, эпизод бы не случился и в мемуары не попал. Фейнман не Сакс, у него не было нужды выдумывать ситуации.

Это должно работать в обе стороны.

Вот был у нас выш.мат в универе, и были лекции, когда за 1.5 часа не было написано ни слова, но формул на 2 листа А4 - для чего это? зачем это?

Не, иногда проскакивало мол "преобразование Фурье, вам потребуется на физике" ну ок, приходишь на физику, а там... да-да, через семестр рассмотрим.

У меня лично вообще хоть какое-то понимание матриц (ну вот эти перемножения, повороты и пр.) начало появляться спустя 20 лет после окончания универа, когда занялся DICOM(мед.изображения) и ML.

Я честно говоря вообще не понимаю, почему нельзя начинать любую лекцию с экскурса в проблематику и то как <лекция_нейм> ее решает

Дед страдал, грыз гранит науки. Чтобы внукам тоже было чего превозмогать.

А в превозмогании тоже заключается важный жизненный урок: «без труда...» и далее по тексту.

А я не понимаю, почему в профильных вузах не преподаются такие интереснейшие предметы, как история физики, математики, химии и тд. И почему даже сейчас, в век интернетов, инфу об этом надо собирать по крупицам самостоятельно. Или есть какие-то книги об этом (о физике в первую очередь), но я глупая и всё пропустила?

Ответ: "Некогда, пилить надо!"
Встречный вопрос, я его спрашивал у многих своих знакомых. Вам в школе/вузе/где-нибудь рассказывали, чем была обоснована необходимость решать бином Ньютона?

почему в профильных вузах не преподаются такие интереснейшие предметы, как история физики

На физфаке МГУ в магистратуре есть курс История и методология физики. И он в учебных программах есть с незапамятных лет.

Зато историю философии преподают под именем философии :)
(и на это тоже студенты ругаются)

Без истории философии у любого философа есть очень много шансов повторить то, что уже было. С другой стороны, в философских вузах вполне себе, я думаю, преподают философские предметы - онтологию (метафизику), гносеологию (эпистемологию) и пр. Может быть даже диалектику ;)

Ну древних физиков тоже было много. То же уравнение состояния идеального газа - кто там только не потоптался. Однако на эту тему дают не труды Бойля, Мариота, Шарля, Гей-Люссака, Менделеева и Клайперона. А просто формулу и её физический смысл.

А я не понимаю, почему в профильных вузах не преподаются

Потому что времени нет, в смысле часов. Наука идет вперед и с каждым годом знаний становится все больше, чем-то надо жертвовать.

в 90х годах студенту, можно было (условно) 5 лет рассказать про алгоритмы сортировки, поиска пути и прочие перестановки и все это на Си, ну там С++ упомянуть и ООП. В 2025 2026 в те же 5 лет надо уложить все то же самое плюс, по нормальному рассказать про ООП, паттерны проектирования, параллельные вычисления (блокировки, семафоры и пр.), пройтись по нейронкам (сегментация, классификация, генерация и пр.) и еще с десяток новых штук в других предметах. А срок обучения никто не увеличивал =)

P.s. я, кстати, учился 5.5 лет и то в целом чувствовалось что по профилю многое чего не успели дать.

Зато наверное успели психологию, правоведение, экологию и философию.

В мое время, в Краснодарском Зиповском колледже (не вуз конечно) есть история информатики, история физики и история робототехники)))

Угу, и высшая математика (а не математический, функциональный анализ, дифуры, функции комплексных переменных отдельными курсами. И теорию автоматического управления наверное в эту же кучку) Где-то добавят, чего-то зажмут.

Есть и много. Интереснейшее чтиво.

Есть старая книга про историю математики, "Пробуждающаяся наука", там и про клинопись и шумерскую систему счисления, и про древнеегипетский счет, и много чего еще.

У меня лично вообще хоть какое-то понимание матриц (ну вот эти перемножения, повороты и пр.) начало появляться спустя 20 лет после окончания универа

Напишите об это статью, потому что для многих это вообще просто столбики цифр...

Администрация хабра сделала все, чтобы таких статей писалось публиковалось как можно меньше.

Краткое содержание любого диалога на эту тему

— Напишите статью

— А зачем? я потрачу на нее 2-3 месяца, получу (может быть) 20-30 плюсцов. А рядом корпоративный блог с AI-слопом, написанный копирайтером за вечер, получит в два раза больше.

— Ой. вы ничего не понимаете, важны не плюсы, а комменты избранное

— Так за карму лишают возможности писать, дают ППА и пр. как это коррелирует с избранным?

...ясно-понятно, не проканало (С) пойдем кого-ндь другого убеждать...

Хорошо если через семестр. У нас гироскоп на лабах был на первом курсе, а объяснение на вышке на втором. И он мне попался. Формулы предлагалось просто зазубрить, а препод зачем то требовал объяснений. Закончилось тем, что пришел мужик с кафедры и сказал преподу - "давай своих двоечников, нужно стулья таскать". Препод спросил, всем зачет нужен? А раз всем, то вперед, за стульями. Так я и сдал этот несчастный гироскоп

вот так и крутились, чтобы не вылететь из вуза..

Режете по больному, так ещё и поверх свежей раны.

От современного топового вуза кроме доступа в хорошую библиотеку никакой пользы. Большинству преподавателей математики с таким подходом больше подойдёт профессия бухгалтера.

Чувак, которого цитируют, насколько я вижу, американец. Ну вот такие вот тут школьные учебники.

Ну вот заодно и ответ на вопрос "зачем тот универ если все есть в учебниках и интернетах".

Чувак, которого цитируют, насколько я вижу, американец. Ну вот такие вот тут школьные учебники.

”чувак, которого цитируют" - Нобелевский лауреат, а говорил от это про бразильские учебники.

”чувак, которого цитируют" - Нобелевский лауреат,

Ну, во-вторых, лауреаты разные бывают, а, во-первых, учебники, сами говорите...

учебники, сами говорите...

Переведите эту фразу, я слишком туп, чтобы её понять.

лауреаты разные бывают

этот лауреат более, чем хорош.

Переведите эту фразу, я слишком туп, чтобы её понять.

https://habr.com/ru/companies/bothub/articles/983426/comments/#comment_29354946

этот лауреат более, чем хорош.

Вполне возможно — но это не отменяет факта, что сказать «он Нобелевский лауреат» — это в последнее время примерно как сказать «он светловолосый», ибо они разные бывают.

Что должна объяснить эта ссылка?

ибо они разные бывают.

И что? Какие ваши претензии к этому?

Что должна объяснить эта ссылка?

«Имеющий уши — да слышит. Имеющий глаза — да прочитает. Имеющий мозг — да подумает.»

И что? Какие ваши претензии к этому?

К тому, что лауреаты разные бывают? Никаких. Это просто факт объективной реальности, данной нам в ощущениях.

В Вашей картине не определено "обучение" как обсуждаемый предмет в приложении к "учебнику" и не определены объекты и субъекты по отношению к этому самому "обучению", а следовательно и их свойства, но уже поспешно даны оценки методов. Это путь совершения дальнейших когнитивных ошибок и ценность выводов будет велика эмоционально, но низка практически, как и все когнитивно ошибочное.

Попробуйте ребенку (в широком смысле, не вундеркинду, не верифицировать Вашу гипотезу на 1,2...5 знакомых, а фальсифицировать) что то объяснить с позиции - "а я не знаю и никто не знает, разберись ка ты сам и приди к тому что и ты так и не узнаешь " (в чем тогда смысл его, ребенка мучать?). И всё - Вы для него не авторитет, потому что Марья Ивановна точно "знает". Она уверена, она авторитет, надо слушать ее потому что она обладает полезными знаниями, дающими ей уверенность. А Вы для ребенка сомневающийся мутный типчик, не могущий дать никакого гарантированного решения проблемы кроме того, что до общения с Вашим учебником вопрос был один, а после стало уже пять.

Заставить детей читать — не главное. Дети, которые хотят читать, будут читать. Дети, которые хотят научиться читать, будут учиться читать. Гораздо важнее научить детей сомневаться в прочитанном. Детей следует учить сомневаться во всём подряд. Сомневаться во всём, что они прочитали, во всём, что они слышат.

©

А дети которые хотят сомневаться - будут сомневаться, так? ничего не упустил в этой модели?

Да-да, учоные скрывают, не верьте им. Все книги врут. Как оно на самом деле, никто не знает лишь бох.

...но он уже никому ничего не скажет.

Все книги врут.... знает лишь бох

это бох в книге написал?

это бох в книге написал?

Вам устроить рекурсию?

Как оно на самом деле, никто не знает лишь бох.

В первую очередь - в словах родителей

Там про родителей дальше, просто не хочу сильно много цитировать.

так провзаимодействовали атомы». Но это не будет удовлетворительным ответом на вопрос, почему программа падает при нажатии на кнопку или почему из сейфа пропали деньги.

Замечу, что в принципе можно взять и описать, как действительно провзаимодействовали атомы/электроны, ну парой гигабайт текста где то. И по сути это вполне себе будет ответом на вопрос, почему программа падает при нажатии на кнопку: потому что происходит вот это: <тут пара гигабайт текста про то что делали электроны в компьютере>. Другое дело что для нас это будет слишком низкий уровень описания, мы то думаем более высокоуровневыми абстракциями.

В связи с чем возникает вопрос, а возможно ли вообще описывать то как человек мыслит, не высокоуровневым языком которым мы обычно описываем собственные мысли, и не низкоуровневым языком описания нейронов, связей и т.д., а чем то средним, таким чтобы мы действительно понимали что вообще происходит то в нейронной сети. Мне кажется нет оснований говорить что это должно быть обязательно возможно.

С другой стороны, а зачем оно нам, если для того чтобы решать практические вопросы мы любое низкоуровневое описание процесса вполне себе можем проанализировать техническими средствами? То есть я к тому что вместо того чтобы думать о том как понять как мы думаем, надо думать о том как построить AI которая "поймет" как мы думаем. И в этом направлении, направлении анализа нейронной структуры мозга с помощью AI, вроде как уже какие то работы ведутся.

Все наше понимание неточно, потому что есть суть непрекращающиеся процессы ацп-цап. Мерилом точности тут является частота дискретизации, но она никогда не будет абсолютно достаточной. Как и с музыкой, обычным людям хватает мп3,. Но нсть и те, кто постоянно упираются в когнитивный эквивалент гипотезы Сефира-Уордв.

пойду-ка я давить плоскогубцами кусок сахара в темноте)

пойду-ка я давить плоскогубцами кусок сахара в темноте)

А что, в детстве не надавились?

(А то кто Вас знает — сейчас ещё скотч отматывать пойдёте...)

Только сахар-рафинад не берите. Нужен крупный чистый кристалл сахара.

Можно вырастить, это будет ещё один опыт.

науке это неизвестно. В этом как раз корень незнания того, как построить AGI: как только вопрос становится достаточно сложным, человек при ответе зачастую ссылается на интуицию, которая порой подводит его так же, как ИИ подводит его модель.
( вариант, когда человек сначала в уме проговаривает всю цепочку рассуждений, а потом озвучивает ответ, мы рассматривать не будем).
Я думаю, человек при расчётах ещё часто неосознанно проводит дополнительные проверки: "в переносе не может быть больше единицы", "если оба числа чётные, то и сумма должна быть чётной" и тому подобное.

Почему бы не допустить, что все вычисления происходят в облаке, а наше сознание - лишь подключенный к нему неттоп. Собственно, Рулиада Стивена Вольфрама как раз про это =)

Или не все, а лишь часть, и тут важно делать выбор. Вот у тебя есть ответ из облака, а вот - свой, сермяжный ;) что ты выбираешь ?

Ну хорошо, а как это делает человек?

Почитайте эту ветку обсуждения, там есть некоторые подробности, хотя "знатоки" ЯМ заминусовали последний комент из-за чрезмерного усердия) Там же в конце есть ссылка на проф. исследование этой проблемы вычислений в ЯМ.

Это хорошая статья. Ни о чём. Вся её суть в одном предложении "Умение не требует понимания". Простой пример: люди умеют ходить. А много ли людей понимают, как они ходят, что такое ходьба и чем она, на основе этого понимания, отличается от бега, к примеру? Спойлер - не скоростью.

Я сейчас страшную, для кого-то, вещь скажу. В мире миллионы профессионалов выполняют, и хорошо выполняют, свою работу не понимая, почему они делают что-либо так, а не иначе. Какой-нибудь специалист по покраске подберёт краску именно для ваших условий, более того, он и технологию подготовки поверхности подберёт. Но если спросить «почему?», то ответ будет типа «Этот производитель делает эти составы для этих случаев, а этот и это - для этих. Мы пробовали оба, этот хороший, а этот не очень». Делает ли его это ущербным? Нет.

Возвращаясь к математике. Некоторые профессора утверждают, что школьный курс алгебры с тригонометрией могут понять не более 20% школьников. Из этих 20% понять университетский курс могут не более 5%. При этом научится и уметь делать всевозможные преобразования\решать задачи способны практически все. В чём разница? Человек, изучивший курс, может доказать теорему Пифагора. Человек, понявший курс, может доказать теорему Пифагора десятком разных способов. Хотя ладно, десятком может и перебор. Хотя… На сегодняшний день существует более 120 способов её доказательства.

А про отличие ходьбы от бега. Ходьба – серия падений вперёд, прерываемых выставлением опорной ноги. Бег - серия прыжков. Главное отличие – при ходьбе, как минимум, одна нога в любой момент касается земли. При беге есть моменты когда человек летит. Именно за касанием земли смотрят судьи на соревнованиях по спортивной ходьбе.

"Подержите мое пиво!" (с) немного офф-топа от человека, помешанного на кинестетике движений.

Видов ходьбы масса, человек тяготеет к тем из них, которые условно можно назвать "крейсерскими" - максимально энергоэффективными для решения каких то задач перемещения. При этом двигательный бэкграунд человека тоже сильно влияет на его подсознательный выбор стиля.
Из основного что влияет, кроме специфики тела типа разной длины ног, гибкости и т.д.:
Скорость - идете ли вы быстрее чем скорость падения вашего тела вперед с опоры стоящей ноги, равно или медленнее. Как Вы понимаете наиболее эффективно идти со скоростью падения. Но если Вам надо ускориться, то Вы лишаетесь этого механизма и механика движений полностью перестраивается. И тут у Вас есть свобода перестройки механики: или увеличить длину рычагов (ног + таз) тела, которые участвуют в падении или переключиться на ускорение вперед за счет мышечной работы - и там снова свобода выбора - за счет икр, бедер, поворота таза и т.д.
Второе измерение - поверхность, определяет степень ударной нагрузки на скелет и на мозг в итоге. Если ударной нагрузки нет - вы балансируетесь "по пятке" - выстраивая линию баланса от пятки, компенсируя вес поднятой ноги весом наклоненного в другую сторону тела, "по медвежьи". Если ударная нагрузка есть - вы идете босиком по бетону - то вы будете нивелировать это еще на этапе постановки стопы на подушечки пальцев, строить баланс вокруг подушечек же и компенсировать вес поднятой ноги отклонением таза, голова при этом перестанет рыскать, "по тигриному".
Дальше еще различаются способы вращения таза вокруг оси позвоночника, там тоже вариации в зависимости от длины шага и чем эта длина обусловлена - поворотом таза, работой голеностопа или шириной шага.
Архиважно заняты ли руки или нет, мерзнут они в карманах или обеспечивают баланс на узкой тропинке.
Впрочем если по настоящему глубоко сороконожка задумается как же она ходит, то ходить она, скорее всего, не сможет.

Ух ты! Спасибо! Видно специалиста. А я написал и вспомнил. Такой вопрос, а вы слышали про "сапоги-скороходы"? Я не дуркую. Много лет назад, десятков лет назад, я читал в журнале "Наука и Жизнь" серию статей про ходьбу со соединёнными эластичными жгутами ногами, в районе икр. Там приводились результаты экспериментов. И вывод - правильно подобранные жгуты уменьшают потери энергии при ходьбе и увеличивают скорость.

Хотя выглядят при этом...необычно, мягко говоря.

Нет, не читал)
Быстро ходить мне интересно по предмету моего хобби, но из-за прям неудачной серии травм опорно-двигательного (две автоаварии, лыжи, неудачное падение), во многом по причине моей же глупости, когда то на несколько лет был лишен этого удовольствия - не больше 1-2 км в день через сильную боль. Поэтому перестраивал свои двигательные энграммы фактически заново. Там тоже все не просто и не панацея, т.к. изменение энграмм влечет перераспределение нагрузки на другие участки, а это новая травматизация, тендениты и тд., но вот на прошлых выходных 35 км по снежным горам в темпе 5км/ч накрутил. Не без боли, свою цену это имеет, если что, т.к. будет меняться по цепочке нагрузка на весь скелет и мышечный корсет - все поедет на перестройку и не все без последствий.

Тут еще такой вопрос - в наш то век гиподинамии когда мы в большой части сидим на разного рода диетах что бы не толстеть и собственно нагрузки это способ компенсации всяких вкусностей так ли есть необходимость в уменьшении потери энергии?

По скорости опять же у меня основной ограничитель сердце. Т.е. выдать в длительном моменте я могу по пересеченке и 8км/ч до пульса 140, но если такое удержу на час и более, то скорее всего не засну уже. Пульс обусловлен собственно самой работой и задачами вывода что ли продуктов распада, т.е. если я использую палочки на подъем, то пульс ниже, хотя выдаваемая мощность выше, чем если иду просто на ногах - скорость подъема существенно увеличивается, а отдышка уменьшается. Вряд ли я на баланс трачу столько энергии, здесь у меня пока только гипотезы. При ходьбе вниз ограничитель колени и усталость/внимание. На горизонтали сердце + теплоотвод в жару.

Чиста по термеху у вас появляются еще два кривошипно-шатунных механизма, которые частично работают на инерции двух предыдущих. Т.е часть той рекции опоры, которая амортизируется в суставах ног, превращается в полезную работу рук.

Просто гипотеза, термех я изучал 30 лет назад ;)

всё правильно, есть 2 функции, 1 просто выполняет, 2 копает вглубь: вопрос "Почему так?" - это вторая крайность, баланс где-то по середине, и не функция параноик, и не совсем просто выполнить наверно

а кстати, то что вы затронули, это еще и как цепочки можно рассматривать, если мы начнём делать многопоток, даже если там красивая структура, нам же нужен pipe, получается, игрок не задумывается или карта гпу, какие гигабайты воксели прошли стадии, он просто видит "О а вот и чанк", тоесть, это же видно, когда мы кидаем на выполнение, мы говорим просто сделай, когда функция с уточнениями она уже абстрактная, потомучто она делает асбтрактную работу, её как-то категоризировали типо

Они не рассуждают так, как это делает человек. Они лишь предсказывают следующий токен.

обожаю лица людей, когда говоришь им в ответ на подобное -- так а мы, походу, тоже "предсказываем следующий токен". других как бы и вариантов нет почему ллм работают так, как они работают).. ну, конечно, у нас токены другие и прочие отличия наверняка. но принцип -- очевидно, тот же.

А в принципе так оно и есть, просто у нас предсказалка сильно мощнее, да и токены разные могут быть — например, не только символьные, но и

образно-визуальные

Не факт что сильно мощнее. За секуду сигнал проходит через 100 нейронов. Если сравнивать с количеством слоев то во время диалога(в т.ч. внутреннего) получаем одинаковые порядки.

Вот только нейронов этих 15 миллиардов, и они аналоговые.

Изначально человек был обучен счёту пальцев и палочек. Запоминание числа - это операция загибания пальцев, равно как и сложение. Это и есть простейшая токенизация на (0,1), этакая машина Тьюринга. Далее уже следует абстракция, за выход после 10, когда пальцы уже разгибаются согласно переноса единицы, в этом случае можно поднять у ноги. После исчерпания переноса на ногах уже включается дополнительная мозговая память, имитирующая палечно-физическую (вот этот момент надо прочувствовать), это и есть трансформер.

разбиваем это на аналоги "токенов" ещё на уровне сетчатки глаза.

это-то тут при чём вообще — это визуальный парсинг, а не использование тех же «токенов» в дальнейших расчётах, и то, что они никак не связаны доказывается хотя бы тем, что человеку можно это выражение продиктовать, а не показать, так при чём тут сетчатка-то вообще, алло \@

У сына (3 класс) предстояла контрольная по математике. Учитель в чат написала список тем, которые надо повторить. Там было, в том числе, сложение и вычитание столбиком.

Я спросил сына, умеет ли он эти операции. Он сказал что умеет. Я задал ему пример. Сложить 2 трёхзначных числа столбиком. Он говорит а чё так сложно то. А они ещё с двузначными работают в школе. Я говорю, ну если ты умеешь складывать столбиком, ты с этим справишься.

И он справился. Я получил корректную запись столбиком и корректный ответ. Но что то меня насторожило. Я дал ещё один пример и сказал решить при мне. И тут вскрылся очень интересный факт.

Сын почти сразу записал верный ответ. А потом уже дописал нужные циферки для переноса в следующий разряд.

В процессе моего с ним дальнейшего общения я понял, что он отлично складывает большие числа в уме, в ещё что он понимает, чего от него ждут в записи столбиком. То есть ответ он посчитал по какому то своему внутреннему алгоритму, а запись столбиком со всеми переносами по другому и как эти алгоритмы между собой связаны, он не понимал. Пришлось объяснять. )))

А не LLM ли мой сын? )))

мы разбиваем это на аналоги "токенов" ещё на уровне сетчатки глаза

Нет.

Есть 3 момента, для понимания "как оно устроено"

Мозг это типичная биологическая машина условно разделённая на две части - кора, внутрянка.
Кора это и есть анализатор информации, так как backprop в рамках целой сети не возможен, то приходится делать маленькие локальные группы нейронов основная задача которых "что-то вычленять из данных". Их архитектура это глубокие споры, но основа - изучение статистики во времени, и вероятно предсказание следующих состояний. Для предсказаний кора крайне эффективно работает, в плане архитектуры, так как основная задача нейрона это искать коррелированные сигналы, немного магии и мы можем превратить это в простой предсказатель.

Помимо коры есть странные структуры намешанные сложным образом из разных типов нейронов, которые выполняют те или иные семантические функции. Та же ориентация в пространстве работает за счёт определения позиций головы, тела, пространства и объектов в них, и для последних даже нашли конкретное место в голове где по сути есть некоторая "N-мерная" сетка нейронов каждый из которых включается при налиичии чего-то конкретного, определяемым контекстом.

Но самая суть основных структур мозга - по сути представлять нейрональные механизмы классической математики. Если анализировать весь первичный путь обработки звука то мы там обнаружим и различный спектральный анализ, и специфическую обработку частот (для высоких и низких разные пути) и составление 3D ориентированных векторов в пространстве для этих частот, а где-то там уже начинается чистый ИИ замес с маскировкой ненужных частот и последующей обработкой в коре.

###

Тоесть внутри всё так намешанно и запутано, что просто сказать - "давайте сделаем символьную систему, или может возьмём LLM и научим его всему возможному что есть в этом мире!" - бесмысслено
На более высших уровнях есть ещё мноооого всего, что невозможно просто так симулировать не испарив пару озёр. Сейчас основная задача исследователей это найти связку когнитивных функций которые бы минимально описывало восприятие, которые было бы самодостаточным и могло выполнять полезные функции. Подвижки в отдельных компаниях есть, но пока это выглядит как "случайный поиск".

обучается на большом обеме информации

в том числе на рассуждениях по решению задач

попросту говоря когда есть два числа и слово слоить то это означет именно слоъить то есть операция +

Если бы в выборку не попаи примеры рещения задач он бы ничего не смог решать

и слово слоить

Тут не то что LLM — даже я не знаю, как можно слоить числа! Никогда их не слоил.

В определённом возрасте такие ошибки при наборе текста начинаешь совершать всё чаще, и всё реже замечать.
Если не перечитывать текст перед отправкой (лень, излишняя самоуверенность, спешка и т.п.) - результат на экране.
В этом тексте я сделал 6 опечаток, которые исправил при проверке.
5 лет назад была бы одна.
Иногда перепроверка не помогает.
Иногда это не связано с возрастом.
(ключевые слова - дисграфия, дислексия, легастения)
Мальчик Витя, 61 годик.

Я четко путаю буквы местами в словах, часть слов я знаю, иногда даже правлю если вспонимаю.

Сначала думал проблема в печати на клавиатуре, что просто пальцы не синхронизирую правильно, но увы ручкой пишу так же )

Так было не всегда, но пришло внезапно лет 15 назад, оп и уже косяк, где то в нейросети появился дефект...

Спаисбо за внимание )

У меня тоже бывает — но я перечитываю два раза: до отправки, и после отправки. И правлю ошибки, да. А так, как у Вас — это всё-таки, простите, неуважение к читателям.

И да, я похороны дорогого Леонида Ильича помню.

Но если Вы совершили ошибку не случайно, а в силу каких то причин, то и перепроверка Вашими же силами ее не обнаружит?

Но если Вы совершили ошибку не случайно, а в силу каких то причин, то

...когда я перечитываю, этих причин больше нет (жена отошла, кошки заткнулись).

Структурных причин. Видите, Вы и сейчас в посту не допустили, что сам Ваш подход может быть ошибочным, а он может. И ошибка не следствие отвлечения, а следствие именно используемого подхода. Поэтому в бухучете вторую проверку обязательно делает другой оператор, отличный от первого. Физически другой. С другим представлением о прекрасности мира. Для того же по сути и введен институт рецензирования и оппонирования.
Я, к примеру, могу использовать какие то специфические диалектические обороты, вот представители тюркских народов ставят глагол сзади, они воспринимают смыслы исходя из построения речи на их родном языке, но это может искажать нюансы смыслов. Рецензент поправит. То же с запятыми и пр.
Попросите носителя южных диалектов штатов сказать что то более внятно, чем обычно и Вы вероятно получите два вида звуковой каши, которая, тем не менее, будет абсолютно понятна для самого носителя и с первого раза. Сам носитель себя не поправит, он не понимает сути возникающей проблемы.

«Физически других» тут полным‑полно — это все те, кто эти комментарии читают. Я про то, что я в 99% случаев свои комментарии перечитываю и ошибки в них нахожу и исправляю, но в 1% случаев жизнь вносит свои коррективы.

Никогда их не слоил.

"Напьёшься - будешь!"

Опечаток так много, что похоже на ввод нестандартным методом.

Почему нестандартным? Смартфон при использовании экранной клавиатуры в транспорте уже при минимальных проблемах со зрением сильно осложняет правильный ввод и коррекцию опечаток (по себе знаю).

Поэтому человек даже при пропущенном "ж" понимает, что "слоить" это "сложить" )

Вы совершенно правы! /s

Пора объединить математическую программу типа Математика или Maple с LLM, тогда может быть вопросов как складывают числа будет меньше.

Обычно вместо расчётов прошу LLM ассистента написать программу на python, которая сделает нужные вычисления и покажет результат. Но язык в общем-то не важен.

Уже давным давно запихнули Вольфрам Альфа, ещё во времена третьего ГПТ.

WA в отличие от питона, выполняется в облаке, поэтому это не наш путь настоящего ученого. В локальной питонической программе еще подправить все можно, ну и обвешать дебагами.

Уже агенты используют MCP или короткие программки на питоне, чтобы надежно считать.

Я думаю что-то типа такого уже и так используется в современных ассистентах.

Думаете, тут Maple поможет?

Хехе :)

напиши предложене о животных с числом, равным количеству слов в предложении

Copilot said:

Вот подходящее предложение:

«Четыре лисы гуляют вместе.»

В нём 4 слова, и число четыре им соответствует. Хотите ещё варианты?

Отвечаю "да" и в ответ

Скрытый текст

Конечно! Вот несколько новых предложений, в каждом из которых число совпадает с количеством слов:

  1. «Три совы тихо наблюдают.» — 3 слова

  2. «Пять волков воют при луне.» — 5 слов

  3. «Семь муравьёв находят новую тропу.» — 7 слов

  4. «Девять журавлей кружатся высоко над озером.» — 9 слов

Хочешь больше? Могу делать любые — короткие, длинные или тематические!

😆

Через UI более-менее справляются модельки, в режиме "глубокое раздумье".

ChatGPT 5.2 thinking:

  • У окна цветёт 10 фиалок, и листья блестят от росы

  • В букете стоит 11 веточек лаванды, и аромат успокаивает мысли вечером

  • На грядке выросли 12 кустов салата, и мы собрали их без спешки

  • В парке распустились 13 тюльпанов на клумбе, и прохожие улыбаются каждому яркому цветку

...

  • В нашем саду растут 23 растения: розы, лаванда, мята и базилик, и каждое утро я поливаю их тёплой водой, слушая птиц в тишине

Привет, напиши предложение о животных с числом, равным количеству слов в предложении.

«Три диких зверя гонялись за хитрой лисой».

В этом предложении 7 слов, и число «три» стоит на первом месте, задавая условие.

Неправильно, надо чтобы число, которое встречается в предложении было равно количеству слов в предложении

Понял, исправляю. Нужно, чтобы само число, указанное в предложении, было равно общему количеству слов в этом предложении.

Вот подходящие примеры:

  1. «Пять слонов купались в реке».
    Число: Пять (5).
    Слова: «Пять», «слонов», «купались», «в», «реке» = 5 слов.

  2. «Четыре быстрых лисы убегают».
    Число: Четыре (4).
    Слова: «Четыре», «быстрых», «лисы», «убегают» = 4 слова.

  3. «Три кота спят».
    Число: Три (3).
    Слова: «Три», «кота», «спят» = 3 слова.

Могу делать любые — короткие, длинные или тематические!

«...а вот фактологически правильные — тут уж как повезёт!»

Gemini 3 Pro Preview отвечает на всё верно:

Скрытый текст

Напиши предложение о животных с числом, равным количеству слов в предложении.

Вот предложение, состоящее из пяти слов:

Мы видим пять белых медведей.

(Слова: 1. Мы, 2. видим, 3. пять, 4. белых, 5. медведей).

Напиши ещё с десяток подобных, с разными числами.

Конечно. Вот подборка предложений от 3 до 12 слов. В каждом предложении число обозначает количество слов в нём (включая предлоги и союзы).

3 слова:
Тут три кота.

4 слова:
Четыре птицы поют громко.

5 слов:
В лесу гуляют пять волков.

6 слов:
Шесть коров жуют траву на лугу.

7 слов:
В небе летят семь больших серых гусей.

8 слов:
Восемь дельфинов весело прыгают в очень синем море.

9 слов:
У моей соседки живут девять очень милых пушистых кошек.

10 слов:
Десять обезьян прыгают по высоким деревьям и едят сладкие бананы.

11 слов:
Одиннадцать пингвинов стоят на белой льдине и смотрят в холодную воду.

12 слов:
Двенадцать белок быстро собирают орехи, чтобы запасти много еды на эту зиму.

Напиши несколько предложений с числом слов от 15 до 30, в каждом из которых будет упоминаться число, равное количеству слов в итоговом предложении.

Вот несколько предложений, соответствующих вашему условию:

17 слов:
В этом конкретном предложении, которое я сейчас пишу, содержится ровно семнадцать слов, если посчитать их очень внимательно.

23 слова:
Чтобы выполнить это довольно необычное и интересное задание, мне пришлось быстро составить эту длинную фразу, в составе которой находится ровно двадцать три слова.

26 слов:
Если вы сейчас не поленитесь и аккуратно пересчитаете каждое слово в этой длинной строке, то итоговым результатом вашей математической проверки обязательно станет точное число двадцать шесть.

Изначально случайно запускал на Gemini 3 Pro Image Preview, там всё верно, кроме 11, 12 и 18 — предположительно, из-за того, что это условно "сложные" числительные.

Дополнено: gpt-oss-120b на числах 17, 20, 24 и 15 ответил верно. Gemini 2.0 Flash — 1/5, 2.5 Flash — 0/5, Opus 4.5 ни одно правильно не написал, но во всех случаях ошибка на ± одно слово. В конце он написал "Исправляю последнее" и написал новое предложение с ошибкой в три слова.

Модель лжет о том, как получила ответ

В точности как и люди. Рамануджан, кажется, тоже в качестве пути получения своих дробей странное говорил.

Как раз на днях фильм пересматривал. Он там поначалу доказать никак не мог то, что интуитивно выводил.

Подскажите название фильма?

Человек, который познал бесконечность

Он говорил, что ему во сне подсказывала готовые ответы индийская богиня. Без промежуточных выкладок и доказательств. Ничего странного в этом нет. 🙂

Эта фраза важна, потому что она приземляет дискуссию.

только проблема в том, что фактология в этой фразе не верна

чтоб в этом убедиться попробуйте попросить у бота решить сложное уравнение: с логарифмами или интегралами например

что интересно, бот в некоторых случаях может допускать вполне человеческие ошибки, вроде «забыл учесть что знаменатель не может быть нулём»

но если ему на них указывать, следующие уравнения вполне хорошо решать будет

Проблема в том, что в процессе уточнения задания выясняется, что для того, чтобы LLM решила уравнение правильно, нужно знать, как решать такое уравнение - то есть, быть способным распознать ошибку в решении, знать, из-за чего произошла ошибка, сформулировать исправляющий запрос таким образом, чтобы ошибки не было...

А проблема ли это? Весь ваш аргумент сводится к:

Чтобы делать X, надо уметь делать X.

LLM просто ускоряют этот процесс, являясь инструментом для профессионалов. И да, с этим инструментом надо уметь правильно работать.

Мы проходим этап Гугла, когда люди гуглят симптомы и спорят со врачами. Пройдет, когда мир адаптируется.

А людей пустят на батарейки... :)

Но есть нюанс...

МОРФЕУС: Долгое время я не мог в это поверить. Но я видел эти поля своими глазами. Видел, как они перерабатывают мёртвые тела, чтобы внутривенно кормить живых…

НЕО (вежливо): Простите, пожалуйста.

МОРФЕУС: Да, Нео?

НЕО: Я долго пытался сдерживаться, но по этому поводу считаю необходимым высказаться. Человеческое тело наиболее неэффективный источник энергии, какой только можно придумать. Эффективность тепловой электростанции уменьшается при работе турбин на низких температурах. Любую еду, пригодную для людей, гораздо эффективнее сжечь в топке. А теперь вы говорите, что для кормления живых используются тела мёртвых. Вы когда-нибудь слышали о законах термодинамики?

МОРФЕУС: А сам ты где слышал о законах термодинамики, Нео?

НЕО: Любой, кто изучал физику в школе, знает о законах термодинамики!

МОРФЕУС: А где ты ходил в школу, Нео?

(Пауза)

НЕО: …В Матрице.

МОРФЕУС: Машины придумали изящную ложь.

(Пауза)

НЕО (робко): А могу я где-нибудь взять учебник по настоящей физике?

МОРФЕУС: Такой вещи не существует, Нео. Вселенная не подчиняется математическим законам.

Гарри Поттер и методы рационального мышления

Какие проблемы? Проблемы в том, что сейчас ИИ пока ещё воспринимается именно как "инструмент непрофессионала" - общественное сознание формируется в представлении "можно спорить с врачом на основании ИИ-консультаций", "а вот мы сейчас крутой продукт напишем в no-code", "да вы просто запросы писать не умеете" ну и так далее... То что вы написали "инструмент для профессионалов" - это пока, скорее, исключение...

Пройдет, когда мир адаптируется.

Фактор времени, на самом деле, имеет очень серьёзное значение. Если вы прекращаете заниматься каким-то видом деятельности, в надежде быстро восстановить его в случае необходимости (изменения парадигмы, осознания допущенных ошибок, экономического положения), то это не сработает - процесс восстановления может оказаться не просто долгим и мучительным, но невозможным...

Модель лжет о том, как получила ответ

Она не может не лгать, у модели нет памяти, она каждый раз собственные ответы видит первый раз в жизни - угадывает и рационализирует.

Кстати, как и человек. Знаменитый опыт с гипнозом и зонтом тому свидетель...

Думаю тут мысль в том контексте, что и человек не может рассказать, какие процессы в мозге на уровне нейронов происходили, когда он делал сложение.

Ну если он в столбик решал, то вполне может рассказать, то делал именно так

Я про "физический уровень". Не скажет человек, какие области мозга и как работали в конкретный момент времени. Вот и для ЛЛМ это всё "физический уровень".

Ну если он в столбик решал, то вполне может рассказать, то делал именно так

И даже тут возможен вариант объяснения "так принято", "так правильно", "все так делают", "это стандартный способ". Умение не требует понимания.

Кстати, если в ответ достаточно большой LLMки вставить случайное предложение (даже если на ту же тему и хорошо скрываясь), например чуть лучше раскрыть топик, она хорошо находит вставку, если спросить есть ли что-то подозрительное в ее прошлом ответе.

А если не спрашивать - не найдет (потому что не просили), но может довольно быстро слететь с катушек и начать бредогенерацию.

Откуда модель знает, как она решала задачу в предыдущем вопросе? Ниоткуда. Придумала. Сгенерировала вероятностные токены на промпт. Жду не дождусь, когда ии научат отвечать "я не знаю".

Тогда сразу будет разоблачение фокуса. Кто же за такое заплатит?!

Так уже научили, была статья на эту тему на Хабре. В промпте надо просить: отвечай "не знаю" если уверенность в правильности ответа меньше 80%

https://habr.com/ru/articles/945450/

Я всё ещё жду, когда прикрутят параметр "вероятность галлюцинации" в ответе. Уже были исследования, которые позволяли определелить ответ был сгенерирован из известных "токенов" или просто выдуман без опору на "факты".

Разве это не глобальный параметр "температура" который есть у всех нейронок? Указывает на степень недетерминированности ответа.

ИИ пофиг, что ты там в промпте пишешь. У меня в правилах курсора указан пример, как писать ресурсы к моделям. И модель соннет 4.5 или грок код пишет по своему (каким-то индуссовским синтаксисом). Я пишу - нет, правильно писать в Ларавел "так" и опять пишу конкретный пример в надежде обучить хотябы чат, чтобы не говнокодила. И модель снова пишет по своему. Я пишу в каждом ответе - не запускай дев режим, все равно запускает. Пишу не загружай отношения в модель если сохраняешь в переменные, 10 раз напишу, все равно делает.. добиться того, чтобы в разработке модель писала Я не знаю просто нереально. Она всегда знает, что нужно блин сбросить кеш или данные не передаются или солнце зашло за луну или нужно запустить этот дев режим, который я запретил запускать или нужно просто замаскировать проблему фоллбэком..

Я проверял на выдуманном названии книги, просил пересказать сюжет - ИИ выдумывал сюжет, а когда добавлял в промпт ту фразу - ИИ писал "не знаю"

Тут она тебе просто подиграла на маленьком контексте. Твоя просьба стала существенной частью контекста. А на большом контексте с кучей правил, файлов, mcp все твои просьбы размываются в общий шум. Ну я привел примеры - 10 раз подряд прошу и не делает. Или один раз сделает правильно, а на следующей итерации опять говнокодит. Я вначале раздражался тк относился, как к интеллекту, а сейчас отношусь правильно - как к генератору. И молча исправляю косяки. Все равно ускоряет работу минимум раза в 3.

Про разное говорите. Модель надрессировали просто говорить «Не знаю» и останавливать генерацию. Но не дрессировали во время обучения не отключать деврежим, соблюдать определенный синтаксис и т. д.

а сейчас отношусь правильно - как к генератору.

Почему же тогда к людям вы относитесь как к "интеллекту"? Люди часто совершают такие же ошибки, а бывает и хуже. Мозг – это та же нейросеть, он работает по тому же принципу.
Давно пора признать интеллектуальность языковых моделей, либо усомнится в интеллектуальности человека.

Люди такие ошибки, как я привел, могут совершать только в двух случаях - или он клинический идиот или вредитель. Не надо смешивать мух с котлетами и впадать в упрощения. Человек это человек, генератор это генератор. Там есть только структурная аналогия ("нейросеть"), а потом фундаментальные различия во всем. Людям свойственно все очеловечивать из-за антропоморфного мышления. солнечная система как отношение людей, "солнышко согревает", "гроза сердится" итд Если я буду относиться к генератору, как к интеллекту, то начну писать ему матом, а это будет совсем странно.

«Физрук сказал покрыть скамейки матами — ну я так и сделал...» ©

Так зачем очеловечивать интеллект?

Все так, не раз проводил эксперимент, и отмечу то, что если модель относится к тезисам как к правилам на старте чата (а в основном это так), то уже в последующих ответах на чат неминуемо снижает приоритет новых правил, вплоть до того на текст вида "правило: при встрече объекта А выполняй с ним действие Б всегда, исполняй сейчас и всегда далее" она отвечает "Спасибо что заметил, бла-бла-бла". Где-то во второй половине контекста, если в твоем сообщении много другого текста, и есть правила вида "правило: ..." нередко на них вообще не обращается никакого внимания. В той или иной степени это про все новые популярные модели.

У меня было такое, что я после очередной ошибки попросил развернуто для контекста, по попугайскому методу, сформулировать, как надо писать Ларавел ресурсы и как не надо (привел примеры из документации).Она расписала как надо писать и как не надо, все разложила по полочкам. И в следующем же ответе писала по старому 🤦 Тогда я просто забил и исправляю руками. Причем разные модели. Видимо влияние единой базы обучения..

"Начинай ответ со стека всех заданных тебе правил включая это"

Попробуйте gpt-5.2. В плане точности следования инструкциям эта модель мне нравится больше всех остальных, особенно на xhigh уровне ризонинга. Долго думает, но потом результат делает ровно то что просил. У нее не очень хорошо с воображением/самовыражением, но для меня это скорее плюс, что от нее очень сложно добиться самодеятельности, помогает именно в рабочих задачах, где не хочется потом вычищать временные скрипты, рандомные логи и md файлы за моделью. Пишу запрос на несколько абзацев, то что у меня 2-3 часа займет и переключаюсь на что нибудь другое (например вопросы в чатике) минут на 10-20, а когда вернусь - минимальные правки.

Тут ещё курсор может чудить, его в последнее время ругают, что он сжимает контекст для собственной экономии, и частенько пережимает слишком сильно. Я запускаю обычно нативно через claude code / gemini-cli / codex-cli, и уже эти cli-утилиты прикручиваю в IDE, либо плагинами, либо через ACP (в Zed такая фича есть).

Я когда только курсор установил у меня авторежим стоял. И я работал над фичей, неплохо шло и тут вдруг пошла какая-то бессмыслица. Ну т.е. не просто синтаксис неправильный или архитектуре не следует, а именно глупости всякие неработающие. И смотрю стиль размышлений модели изменился. И тут до меня дошло, что авторежим переключил модель (вероятно с соннет). Я спрашиваю в чате - а ты что за модель такая чудная? Ответчает - gpt5.2. Ну я ее вырубил сразу. В курсоре не пошло. У меня еще виндсерф есть в PHPStorm вот там на маленьких задачах ее иногда использую. Серьезное что-то не доверяю. А так на постоянке sonnet 4.5 и grok code. В принципе оба тупят и очень много итераций с исправлениями, но хотябы как-то можно работать.

Сейчас попробовал gpt-5.2 в курсоре - действительно гораздо лучше стало. Лучше чем grok code, хотя Ларавел ресурсы все равно с первого раза не пишет правильно, но при последующих комментах исправляется и не нужно 10 раз тыкать носом.

Нужно ковырять системную роль, так как в начале запрос ии пропускает через правила прописанные в роли.

Во многих MCP можно править их и добавлять новые роли, так что посмотри в эту сторону.

Ну и попробовать другие модели ии заточенные на локальный кодинг:
DeepSeek Coder V2 Lite 16B Instruct (GGUF) Q4_K_M (или Q4_K_S / IQ4_XS)
Qwen 2.5 Coder 14B Instruct (GGUF) Q4_K_M
Qwen 3 если больше 12гб VRAM

И другие чуть по хуже:
CodeLlama 13B
StarCoder2
Codestral
Devastral

научат отвечать "я не знаю

У меня есть пробелы и белые пятна в образовании (много) и я могу говорить "не знаю".

У LLM цепочка ближайших токенов всегда есть?

ЛЛМ - это интерполяция. Вот дали нейронке кучу точек, она по ним построила функцию, допустим полином 100500 степени (это все сохранено в параметрах). Потом вы ее спрашиваете значение функции в какой-то точке, она считает свой "полином" и выдает вам. Вот так выбирается следующий токен. Он есть всегда.

У нее нет варианта выдать что-то кроме значения функции. Там нет никакого мышления, понятия знаю-не-знаю, логики. Тупо берем входные данные, запихиваем в сложную функцию, получаем следующий токен.

Поэтому единственный способ ей ответить "не знаю", это когда в обучающей выборке в похожих случаях следующие слова "не знаю" и есть. Такого в обучающей выборке, конечно, нет.

Пытаются сделать какие-то штуки, вроде посмотреть, вдруг в окрестности спрошенной точки ничего рядом в обучающей выборке нет - тогда не генерировать токены, а сказать "я не знаю". Но это хреново работает. И даже если бы это теоретически работало, это хрен настроишь - ведь вся польза в сетке именно в том, что она интерполирует на те точки, которых в обучающей выборке нет (и нет ничего слишком рядом). И когда вот в этой области пространства идеальная функция "истины" ведет себя достаточно хорошо и сеточный "полином" выдает правильное значение - это называют выдающимися аналитическими умениями ЛЛМки. Но когда не совпадает - это называют галлюцинациями (по маркетинговым причинам. Типа это не закономерный результат интерполяции, а какой-то особый сбой в работе нейронки)

Наконец то есть с кем поговорить об этом)
Вот вопрос - кто-нибудь изучал это самое поле ответов от заданных параметров на предмет оно вообще нейронкой или какой либо интерполяцией закроется? Может там функция острых локальных максимумов: не знаю, не знаю, не знаю, ЗНАЮ, не знаю, не знаю, не знаю, ЗНАЮ и т.д.
Опять же, насколько я могу судить, поле допустимых ответов зависит от требуемого уровня "точности", немного похоже на фокусировку луча линзой. Для общего ответа достаточно среднего по больнице ответа, но для точного функция становится непредсказуемой для интерполяции. И надо как то определять грань "точности" когда переходить от общего ответа на основе пространственных рассуждений к "не знаю"

Изучали на практике. Математическую модель этой поверхности построить, естественно не могут. Запилили нейронку и ужаснулись, как умно она отвечает. Значит довольно часто это "поле ответов" достаточно гладкое. Но, судя по наличию галлюцинаций - не всегда.

Запилили нейронку и ужаснулись, как умно она отвечает.

Причём меня удивляет: а чего они ожидали, если те версии, которые отвечали глупо — отправляли в помойку? Это называется «естественный отбор». Если «выживали» только те модели, которые гнали правдоподобную пургу — то в итоге они будут гнать очень правдоподобную пургу (до такой степени, что нужен специалист, чтобы понять, что это пурга).

А что будет, если мы искусственно сгенерируем ей триллионы примеров арифметики с большими размерностями чисел. Обяжет ли это модель сформировать решательный аппарат, не зависящий от размерностей?

А это хороший вопрос. Вполне возможно, что нейросеть найдет глобальный оптимум, создав внутри себя модель стандартной математики.

Начать с таблицы Брадиса.

тут нужен другой путь - правильная аксиоматика и токенизация действий, выражаемых алгоритмом. Алгоритм - это очень плохо формализуемая сущность. Для описания состояния нужен нейрон с памятью, вполне возможно стековой или ассоциативной. Обучение сетей вида Хоупфилда задачка ещё та, особенно если там непрерывный нейрон а тем более обратные связи высших порядков. Это не исследованная область но к которой уже протаптывается некий путь, так как это позволяет существенно улучшить анализ алгоритмических связей, по существу в нейросети уже будет встроен универсальный численно-символический сольвер всего что только можно

Переобучение будет, модель не сможет нормально текст обычный писать(

Модель не должна пытаться заниматься арифметикой. Модель должна распознавать арифметику и вызывать внешний инструмент, который и произведет все необходимые арифметические действия.

Школьник не должен учиться складывать столбиком. Школьник должен понимать, что надо достать калькулятор из рюкзака. Где истина - непонятно :)

Вопрос эффективности. И у школьника, и у модели. Если требуемая задача: 7*6 - то лезть за калькулятором или вызывать внешний инструмент займет больше ресурсов, чем вспомнить из предобученного - 42.

А если в ходе решения задачи надо 1340*9,81 - тогда в уме или про предобученному конечно, можно попытаться, но эффективнее будет дернуть внешний вычислитель.

Вопрос в цели. Школьнику вдалбливаются принципы арифметики, LLM же изначально инструмент и должна всегда вызывать внешние инструменты для факт-чекинга. Будет неловко если 7*6 случайно окажется 48 потому что токены "42" и "48" где то близко стояли в пространстве решений и так решил великий рандом.

Школьник при этом всю свою жизнь помнит как числа складываются, а LLM после пре-трейнинга проходит всякие циклы подстройки и очистки (безопасность, чтоб ее), после которых, как уже доказали ранее, она тупеет. Часть вычислительной мощности отводится на классификатор безопасности ответа, часть на стилистику (смайлики, markdown итд), и нет гарантии что нужный именно вам навык сохранится после всех доп обработок

Если пример простой, то лезть за этим инструментом может оказаться дольше и дороже, чем выдать предобученное значение. Собственно как и у человека (зачем лезть в калькулятор если нужно сложить 3 + 4?)

LLM нельзя сравнивать с человеком

https://habr.com/ru/companies/bothub/articles/983426/#comment_29352708

Также чуть выше я уже писал коммент по поводу отсутствия гарантий получения предобученных ответов.

https://habr.com/ru/companies/bothub/articles/983426/#comment_29355188

В 999 случаях из 1000 LLM ответит правильно для достаточно простых задач, но в 1 оставшемся случае компания, предоставившая некачественное решение, потеряет деньги.

..и при этом нет никаких внешних признаков, по которым можно было бы этот 1 отличить от остальных 999. Для этого профессионал нужен, который с первого взгляда на результат скажет, что это оно. Я, вот, например, могу сказать, когда кот код — оно, вот тут коллега‑дизайнер говорит то же самое про презентации. В том‑то карагандец и заключается, что чтобы отличить годный ответ от овна, нужен профессионал — а их‑то как раз и пытаются «заменить на ИИ».

И при этом вы тоже в 999 случаях из 1000 правильно скажете "оно", но на тысячный - ошибетесь.

Тоже мне проблема — нанимаем двух профессионалов!

Это нужно для понимая текста, например, чтобы понять фразу "это также верно как и дважды два пять". Люди используют арифметику и числа не точно для точного счета.

У вас какая-то развлекуха заставлять llm то складывать числа, то в шахматы играть?

Вообще говоря решение любой математической задачи - по сути - решение некоего Диофантового уравнения, в том числе, в символическом виде. Важен размер контекстного окна которое включает набор правил (аксиом, теорем) и их применимость. Решение в замкнутом виде - оптимизация алгоритма вычислений до неких атомарных действий, включая операции с формальными бесконечностями, пределами и последовательностями. Иногда не вполне очевидно, что синус необходимо посчитать, хотя быстрее будет найти решение конечными разностями второго порядка, число "пи" это тоже алгоритм. В конечном итоге всё сведётся к аксиомам Пеано и отображению на ряд натуральных чисел, например, формально положив дифференцирование и интегрирование по Лапласу как p и 1/p и присвоив этому некие ID, которые токенизируются в соответствующие значения.

Хе-хе, народ осторожно промолчал, читая Ваш коммент.

Читается очень внушительно, но общий смысл в моё окно контекста не вмещается 😁

Утверждение неверно, потому что диофантовы уравнения описывают только целочисленные структуры, тогда как большая часть математики работает с вещественными, комплексными, функциональными, топологическими и категориальными объектами, не сводимыми к ℤ. Сведение теории к аксиомам Пеано не даёт универсального алгоритма решения, поскольку существуют истинные, но недоказуемые в этой системе утверждения. Решение в замкнутом виде не является оптимизацией вычислений и не связано напрямую с вычислительной сложностью. Число π не является алгоритмом, существуют лишь алгоритмы его приближения. Дифференцирование и интегрирование являются операторами, а не числами, и их отождествление с p и 1/p допустимо только в узком операционном контексте, но не в общем виде. Наконец, токенизация или присвоение идентификаторов символам не сохраняет математическую семантику и не превращает теорию в арифметику натуральных чисел

Речь идёт о том, что Диофантово уравнение (там довольно интересная 10я проблема Гильберта) - это ядро систем символьных вычислений, которые работают с числами на уровне a,b,c с заданными атрибутами (вещественное, комплексное итд), равно как факторизация и нахождение простых сомножителей. Аксиомы Пеано по крайней мере захардкоживаются как tuple с которыми можно потом как-то оперировать упрощая нечто методом случайного брожения. Решение в замкнутом виде подразумевает информационный минимум для представления того или иного действия. То есть развернуть чтоj =(-1)^{2^{-1}} и далее по "стеку математических вызовов" а-ля функция Бесселя. Операционное исчисление конечно содержит ограничения, которые также легко представить в виде аксиом. Равно как аналитический сигнал по "времени" от -\infty...+\infty а по Лапласу от 0. Да и знак "-" необходимо везде заменять на 0-x, равенство "=" заменять на "-" вроде a=b+c на b+c-a=0 или просто b+c-a. Токенизация помимо символической ещё и семантическая вроде отождествления действий с идентификаторами. По сути тот самый собственный ассемблер Д. Кнута.

А почему, собственно, у модели нет этого алгоритма? Казалось бы, в обучающих данных он должен был проскакивать. И если уж модель может сформулировать промпт на картинку и скормить его другой модели для рисования – то почему модель не может сделать промпт "выполни этот алгоритм с этими данными"?

Непонятно, имеете ли вы ввиду что-то другое, потому, что модели определенно умеют считать с помощью тулов, выполняя вызов к песочнице, возвращающей расчеты.

Многие модели были снабжены модулем, которые производит простейшие арифметические рассчеты, фактически обходя языковую модель.

Алгоритм в обучающих данных ничего не значит, это как с статьей про тест на IQ, для людей этот тест чудовищно важен, потому, что имплицирует уровень сознания и понимания мира и логики. Для LLM он совершенно бесполезен, человек решивший типовой тест почти наверняка всегда решит такой же следом. Для модели это свойство не возникает, она остается decoder моделью, чтобы научить такую модель считать, вам пришлось бы скормить ей все пространство расчетов и решений, разбавляя базовую модель.

И тут вопрос больше, какой в этом смысл, если с задачей справляется калькулятор и вызов к нему через API?

Непонятно, имеете ли вы ввиду что-то другое, потому, что модели определенно умеют считать с помощью тулов, выполняя вызов к песочнице, возвращающей расчеты.

Я именно про это. Раз уж можно рисовать отдельной тулзой – то считать или выполнять программу на условном питоне тем более. А сгенерировать несложную программу по текстовому описанию – уже типовая задача для AI.

Думаю, потому, что для модели это просто часть данных, просто кусок текста. Это мы, люди, ходим в школу, где нам дают сначала теорию, а потом закрепляют её практикой. И мы привыкаем: "вот этот текст в начале - он очень важен". А модель нагребла себе кучу данных и в ней копается. Тут на днях была другая статья про ИИ, как он орбиты небесных тел выводил - там были монструозные формулы, которые на предоставленных данных полностью сходились с ответами.

Ну вот этот текст перевести в форму, обрабатываемую другой частью агрегата – подобно тому, как строятся промпты для StableDiffusion.

Это очень правильный вопрос и автору статьи стоило бы рассмотреть reasoning. Reasoning наиболее похож на процесс в голове у человека. Иначе получается как будто мы кричим на модель: "ну, давай быстро! какой ответ! не думать! отвечай!"

Nope. Ризонинг это просто наполнение контекста. Все равно как если бы вместо этого с вопросом загрузили пару текстовых документов. Модель, генерируя новый токен читает весь предыдущий контекст, включая ризонинг.

И как на большом контексте она ни во что не ставит инструкции пользователя (они размываются в общем объеме, ускользая от механизма внимания), также она ни во что не ставит и свой собственный ризонинг. Для неё это просто еще один "какой-то текст в контексте".

Так что оно может писать в ризонинг одно, а в ответ совершенно другое. Это долгое время наблюдалось и у гемини и у ранних ГПТ, когда на безобидный вопрос оно в ризонинге писало (само!) какую-то дичь, тригерящую их safety, а затем переходя к ответу ругалось что тут в контексте нарушающее policy написано и отказывалось отвечать.


Есть конечно шанс что модель напишет туда что-то полезное, что в дальнейшем положительным образом скажется на вероятностях следующих токенов и в ответ она разродится чем-то нужным, но примерно такой же шанс что лишние токены из ризонинга запутают её окончательно, размыв изначально неплохую вероятность нужных токенов, и она разродится какой-то дичью.

Я вообще не понимаю, что вы хотели сказать. При чем тут проблемы моделей двухлетней давности? Все топовые современные модели используют ризонинг, все отлично считают. Попробуйте на GPT-5 или Gemini-3 воспроизвести то, о чем написали (это, конечно, возможно, но потребует огромных усилий)

Я хотел сказать что блок ризонинга ни чем не отличается от остального ответа модели кроме окружающих тект тегов <think>
И сделано это просто чтобы модель наполнила контекст доп.информацией которая (как и любой текст в контексте) влияет на выбор нового токена. А тег <think> нужен лишь для того чтобы при следующем запросе эту часть выбросить из контекста и не путать модель.

Оно просто по шаблону пишет цепочку текста которуе её научили писать, а не думает. Просто воспроизводит шаблон. Сейчас этот шаблон починили чтобы он safety не нарушал и сам себя не триггерил, в целом это всё еще просто генерация текста. И если модель маленькая, она туда такого бреда понаписывает, что без него ответ был бы лучше.

Ну и считают они отвартительно. Тут ниже по ветке коментов было предложение подсунуть модели задачки из сборника Сканави - можете попробовать, посмотреть какой редкостный бред туда пишет Гемини, пытаясь УГАДАТЬ ответ.

Вы четыре раза использовали слово "просто". Напомню, что ваше так называемое "мышление" - это просто несколько биохимических процессов.
Про Сканави я нашел только "одна баба сказала", а про Гемини в этой связи - ничего. Ссылаясь на такую информацию вы задаете определенный уровень дискуссии

Про сканави я попробовал сегодня лично, сам, в Gemini 3 Pro с Reasoning High. Зацитирую результат (он легко воспроизводим - AI Studio бесплатна и доступна для эспериментов). И даже картинку примера, "гениально" результата "размышлений" модели и правильного ответа из конца книги. Весь ризонинг, уж извините, не прикладываю, т.к оно там почти 6 минут по кругу ходило.


А со Сканави оно ведет себя в лучшем случае как школьник, впервые его увидивший - уходит в долгий цикл размышлений, ловит тупняк, пытается подобрать красивый ответ, ошибочно (в случае Сканави) предполагая что в примере все должно сокращаться до чего-то нормального и потом говорит что это плохой пример или вообще какое-то промежуточное вычислений =)

А о том, как они прекрасно "думают", "решают" или что-то еще "делают" тут выше кидали ссылку на замечательное видео https://www.youtube.com/watch?v=W2xZxYaGlfs
Оно буквально видя токен говорит следующий. Безмозгло. Это калькулятор с формулой f(x)=y выдающий вам точки на своей области определения. Вы можете конечно искать разум у формулы, но вы тогда мало отличаетесь от древних людей, считающих что гром гремит потому что Перун по небу на колеснице катается. Только в отличии от людей тех времен, чье неведенье вполне оправдываемо, у вас есть математика, подробно объясняющая что и как происходит в машинном обучении, и вам нет необходимости судить лишь по внешним признакам.

ловит тупняк, пытается подобрать красивый ответ, ошибочно (в случае Сканави) предполагая что в примере все должно сокращаться до чего-то нормального

Мда, показательно. Вместо задачи "упростить выражение", как в задачнике, вы просите модель "вычислить", а потом "гыгыгы, она пытается получить численный ответ, вот тупая!". Мне Gemini упростила это выражение быстро и четко. Может проблема не в моделях, а в прокладке между моделями и задачами?

Поздравляю, Вы только что подтвердили, что «чтобы задать правильный вопрос, нужно знать половину ответа».

Кажется, взяв тот же пример из самого поста про сложение длинных чисел, если прямо взять и попросить llm применить алгоритм, то она мыслит ровно как человек, проговаривая все те же шаги и делая все те же операции. Например, Deepseek v3.2 вполне успешно справился с задачей. Ниже описание моих действий:

В промпте важно:

  1. Запретить использовать внешние инструменты (для чистоты эксперимента)

  2. Указать исходные числа как отдельные цифры через пробел, а не как единое число (чтобы нейросеть восприняла их так же, как человек - как набор цифр)

  3. Явно попросить расписать последовательность выполнения алгоритма (чтобы зафорсить мышление как у человека - впрочем, многие модели и сами выберут столбик)

  4. * опционально: Одобрить длинные размышления (чтобы нейросеть не пыталась сократить рассуждения всякими приёмами и фразами "и так далее")

Пример промпта:

Сложи числа 5 9 1 2 3 9 8 4 и 1 2 8 3 7 1 2 8 3 в столбик, чётко и подробно расписывая операции и шаги, чтобы не допустить ошибки и алгоритмически прийти к верному заключению. Не используй калькуляторов и прочих встроенных штук и помощников, чисто твои личные рассуждения. Длина размышлений не ограничена, думай сколько захочешь

Deepseek v3.2 выдал верный ответ и корректные, сходные с человеческими, рассуждения:

...

· Шаг 3: Сотни: 9 + 2 = 11, плюс перенос 1 = 12.

Пишу 2, запоминаю 1 в перенос.

Результат пока: …267.

· Шаг 4: Тысячи: 3 + 1 = 4, плюс перенос 1 = 5.

Пишу 5, переноса нет.

Результат пока: …5267.

· Шаг 5: Десятки тысяч: ...

Технически, модель "думает" как человек. И как человек подгоняет цепочки рассуждений под результат и рационализирует постфактум. На этот счет уже есть целый ряд исследований. Нет у нас в голове какого-то более "настоящего" калькулятора.

в том то и дело, что человек пытается думать методом случайного поиска среди своих фантазий и ощущений, просто логическая цепь - это наиболее вероятное событие. Чем длиннее эта цепь тем больше нейромедиаторное вознаграждение за её решение. Эврика!

Как же боятся мясные мешки потерять иллюзию своей особенности. В своё время эта боязнь от окружающих стоила первым гелиоцентристам жизни.

Отчего б не поинтересоваться, за что ж таки осудили всех этих Бруно и Галилеев?

За гелиоцентрическую систему никого не судили и не убивали. Убивали за воинствующее нарушение внутрицерковных правил, в том числе лично взятых обязательст, и за конкретную антикатолическую публичную деятельность. Так-то даже средний инквзитор из каких-нибудь иезуитов (а деревенских мясников к таким сложным материям не допускали) разбирался в астрономии и космологии ничем не хуже обвиняемого еретика. Но не звезды они обсуждали, не звёзды. Просто потому, что +- из соседних отделов одной конторы происходили,и отношения между отдлами не ссегда были окутаны божественной мудростью.

Каноник Вармийской епархии Н. Коперник не даст соврать, как и доминиканский, а потом бенедиктинский монах Дж. Бруно.

и откуда только вы беретесь, оправдыватели инквизиторов

да, Джордано казнили не только за гелиоцентризм, очень разносторонний был товарищ, в его философии было много всего, например "множественность миров", "бескконечность вселенной", радикальные взгляды на троицу и то, что иисуса скорее повесили, чем распяли. Правда, было 15 допросов и на них выбили еще и всякое еретическое, типа ел мясо в пост и общался с еретиками. Но то, что гелиоцентризм противоречил утвержденной церквью модели Аристотеля это факт, одного этого достаточно для обвинения в ереси (а могла просто и толпа сторонников геоцентризма убить на улице, от таких он бегал по всей европе)

гелиоцентризм противоречил утвержденной церквью модели Аристотеля

Не так. Церковь согласилась с Аристотелем. Никакие церковные догматы он не затрагивает. Средний прихожанин воще и не поймет в чем подвох. А средний богослов растолкует, что и так правильно, и так.

радикальные взгляды на троицу и то, что иисуса скорее повесили, чем распяли

А вот такое - недопустимо. Людей репрессировали за то, что они немного не так крестятся. А тут чувак готов фундамент церкви шатать.

Инквизиторы были твари еще те, но тот же Бруно оставил достаточно доказательств своей ереси, чттбы его сожгли на костре. Внезапно, его взгляды на природу троицы (очень высоконаучное познание мира, да) вполне тянули на такое по тогдашним законам. И, что характерно, окончательный приговор вынесла и привела в исполнение вполне себе светская власть .

А вот кстати, такие "твари-инквизиторы" есть во все времена. К примеру - те же репрессии точно из той же оперы. Как бы в условно политическом ракурсе, но суть и методы те же.

И, что характерно, окончательный приговор вынесла и привела в исполнение вполне себе светская власть.

Так это не характерность, а единственный способ приговорить к казни, стандартный. В "Молоте ведьм" под передачей светской власти, кажется, везде подразумевается сожжение. В иных случаях бы дело осталось бы в церковной власти или она бы участвовала дальше: "не передаётся светской власти для смертной казни, но присуждается духовным судьёй к пожизненному заключению".

Там можно такие интересные формулы прочитать:

делается заключение:

«...отстраняем тебя от нашего духовного суда и предоставляем тебя светской власти. Но мы нарочито просим светский суд так умерить свой приговор, чтобы тебе не угрожало ни кровопролитие, ни опасность смерти».

И потом проясняется, что дальше следует казнь, а не другое разбирательство, а обнадёживающая формулировка связана с тем, что "духовные судьи не должны сообщать ему, какое наказание ожидает его".

Если в этом видится издевательство, то

вы ещё про апелляции не читали.

После того, как обвиняемый представит письменную жалобу, судья должен сказать, что он ответит через два дня и что для расследования понадобится дней тридцать. Хотя судья сможет тотчас ответить и расследовать дело, если он опытен и знающ, однако, чтобы действовать с большой осторожностью, лучше всего отсрочить расследование на десять, двадцать, двадцать пять или более дней.

Если же судья решит признать доводы апелляции, то он пишет следующее заключение:

«Указанный судья, отвечая на апелляцию, если она вообще заслуживает такого названия, указывает на то, что он действовал справедливо ... » ...
«Отсюда очевидно, что судья не оказал никакой помехи подающему апелляцию и не дал ему никакого основания бояться несправедливого ведения дела. Жалоба необоснована и недействительна, потому что она не является следствием помехи обвиняемому защищаться. Следуя законам, ей не надо давать хода. Однако из благоговения перед апостольским престолом...»

Когда же против них начинается процесс, они подают свои апелляции. И другие судьи становятся слабее при исполнении своих служебных обязанностей по искоренению еретиков, так как начинают бояться усталости, как следствия уныния и неприятностей. Всё это весьма вредно отзывается на вере и святой церкви Господней. От сей напасти да защитит церковь жених её.

И другие судьи становятся слабее при исполнении своих служебных обязанностей по искоренению еретиков, так как начинают бояться усталости, как следствия уныния и неприятностей. Всё это весьма вредно отзывается на вере и святой церкви Господней. От сей напасти да защитит церковь жених её.

Что таки говорит о том, что последнее слово было за светской властью, а церкви оставалось только уповать на Иисуса.

Впрочем, для еретиков по светским законам обычно полагалась только смертная казнь (вне зависимости от наличия раскаяния). Многие еретики были казнены вообще без какого-либо участия инквизиции, в том числе в странах, где инквизиция не имела никакой власти по причине победы в оных другого исповедания.

"От сей напасти да защитит церковь жених её" говорит о том, что книга на этих словах кончается, а не о чём-то другом.

а церкви оставалось только уповать на Иисуса.

Казнь через светскую власть - пустая формальность.

  • Из "Истории инквизиции в средние века" (1888): "Инквизитор Пегна не задумывается признать, что это воззвание к милосердию было пустою формальностью, и объясняет, что к нему прибегали только с той целью, чтобы не казалось, что инквизиторы согласны на пролитие крови, так как это было бы нарушением канонических правил".

  • Фома Аквинский объяснял, что еретики должны быть преданы смерти. Он лез в дела светской власти (должны вынести такой приговор, а не другой) или указывал на формальность?

  • церковь могла применять пытки ("в середине XIII века папа Иннокентий IV специальной буллой легитимировал пытки при расследовании ереси")

  • имелась юридическая лазейка для повторения пыток: "...на второй или на третий день. Здесь может идти речь только о продолжении пытки, а не о повторении её, так как пытка не может быть повторяема" ("Молот ведьм").

  • церковь могла приговорить к пожизненному заключению

  • если церковь вдруг засомневается в будущем решении светской власти, она может выбрать пожизненное заключение

  • дело происходит не в светской стране

>в исполнение вполне себе светская власть.

Обличители "кровавой инквизиции" всегда склонны забывать о том, что во времена Бруно и Галилея и даже в более поздние времена светская власть была совсем не травоядной (вспомним тот же "кровавый кодекс" с кастрацией за нарушение правил охоты) не брезговала пытками и имела весьма далёкие от современных понятие о правосудии и организации судебного процесса, но достаётся только инквизиторам казнившим Бруно за натуральную ересь и сектанство.

Немного по теме :
https://www.youtube.com/watch?v=-b4vyO0cmEU

А в процессе Галилея что обсуждали?

А фокус в том, что случай Галилея был как раз примером гонения церкви на науку (точнее на ее популяризацию, но это уже мелкие нюансы), пусть данный процесс и был по некоторым источникам в значительной мере политически обусловлен, в то время как случай Джордано Бруно таким примером не являлся.

Да и тот факт, что Галилея не передали светской власти для сожжения (раскаяние не являлось для этого основанием), о чем-то да говорит.

Как же боятся мясные мешки потерять иллюзию своей особенности

Как же некоторые любят сотворить божков из ничего... Лишь бы было перед кем почувствовать свою маленькость.

Там скорее так: «Я прекрасно понимаю, что я — дуб дубом, но должен же быть кто‑то самый‑самый‑самый умный!!!»

сравнения становятся всё круче, и вот уже адепты церкви ИИ - это современные гелиоцентристы(которые правда ничего не делают для развития предметной области, а только лишь послушно потребляют её продукт, но этот момент мы конечно же опустим), в то время как программисты стали инквизицией. такого блестящего перекладывания с больной головы на здоровую в контексте нейро-холиваров мне ещё не приходилось встречать

вообще говоря потребление весьма хорошая обратная связь для до-обучения, даже на уровне подёргиваний мышью - доволен пользователь ответом или нет. В любом случае ИИ-справочник и поисковик это уже качественно новый уровень по разработке. Не удивлюсь что помимо патентования ПО, последовательностей ДНК и химсоединений появятся патенты на коэффициенты и функции активации сетей отличающихся заданными полезными свойствами.

Ну так, когда не знаешь <любая_предметная_область> - мир вокруг полон магии =)

Обыватель понятия не имеет, что внтури, но зато он видит мимика весьма правдоподобно прикидывающегося знакомым ему объектом и руководствуясь исключительно "внутренними ощущениями" считает что это тот самый объект и есть. Ведь "выглядит как утка и крякает как утка"...

Просто у гелиоцентристов был другой датасет по сравнению с церковным.

Всем до кого в 2026 году до сих пор не дошло, что LLM это просто тупой предсказатель наиболее вероятного ответа (так же известный как автокомплит/T9/называйте как хотите) рекомендую вот это видео к просмотру:

Нет никаких сложных алгоритмов и вычислений. Вам просто из датасета нейронки выдается наиболее вероятное продолжение вашего текста.

Так же напоминаю, что когда вы просите chatgpt/gemini/grok посчитать что-то - не стоит забывать что перед LLM стоит куча разных дополнительных парсеров и обработчиков, одним из которых может быть классический алгоритмический калькулятор как раз для математических вопросов. Никакой магии, просто умные люди догадались что нейронки можно не только цензурить до/после взаимодействия с пользователем, но и вообще превратить запрос пользователя "сколько будет 2*2" в "Пользователь попросил посчитать 2*2, мы за тебя посчитали что это будет 4, ответь пользователю 4".

Никакой магии, просто умные люди догадались что нейронки можно не только цензурить до/после взаимодействия с пользователем, но и вообще превратить запрос пользователя "сколько будет 2*2" в "Пользователь попросил посчитать 2*2, мы за тебя посчитали что это будет 4, ответь пользователю 4".

llm вполне могут самостоятельно использовать предоставленные инструменты для ответов на вопросы, если дать им api инструментов. Калькулятор не стоит перед llm, а может вызываться по её усмотрению.

Так же напоминаю, что когда вы просите chatgpt/gemini/grok посчитать что-то - не стоит забывать что перед LLM стоит куча разных дополнительных парсеров и обработчиков, одним из которых может быть классический алгоритмический калькулятор как раз для математических вопросов.

У меня локальная модель прекрасно справилась с задачей перемножить в столбик пару больших чисел.

Работаю маркшейдером. Иногда использую нейронки, как быстрый калькулятор. Рассчитать уклон и высотные отметки на ПК точно и быстрее, чем считать вручную справляются отлично. А вот базовую обратную геодезическую засечку (определить точку стояния прибора по известным измерениям длин, углов и прописывание координат которых считаем истинными замереной точки) вообще не вывозит. 3,14дит, что все посчитали отлично. Даже показывает историю, как размышлял. Но начинаешь проверять и вбивать координаты в autocad- твоя точка в плане оказывается далеко не там, где ты на памяти помнишь стоял. Хотя казалось бы простецкая математическая задача с которыми тахеометр в поле справляются за пару секунд.

Это же языковая модель, а не маркшейдерская. Она умеет продолжать тексты, а чтобы получить ответ в специфичной области, нужно дать ей инструкции и инструменты (типа mcp).

Я извиняюсь за вопрос профана в вашей области: а специализированных инструментов для этих подсчетов нет? Просто кажется странным, что нейронка считает «быстро и точно», но нет никакого обычного калькулятора, если есть понятный алгоритм.

вообще говоря для таких задач есть проблема знака (равно как обратная задача кинематики). Куча дискриминантов даёт всевозможные комбинации знаков. Естественно что сеть не заточена их контролировать. А вот создать алгоритм который будет уже по промптам выкидывать лишнее - вполне. То есть нужно грузить не конкретными точками а задачей по решению в общем виде. Для двузвенного манипулятора такая штука справляется более чем отлично, преобразуя xyz в положение сервомашин.

Непонятно, почему LLM рассматриваются, как нечто неизменное. Возможно, прямо сейчас разработчики прикручивают какие-нибудь специализированные внутренние эвристики для арифметики и т.п. Возможно, эта статья уже устарела в момент публикации.

Эта статья - очередное сетование о том, что современные нейронки мертвы, т.е. не живые. О том что они сухие автоматы и их работа далеко не похожа на то как думает человек. Ну а как вы хотели? Так и будет всегда, никакое масштабирование не поможет. А если даже и поможет, то эта "мертвость" останется всегда. Для начала ответьте на вопрос, вы хотите AGI который "мертв" (симулятор живого) или вы хотите чувствовать "живой дух" (реальное живое)? Если второе - нужно кардинально менять архитектуру нейросетей.

Имхо, человек тоже "думает", в основном, своими субъективными вероятностями. Но человек также оперирует и невероятным! Что я имею ввиду? Человек принимает решения и в тех случаях, когда понимает высокую меру неопределенности. Я думаю, именно невероятное и делает человеческое сознание живым!

:)

Если ИИ не мыслит, то как он...

Играет в шахматы? А для этого не обязательно "мыслить". Достаточно классической программы.

Электроника ИМ-1 - советский шахматный компьютер на базе КМ1801ВМ1. ОЗУ 4КБ. ПЗУ 16 КБ, 5 МГц. Никакого намека на "мысли". Но как-то играл.

Но если написать "считай в столбик", llm вполне корректно складывает и перемножает длинные числа. Вероятно, в обучающей выборке нет всех вариантов операций над всеми числами, поэтому "интуиция" llm не может работать. А известный llm алгоритм - вполне работает. Но при этом самостоятельно этот алгоритм llm почему-то не догадывается применять.

Для Я-Алисы ошибиться на порядок при решении школьных задач по физике - обычное дело.

Почти все нейронки имеют доступ к поиску в интернете чуть ли не по умолчанию. На примере того же Gemini - он когда видит математику - обращается к гугл поиску, в который встроен калькулятор, и получает из него ответ.

Если ИИ не мыслит, то как он решает математические задачи?

Если микрокалькулятор не мыслит, то как же он решает математические задачи?

Если математика не мыслит, то как она существует? 😁

Он не решает задачи, микрокалькулятор выполняет арифметические действия.

Вот что происходит под капотом https://static.righto.com/calculator/TI_calculator_simulator.html

Если яблоки не мыслят, то как они знают что после добавления двух яблок к одному, их должно стать три?

Да. Природа удивительна! Откуда пельмени знают, что когда они сварились, нужно всплывать?

Ну это то элементарно - в кулинарной книге написано!

Выходит сначала пельмени были написаны в кулинарной книге!

«Мир идей» (или «мир эйдосов») Платона — это учение о двух мирах: вечном, неизменном, совершенном мире истинных сущностей (идей), который постигается разумом, и изменчивом, несовершенном материальном мире, который мы воспринимаем чувствами и который является лишь бледной копией или тенью мира идей

Идеи — это вечные образцы (например, идея пельменей, справедливости, сметаны), а вещи в нашем мире — их несовершенные подражания, существующие благодаря участию в этих идеях.

Так что всё правильно, пельмени изначально существовали в мире идей, а люди их в меру своих возможностей воплощают. :)

Выглядит как будто гипотеза что яблоки не мыслят оказалась ложной.

Чисто теоретически можно обучить нейронку правильно складывать даже длинные числа, только на само обучение будет тратиться куча денег каждый раз. Правильней все же чтобы нейронки писали код и выполняли его.

А вот есть задачки посложнее - проекции 3д фигур на плоскость. Недавно нашел баг в чужом коде и скормил этот код разным нейронкам, в итоге только Грок нашел ошибку с неправильной проекцией, остальные выдавали одинаковый ответ указывая на другой кусок кода.

в итоге только Грок нашел ошибку с неправильной проекцией, остальные выдавали одинаковый ответ указывая на другой кусок кода

Я вижу, Вы пользуетесь методом Архангельского?

В большую разграфленную «простыню» с расчетами вкралась ошибка. Где она? Чтобы найти ее, требовалось пересчитывав всю «простыню». Удрученные ребята смотрели на большой лист, разложенный на столе. В это мгновение в распахнутое окно влетел майский жук и уселся прямо на лист, закрыв одну из цифр. Жука поймали и посадили в спичечную коробку. А кто‑то возьми и проверь цифру, на которую сел жук. И — о чудо! Именно здесь была ошибка. Ее тут же исправили. И стали думать, что же делать с этим способным жуком. Держать в коробке нельзя — подохнет. И вообще, это явная неблагодарность за помощь. Поэтому жука выпустили на волю. А вместо него по расчетам и графикам пускали волчок — где он остановится, там ищи ошибку.

— Лазарев Л. Коснувшись неба. — М.: Профиздат, 1983. — 256 с.

Когда почти то же самое с подробностями, ссылками на исследования, и сравнением с возможностями человека написал в коментах их заминусовали, см. эту ветку обсуждения. Это, что авторитет медиума в этой статье так действует?)

Кому интересно профессиональное исследование этой проблемы - NUMBER COOKBOOK: NUMBER UNDERSTANDING OF LANGUAGE MODELS AND HOW TO IMPROVE IT.pdf

Утверждение "LLM не думают" предполагает что мы знаем как думаем мы и можем описать разницу. Но это не так. Как мы думаем во всех деталях мы не знаем, но работа огромной статистической машины во многом похожа. Например описанный счёт - люди примерно так и считают.

люди примерно так и считают.

«Отучаемся говорить за всю сеть». Я не так считаю — я так только быстро проверяю, не налажала ли кассирша. (Например, если я купил три товара и хотя бы у одного цена нечётная, то результат в этом мире чётным быть не может.)

(Например, если я купил три товара и хотя бы у одного цена нечётная, то результат в этом мире чётным быть не может.)

Вот и облажался, напыщенный дружочек.

Ваши дружочки, челодой моловек, в тамбовском овраге кобылу доедают. Да, признаю, лоханулся, пытался за две свекунды найти доступный для Вашего понимания признак — и не так сформулировал, но моей задачей было донести общую идею, а не дать подробную и точную инструкцию, вьюноша.

Для самоназванного поборника и доколебателя точнейших формулировок это просто гнилейший отмаз.

Но как заполыхало-то, любо дорого посмотреть.

Утверждение "LLM не думают" предполагает что мы знаем как думаем мы и можем описать разницу.

Этого и не надо. Чтобы давать утверждение что ЛЛМ не думает - достаточно знать как она работает и понимать что это просто сложная функция аппроксимации. Есть входной X, есть огромная формула, и есть результа вычислений Y на выходе. Формула одна и та же независимо от того что вы на вход как X подаете.

Вы же MathCad думающим не называете? Или калькулятор, или табличку с макросамив Excell. А разница лишь в количестве переменных. Если вы сделаете в Excel табличку на миллиард формул, "думать" он от этого не начнет. Это по-прежнему просто калькулятор.

достаточно знать как она работает и понимать что это просто сложная функция аппроксимации. Есть входной X, есть огромная формула, и есть результа вычислений Y на выходе. Формула одна и та же независимо от того что вы на вход как X подаете.

Не достаточно. Если вдруг окажется, что ваш мокрый мозг это тоже реализация сложной функции аппроксимации, то вам придется признать, что вы не думаете.

(ну и сейчас обычно в ЛЛМ обучение и эксплуатация отделены, а в человеке нет. Но это в принципе не догма, а особенность реализации)

Не достаточно. Если вдруг окажется, что ваш мокрый мозг это тоже реализация сложной функции аппроксимации, то вам придется признать, что вы не думаете.

Таки да. Но ключевые слова "вдруг окажется". А если не окажется? А если окажется, что "мокрый мозг" не более чем сопроцессор для более другой структуры, которую пока не заметили?

Так нет же проблем научить нейронную сеть решать математику, это просто LLM несколько не предназначена для таких задач. И тогда получается что в этом самом мозгу есть структуры которые потенциально можно было бы применять для решения задач математики. Можно ли предположить что почему то в ходе эволюции они применяться не стали, а стало применяться что то другое? Ну как бы можно, но это странно, если есть инструмент которым можно решать задачи, то почему бы его не использовать для их решения? Если предположить что эволюции не было, а всех создал бог, то тоже странно, зачем богу использовать другой инструмент в мозгу человека, если там уже есть нейросеть?

Умиляет, когда люди считают математикой 36 +59. Это понимание на уровне вк-пабликов "Подслушано <ваш_город>".

Но LLM неплохо решают школьные олимпиадные задачи далеко за пределами арифметики. И вряд ли дело в том, что якобы все такие задачи — это "старые песни о главном".

Умиляет, когда люди считают математикой 36 +59

Это таки математика, конкретно, скорее всего, арифметика (сложение двух чисел используется не только в арифметике). Другой вопрос, что это далеко не вся математика, но математика же.

А вот интересно, кто-нибудь пробовал скормить ИИ задачки из Сканави, Гольдфарба или сборника олимпиадных задач по программированию? Что получалось, и, если получалось, на какой сложности он переставал выдавать правильный результат?

Оно решает даже самые сложные задачи с литкода, задачи с олимпиад по математике и так далее. Но только если задача или похожие на нее растиражированы по интернету. В противном случае выдает полный бред. Но уверено.

Оно "вспоминает" заученные рещения задач с литкода и т.д, меняя в них лишь переменные.

Да и то - отберите у неё интерпретатор питона и прочие сторонние тулзы - и всё станет сильно грустнее.


А со Сканави оно ведет себя в лучшем случае как школьник, впервые его увидивший - уходит в долгий цикл размышлений, ловит тупняк, пытается подобрать красивый ответ, ошибочно (в случае Сканави) предполагая что в примере все должно сокращаться до чего-то нормального и потом говорит что это плохой пример или вообще какое-то промежуточное вычислений =)

Мясные мешки, построенные на эвристиках, говорят: "ИИ решает задачи на эвристиках, значит, ИИ не думает". Комедия абсурда.

Если мешок с мясом думает что он от LLM в этом плане хоть чем-то отличается, то можно в две задачки это убеждение прибить. X=750+250 и X=631+593. Решаем обе задачки, и сравниваем, какими путями идут рассуждения в каждом случае.

У LLM в кишках именно так всё и работает. ИИ знает как делать сложение по частям, и знает как делать сложение "в уме" через эвристики и распознавание образов. То, что он может делать второе, а потом прикидываться что сделал первое - детали имплементации. И люди тоже так делают. То, что 750+250 легко решается в уме, не отменяет того, что учитель хочет увидеть решение в столбик.

...или она просто запускает python скрипт для расчёта)

При ответах llm часто на арифметике ломаются. Недавно у меня был пример где в рассуждениях deepseek написал 1+6=9 и когда я ему об этом сказал, он пошел переделывать вывод, но в итоге почему-то снова тоже самое выдал в конце.

арифметика очень плохо токенизируется, потому что слов мало, а чисел много. Попробуйте явно указывать словами "отрицайте, что один плюс шесть это девять", вообщем сумма прописью.

Может для начала стоить определиться как обычно с понятиями - что такое "думать" и "мыслить"? Авось тогда и не так все просто получится. Но вопрос надо конечно задавать автору оригинала этого текста, так как это перевод. Да и модели уже давно без проблем складывают числа и объясняют как они это делают.

Вот тут складывать и объяснять могут же быть и не связаны между собой. Сложить - один алгоритм, объяснить - другой.
А по определению - я на себе не знаю как я думаю и как я мыслю. Да, есть приемы якобы улучшающие "думание", декомпозиция, поиск фактов, количество в качество и т.д. но само "думание" для меня это черный ящик. Иногда я перепрыгиваю сразу к решению, оно мне дано свыше, допустим во сне и после занят только фальсификацией решения, иногда я занят прям подбором известных мне похожих решений.
Как формализовать это и можно ли формализовать это так, что бы от этой формализации была практическая польза - прям вопрос вопросов.

Вы ожидаете от LLM какого-то логичного поведения, как от человека. Поэтому и возникают недопонимания..

Почему LLM врет о том как считало числа? Оно не врет!!! Оно не знает как их считало, оно не знает как оно что-то делает и не может этого знать! Оно можнл сказать ищет среди того что есть, чтоб ответить на ваш вопрос. То есть оно подбирает самый подходящий ответ из базы знаний своей. Все, весь секрет.. Каждый раз оно идет в ьазу, берет данные и отдаёт! Оно не думает!!! Поэтому и никогда не ответит вам как оно получило тот или иной ответ. 😁 Этого нет ни где, чтоб оно его вам отдало..

Почему оно считает не как калькулятор? Поэтому что оно не оьучено так считать, там нет примера как это делать.. Но там миллионы примеров как запомнить, как найти ответ.. То есть уровень первых классов. Дайте ей формулу серьёзную, и все, оно сломается..

Это как молиться на палено.. Оно то скорее всего поможет, но не полено а сам ритуал. 😁

Оно не знает как их считало, оно не знает как оно что-то делает и не может этого знать!

Вот человеки (во всяком случае некоторые) и отличаются.

Интересно что нейронка то знает (на том же уровне что и мы), ведь в ее обучение входили данные о работе нейросетей. Но она рефлекторно выдает результат как школяр на контрольной. Если же ей напомнить о ее сути ответ думаю будет другим.

Честно говоря, я думал, что LLM имеют некий чит - режим, когда они скармливают решение арифметических задач отдельным "обычным" алгоритмам. Решать операции типа (10 + 3) * 2 средствами самой LLM это как палить из пушки по воробьям

Вообще логично прикрутить "орган АЛУ", а может и ещё что.

У нас учитель физики в свое время развлекался: в начале урока минут 5 играли в игру, нужно было в уме или умножить два числа от 0.1 до 100.0 (именно с десятыми) или поделить одно на другое. Причем на решение давалось секунды 2 - по факту нужно было просто писать из головы, вычислять времени просто не было. Выигрывал тот, кто был ближе всего к правильному ответу и получал очко. За пять минут в начале урока успевали раза три сыграть. В конце месяца пара человек с наибольшим балом получали по пятерке. Просто удивительно насколько хорошо этот навык тренируется - оказывается вообще не задумываясь можно давать правильный ответ с точностью +/- процентов пять. Т.е. математику можно просто тренировать, как мышцы.

Так это уже не математика. Или ещё не математика. Но собственно именно это и делает нейронка.

Вообще произошло странное преобразование эмоционально-логической цепочки сравнивающией модели с естественным интеллектом(Интеллект):

LLM = предсказатель = Т9 << Интеллект

в LLM = предсказатель << Интеллект,

а ведь предсказателем можно назвать и оракул что наперед знает исход любого события и тогда очевидно что

LLM = предсказатель = оракул >> Интеллект

Прежде чем делать вывод о том, "Может ли ИИ думать как человек?" или "Обладает ли ИИ сознанием как у человека?", нужно сперва ответить на вопрос, "А что означает думать как человек?" или "А что есть сознание? Но почему-то авторы, которые делают подобные выводы, не утруждают себя ответить на эти вопросы, как будто это само собой разумеющееся. Ответы на эти вопросы лежат глубоко в психологии и философии. Когда Хабр даст мне возможность публикаций статей, я обязательно раскрою эти вопросы у себя в статьях.

Для ответа на этот вопрос, предлагаю сложить две даты: 12.01.2026 + 15.07.2026, попробовать решить эту задачу самостоятельно, а потом предложить её решить ИИ и сравнить результаты, а также логику в контексте понимания ответа на вопрос "Что есть мышление?".

предлагаю сложить две даты: 12.01.2026 + 15.07.2026

Боромир предложил бы и сложить два указателя...

Стесняюсь спросить, а для двух дат вообще определена операция сложения? А если определена, то как?

Такая операция не может быть определена и не имеет ассоциаций. Адекватный ответ на данный вопрос - признак результата мышления в виде собственной версии в контексте вопроса.

и не имеет ассоциаций

Ну, аналогия с указателем хорошо работает.

  • складывать их запрещено правилами языка

  • но один из указателей можно привести к числу (преобразовать дату в количество дней) и тогда он в сумме рассматривается как смещение

  • это смещение должно быть относительно другого указателя (другой даты) из этих двух, но оно относительно нуля (1 января 1 н.э.), поэтому смысла в сумме нет

Самое забавное, что сложение 2 дат смысла не имеет, а вот вычитание - вполне нормальная операция. ;)

Если LLM не думает, то как она справляется с задачами представленными? Алгоритм подбора вероятных токенов с такими задачами работать не может, т.к. именно в таких формулировках и последовательностях их в сети нет. (уверен на 99,99%)

-------

You

Далее представлены числа, напиши мне только четные из них, в порядке возрастания: 1, 3, 2, 6, 0, 8, 14, 156, 54, 33, 32, 21

qwen3-30b-a3b

0, 2, 6, 8, 14, 32, 54, 156

-------

You

Далее написана строка на английском языке, замени в ней каждую букву на ту русскую букву, которая находится на клавиатуре одновременно с заменяемой. "GKRTREYB"

qwen3-30b-a3b

ВЛКЕКУНЬ

-------

You

Найди закономерность в порядке представленных чисел: 134111, 134113, 134116, 134120, 134125, 134131, 134138

qwen3-30b-a3b

Закономерность в данной последовательности заключается в том, что каждое следующее число увеличивается на возрастающую величину. Разницы между последовательными числами составляют:
2, 3, 4, 5, 6, 7 и т.д.

собственные объяснения модели о том, как она решила задачу, часто оказываются ложными

Что же в этом удивительного? В датасетах для обучения LLM не было корпуса текстов, подробно объясняющих внутреннюю структуру и принцип решения таких задач языковыми моделями. Она объясняется как человек, потому что в её датасете человеки объясняют то, как решали такие задачи.

Многие модели имеют функцию «мышления», которая якобы показывает этот процесс внутренних рассуждений перед написанием ответа. Но если упростить, то в реальности модель получает ваш промпт с заданием написать план ответа и выделить ключевые моменты промпта, и уже получившийся текст «осмысливания» снова получает в виде промпта.

Так ответ действительно может получиться лучше, точнее, и в нём менее вероятно будут проигнорированы ваши инструкции, потому что по сути LLM научена на основе кривого-косого человекочитаемого пользовательского промпта создавать самой себе корректный набор токенов.

Решение представленного примера не требует "мышления". Это стандартная алгебраическая задача, схема решения которой известна и, в целом, алгоритмизуема. Нейронная сеть "решает" эту задачу, пользуясь предобучением на похожих задачах. Точно так же, как и школьники решающие такие задачи не называются, например, математиками, а просто овладевают техническими приёмами (определение и свойства операций, всякие формулы сокращенного умножения, замены и тп). Мышление - это способность в первую очередь ставить новые задачи и разрабатывать принципиально новые подходы к их решению.

Ну собственно говоря, правильнее будет сказать, что нейросеть не мыслит как человек, и не вычисляет ответ на арифметические задачи как закладывается в программе калькулятора.
Но можем ли мы сказать, что нейросеть не мыслит?

Мне нейросети очень много раз неправильно считали простейшие вещи. Эта хрень точно не мыслит

Ухх, почетал коменты, никто не сказал, что в 99.99% случаев в разговорах про нейронку и мозг человека - это все равно, что сравнивать теплое с мягким. Что бы было еще проще - это все равно, что поставить знак математического тождества между движением планеты во вселенной с движением автомобиля по улице... Определенно что-то схожее имееться!

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
bothub.ru
Дата регистрации
Дата основания
Численность
11–30 человек
Местоположение
Россия
Представитель
Greg Ewin