Обновить
12
12.1

Пользователь

Отправить сообщение

А где про ИИ, я ни слова не увидел?!

Он не отрицает масштаб LLM, а отрицает подмену - выдавать статистическую экстраполяцию за понимание. Наличие эмерджентных свойств у сложной системы не доказательство её разума. Сознание - это результат определённой организации: модели мира, рефлексии, способности к осознанному выбору, у LLM этого нет.

Его теории о "глубинной грамматике", ограничениях восприятия, связи языка и мышления - остаются вне поля LLM. А если кто-то считает, что масштабирование трансформеров объясняет природу смысла, ему стоит начать с вопроса: почему ребёнок, услышав фразу впервые, понимает её, а GPT-5, обученный на "триллионах" примеров, до сих пор не проходит тест на "теорию разума"?

"Удивительно, что кто-то считает, будто недавние успехи статистических языковых моделей имеют хоть какое-то отношение к интеллекту или даже к лингвистике"

- Ноам Хомски

Одна маленькая проблема - ИИ... не существует. Его не было 30 лет назад, его не было 5 лет назад и сейчас его тоже нет. А что есть? Есть статистические анализаторы с генерацией данных, а они никакого отношения к ИИ не имеют. Ведь до сих пор ни одна система не прошла строгих тетов Тьюринга, задач и з тестов "теории разума" (ToM) и теста ARC. Есть хайп вокруг того, что LLM - это ИИ, но это просто хайп. А на любом хайпе что делают? Правильный ответ - зарабатывают. Что есть вместо LLM - это логические/когнитивные/символьные/гибридные системы. Они уже в разы лучше чем самая топовая LLM: они быстрее, "умнее", точнее, не генерируют ошибки, работают на "среднем" компьютере и не требуют видеокарт стоимостью несколько миллионов. Они ближе к Настоящему ИИ, чем любая другая LLM

А при чём тут AGI? Это тесты именно для ИИ. Для AGI нужен ещё тест ARC + вышеперечисленные

Давайте я Вам повторю цитату, которую давал в другом комменте

"Удивительно, что кто-то считает, будто недавние успехи статистических языковых моделей имеют хоть какое-то отношение к интеллекту или даже к лингвистике"

- Ноам Хомски

Если у Вас есть ИИ, то значит система прошла строгие тесты Тьюринга и ToM?

"Удивительно, что кто-то считает, будто недавние успехи статистических языковых моделей имеют хоть какое-то отношение к интеллекту или даже к лингвистике"

- Ноам Хомски

Вы сравниваете LLM и нашу систему как два модуля будущего ИИ, но это ошибка. Мы не строим слои для гибрида с автозаполнением, это полная его замена - альтернатива.

Как я говорил в другом комменте: "... Лично для меня, ЛЛМка нужна чтобы генерить "с`котикафф" и "собачкафф", на Большее - она не способна..." - нет модели мира, нет понимания, нет рассуждений, ничего нет.

Наша система, она полностью автономна, очень быстро работает, ответы генерируются от 1.3 сек. до 3.2 сек. Ей не нужны "тысячи" GPU - подойдёт любой среднестатистический компьютер с памятью не менее 6 Гб и большим объёмом SSD/HDD. Лично у меня видяшка NVidia 2060 Super, хватает и поиграть и поработать. Памяти (RAM) у меня 128 Гб на борту и 22 Гб из них выделено под гибрида (ему в этой "области" хорошо "живется" и ничему не мешает) + 2 Tb SSD/6 Tb HDD - это под гибрида.

Давайте сравним цену NVIDIA H100 OEM 96GB HBM3 - 2 598 700 руб (взял из Сети) и мой комп за <250 000 руб.

Обучение у нас происходит в "реальном режиме" и точечно - если нужно добавить/изменить "знания", то мы не "пересобираем датасет" (его просто не существует), не дообучаем миллиарды параметров, а корректируем одну/несколько логических веток . Через "пару" минут исправлений/обучения и система полностью готова к работе. "Контекстное окно" настолько большое, насколько у вас хватает памяти и SSD. А какое окно у самых "крутых и последних" LLM моделей? - маленькое.

Это разумный отказ от бессмысленного масштабирования в пользу осмысленной архитектуры. Мы не ждём, когда LLM "оживёт" и не ищем "жизнь в статистике" - это дорого и бессмысленно.

"Нам не нужны более крупные модели. Нам нужны лучшие архитектуры - системы, которые понимают мир, а не просто имитируют его"

- Гэри Маркус

Сообщения о том, что ИИ "исчерпал данные", звучат так, будто весь интернет - это бочка мёда, которую случайно съели до дна, а теперь пчёлы в панике. Но дело не в количестве данных, их океан, люди их накапливали столетиями. Проблема не в "голоде", а в "аппетите". Мы продолжаем кормить LLM всё более "жирным цифровым фастфудом", надеясь, что из автозаполнения родится интеллект. На самом деле, данных хватит ещё на много жизней, если бы мы умели с ними работать. Вместо того чтобы генерировать синтетический мусор, можно было бы, например, строить системы, которые понимают, а не имитируют, используют онтологии, логические правила, модели мира - превращают данные в знания. Но пока мы считаем, что "больше текста = умнее модель", то мы никогда не исчерпаем данные, но быстро исчерпаем смысл.

Вы говорите, что не являетесь специалистом, но сразу же берёте на себя "роль исследователя", сравнивая людей и ИИ, по способности "брать ответственность" или "понимать другого". Однако вы не задаёте главный вопрос: чем измерить это понимание? ToM в когнитивной науке - это не про "что сказал человек", а про способность предсказать поведение на основе скрытых знаний. Например: ребёнок не знает, что машина не успеет затормозить, а человек на тротуаре это знает. Может ли система смоделировать этот разрыв? Это проверяется не на словах, а в контролируемых тестах, например, false belief task. Там нет места для "философствования" или оправданий вроде "он был в мыслях". Абсолютное большинство людей проходят такие тесты с детства, LLM - нет. Вы уходите в социологию, чтобы не говорить о когнитивном дефекте. Да, люди могут не среагировать, но они понимают, что должно было произойти, а LLM этого не делает. Он генерирует текст, который звучит правильно, но не имеет внутренней модели. Что до "взятия ответственности", когда отвечает LLM, то она ничего не берёт, а просто исполняет. Ответственность - это не семантика, а возможность осознать последствия, признать ошибку, отказаться от выгоды ради правды. Этого у системы нет. И пока мы будем считать, что "сказал красиво - значит, понял", мы не придём к интеллекту. Мы просто создадим "идеального лжеца", которого назовём разумным.

Чтобы подвести черту под этой дискуссией: каждый год проводятся строгие тесты на "теорию разума" (ToM) - для LLM, для гибридных систем, для логических/когнитивных архитектур. И каждый год разработчики LLM сталкиваются с одной и той же проблемой - их системы не понимают ложных убеждений, не моделируют чужое знание, не предсказывают поведение на основе скрытых причин. Вместо того чтобы перестраивать архитектуру, они "хитрят" - добавляют в обучающие данные ответы из проваленных тестов, тонко настраивают промпты, маскируют провал под "интерпретацию". И вот, через год-другой, объявляют: "Мы почти прошли ToM! Это прорыв!". Но это не прорыв - это подгонка. Альтернативные системы: LBS, CESP (Soar, ACT-R и др.) - стабильно проходят те же тесты и без подтасовок, потому что строятся на явной модели мира, логическом выводе, целеполагании. Им не нужно внедрять правильные ответы в ядро - они способны их вывести. Потому что интеллект - это не только память, но и рассуждение.

Если кому-то интересно разобраться глубже, рекомендую начать с работ Ребекки Сакс (Saxe Lab, MIT), Алана Лесли (Leslie, "Theory of Mind in Infancy"), Дугласа Хофштадтера ("Gödel, Escher, Bach"), а также: Яра-Эттингер (Jara-Ettinger, “Theory of Mind in Artificial Agents”), Косинки (Kosinski, “Do Language Models Have Theory of Mind?”), “Cognitive Architectures and the Challenge of General Intelligence” (Langley). И пока одни продолжают усложнять автозаполнение, другие тихо строят то, что однажды действительно сможет сказать: "Я понял".

"If a system can’t represent someone else’s belief, especially when it’s false - then it doesn’t have a theory of mind. No matter how fluent it seems."

"Если система не может представить чужое убеждение, особенно когда оно ложное - значит, у неё нет теории разума и неважно, насколько бегло она говорит."

- Ребекка Сакс, когнитивный нейробиолог, MIT

Я повторюсь, может Вы просмотрели: "Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться."

Вы утверждаете, что базы знаний относятся к ИИ, потому что решают плохо формализуемые задачи, но это путаница. База знаний сама по себе - не ИИ, так же как учебник по алгебре не является математиком. То же и с системами на основе знаний и если они ограничиваются поиском по фактам, то это не проявление интеллекта, а простой доступ к данным. Но когда эти системы встроены в архитектуру, способную к логическому выводу, целеполаганию, обучению в процессе, например - LBS/CESP, тогда мы говорим о когнитивных моделях, которые приближаются к разумному поведению. И да, я нигде не называл их "искусственным интеллектом". Вы же, определяя ИИ через "решение плохо формализуемых задач", фактически включаете в него всё подряд: от чат-бота до автопилота, от экспертной системы до сложного if-else дерева. Но если любая система, выходящая за рамки простого скрипта, становится ИИ, то тогда и компилятор - ИИ, ведь он решает задачу, которую нельзя описать парой условий.

"Неясность формулировок - главный враг научного прогресса. Она позволяет верить в то, что что-то объяснено, тогда как на самом деле лишь названо."

- Карл Р. Поппер, "Логика научного исследования"

Интересное определение - "ИИ решает слабо формализуемые задачи". :D Разница не в степени формализации, а в наличии модели мира, способности к рассуждению, целеполаганию, объяснению. Именно их нет у LLM, даже когда они "решают" неформальные задачи. А системы, которые действительно ближе к интеллекту: Soar, ACT-R, LBS - часто работают с жёстко заданными знаниями, то есть в формализованной среде, но при этом демонстрируют поведение, недоступное любой статистической модели. Значит, проблема не в типе задачи, а в архитектуре. Если университет обучает Вас мыслить так, что замена одного расплывчатого термина другим - это прогресс, то самое время перечитать основания: Тьюринга, Минского, Ньюэлла, Хофштадтера.

Если продолжать внушать людям, что ИИ - это любой инструмент, "решающий задачи, традиционно выполняемые человеком", то скоро и кофеварку начнут называть искусственным интеллектом, ведь она делает то, что раньше делал бариста. По такому же критерию можно назвать ИИ: тостер, автопилот или даже калькулятор. Это не расширение понятия, а его уничтожение. Настоящий искусственный интеллект - это не автоматизация, а система, способная понимать, рассуждать, объяснять, учиться в процессе и признавать ошибки.

"Пока мы заменяем разум имитацией, мы не развиваем ИИ. Мы просто усложняем автозаполнение"

- Гэри Маркус

Не надо использовать "ложную иерархию". Такое представление: AI → ML → DL → GenAI → LLM - удобно для слайдов, но глубоко ошибочно. Да, LLM использует deep learning, а он - machine learning, но это не значит, что весь ИИ сводится к обучению на данных. Существуют логические системы (LBS), когнитивные архитектуры (Soar, ACT-R), символьные модели - все они работают на правилах, выводах, моделировании знаний и при этом, вообще не используют машинное обучение, но они ближе к интеллекту, чем любая LLM.

Особенно тревожно, что статья позиционируется как "для начинающих". Такие упрощения наносят реальный вред - они формируют ложную картину мира, обрезают горизонт, закрывают глаза на десятилетия исследований, не вписывающихся в хайп. Новичкам нельзя давать только одну ветвь истории. Им нужно показывать всё поле: и статистику, и символику, и гибриды, и другие системы, где знания явно задаются. Только тогда, они осознанно смогут выбирать свой путь, а не повторять чужие заблуждения.

Про LLM написано много, а где про ИИ?

Хорошо, пару сотен миллионов лет у меня как раз есть - подождём...

Статья интересна попыткой выйти за пределы инженерной парадигмы и рассмотреть AGI через призму психологии развития и особенно ценно внимание к социализации и формированию внутренних конфликтов. Однако она начинается с ошибки, утверждая, что GPT, diffusion-модели и AlphaZero - это "самый продвинутый AI на сегодня". Автор признаёт их ИИ, хотя ни одна из этих систем не прошла строгих тестов на понимание, ни теста Тьюринга в его истинном смысле (не имитация, а осмысленный диалог), ни базовых задач на теорию разума (ToM). LLM галлюцинируют, не могут отличить ложное убеждение от истины, не имеют модели чужого ума. AlphaZero играет идеально в шахматы, но не знает, что такое доска, фигуры или победа вне игры. Это высочайшее мастерство в узкой области, но не интеллект. Настоящий ИИ должен осознавать факт решения, понимать последствия, моделировать других, а этого нет.

Без желаний - нет конфликта. Без конфликта - нет выбора. А без выбора - нет сознания. Когда система выбирает между "полезно" и "справедливо", она не переживает этот выбор, она просто применяет веса, обученные на примерах. Она не боится быть осуждённой, не страдает от несправедливости, не хочет быть лучше. Она "играет в мораль", как актёр - блестяще, но без души. Настоящее сознание не возникает из количества функций оценки, а из внутренней напряжённости между тем, что ты должен и тем, что ты хочешь. А если ничего не хочешь - ты не можешь быть субъектом, ты - очень умный интерфейс. А пока мы называем автозаполнение и оптимизацию "искусственным интеллектом", мы теряем саму возможность говорить о том, что значит быть разумным.

Поэтому задача создания AGI не в том, чтобы "воспитать" очередную статистическую модель как ребёнка, а в том, что настоящий путь лежит через системы, способные к рассуждению, целеполаганию и пониманию контекста. Именно гибриды, сочетающие логические движки (LBS), когнитивные архитектуры (Soar, ACT-R и др.) и символьное представление знаний, уже сегодня демонстрируют поведение, близкое к прото-интеллекту: они могут объяснить свои решения, планировать, обучаться в процессе и что особенно важно - проходят базовые тесты на теорию разума, например, задачи с ложным убеждением, потому что оперируют явной моделью мира и чужих знаний. Они не галлюцинируют, не зависят от триллионов токенов, не требуют "миллиона" GPU. Они в разы быстрее, сложнее в разработке, но они единственные, кто хоть немного понимает, а не имитирует.

И нельзя забывать, от программиста мало чего зависит. Он не может создать то, что не понимает. А чтобы понять, нужен не просто код, а глубокое знание того, как возникает разум: как формируется модель мира, как появляется намерение, как работает рефлексия. Нужно знать не только алгоритмы, но и нейробиологию, психологию, поведение животных, адаптацию, социальное взаимодействие. Без этого любые попытки "воспитать" ИИ, будут сводиться к подгонке статистики под ожидания, а не к построению системы способной мыслить.

Паттернов гораздо больше и у каждой LLM они свои. Пример взял из одной сгенереной статьи. Проверка показала 87% генерации, но автор в грудь себя бил - "не сгенерено!":

  1. Отчасти соглашусь с "длинным тире". Но почему так?! Я готовлю материал/комментарий в Notepad++ и когда "копипащу" на Хабр, то из коротких получаю длинные;

  2. Один из маркеров генерации - не знает правил русского языка: "вопросов — но никогда...", "...вопросов — которые задаю...", " способ: подсказать, что...".

  3. Некоторые слова стоят не там, где должны быть, не так, как это пишет/произносит русскоговорящий, зато по правилам английского;

  4. "...функцию DoClean так никто..." - изменение стиля, при этом стиль может больше нигде не менятся;

  5. Очень часто используются "...« »...", а не " " " и также часто встречается такая структура "... слово:, -другое"

  6. и т.д. т.д. т.д

Вы правы в том, что термин "искусственный интеллект" действительно восходит к 1956 году и изначально обозначал попытку формализовать человеческие когнитивные способности: обучение, рассуждение, принятие решений. Но тогда это были математические гипотезы, логические модели и скромные алгоритмы, построенные на понимании, что ИИ - это система, способная к пониманию, а не к предсказанию. К 1980-м годам, с появлением первых персональных компьютеров и экспертных систем, стало ясно: настоящий ИИ должен обладать моделью мира, объяснять свои решения и адаптироваться. Именно тогда и начались серьёзные дебаты о границах: можно ли назвать ИИ то, что просто выполняет правила? Ответ был осторожным - только если система демонстрирует признаки разума, а не имитации.

Сегодня технологии ушли вперёд, но смысл термина "ИИ" не уточнился и он был "растянут" до бессмысленности. Когда мы называем LLM "искусственным интеллектом", мы стираем грань между автономной, рассуждающей, самокорректирующейся системой и статистическим анализатором, который генерирует текст на основе "триллионов примеров". Настоящий ИИ - это не программа, которая отвечает на запрос, а система, которая может задать вопрос сама, осознать пробел в знаниях, перестроить модель мира и предложить решение, которого не было в данных. До этого уровня LLM не дотягивают. И пока мы продолжаем называть их ИИ, мы не просто вводим в заблуждение, мы замедляем развитие настоящего "интеллектуального программирования", потому что начинаем считать, что уже достигли цели.

P.S.: Было бы очень интересно, если Вы не против - не могли бы Вы кратко перечислить все современные "разновидности ИИ"? Просто чтобы я, наконец, вошёл в курс дела.

Как только перестанут врать и называть LLM - "ИИ" и станут называть свои настоящим именем, а именно статистический анализатор с генерацией данных, может ситуация и улучшится.

Так оно изюмительно работает, так как изначально строилось вокруг онтологии, особенностей того или иного языка, контекста и смыслов. Я думал что может есть еще прорывы в переводах, оказалось нет. То есть, получается в мире только немного качественных переводчиков, включая наш :( Печалька

Информация

В рейтинге
595-й
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust