All streams
Search
Write a publication
Pull to refresh
13
5.5

User

Send message

А при чём тут AGI? Это тесты именно для ИИ. Для AGI нужен ещё тест ARC + вышеперечисленные

Давайте я Вам повторю цитату, которую давал в другом комменте

"Удивительно, что кто-то считает, будто недавние успехи статистических языковых моделей имеют хоть какое-то отношение к интеллекту или даже к лингвистике"

- Ноам Хомски

Если у Вас есть ИИ, то значит система прошла строгие тесты Тьюринга и ToM?

"Удивительно, что кто-то считает, будто недавние успехи статистических языковых моделей имеют хоть какое-то отношение к интеллекту или даже к лингвистике"

- Ноам Хомски

Вы сравниваете LLM и нашу систему как два модуля будущего ИИ, но это ошибка. Мы не строим слои для гибрида с автозаполнением, это полная его замена - альтернатива.

Как я говорил в другом комменте: "... Лично для меня, ЛЛМка нужна чтобы генерить "с`котикафф" и "собачкафф", на Большее - она не способна..." - нет модели мира, нет понимания, нет рассуждений, ничего нет.

Наша система, она полностью автономна, очень быстро работает, ответы генерируются от 1.3 сек. до 3.2 сек. Ей не нужны "тысячи" GPU - подойдёт любой среднестатистический компьютер с памятью не менее 6 Гб и большим объёмом SSD/HDD. Лично у меня видяшка NVidia 2060 Super, хватает и поиграть и поработать. Памяти (RAM) у меня 128 Гб на борту и 22 Гб из них выделено под гибрида (ему в этой "области" хорошо "живется" и ничему не мешает) + 2 Tb SSD/6 Tb HDD - это под гибрида.

Давайте сравним цену NVIDIA H100 OEM 96GB HBM3 - 2 598 700 руб (взял из Сети) и мой комп за <250 000 руб.

Обучение у нас происходит в "реальном режиме" и точечно - если нужно добавить/изменить "знания", то мы не "пересобираем датасет" (его просто не существует), не дообучаем миллиарды параметров, а корректируем одну/несколько логических веток . Через "пару" минут исправлений/обучения и система полностью готова к работе. "Контекстное окно" настолько большое, насколько у вас хватает памяти и SSD. А какое окно у самых "крутых и последних" LLM моделей? - маленькое.

Это разумный отказ от бессмысленного масштабирования в пользу осмысленной архитектуры. Мы не ждём, когда LLM "оживёт" и не ищем "жизнь в статистике" - это дорого и бессмысленно.

"Нам не нужны более крупные модели. Нам нужны лучшие архитектуры - системы, которые понимают мир, а не просто имитируют его"

- Гэри Маркус

Сообщения о том, что ИИ "исчерпал данные", звучат так, будто весь интернет - это бочка мёда, которую случайно съели до дна, а теперь пчёлы в панике. Но дело не в количестве данных, их океан, люди их накапливали столетиями. Проблема не в "голоде", а в "аппетите". Мы продолжаем кормить LLM всё более "жирным цифровым фастфудом", надеясь, что из автозаполнения родится интеллект. На самом деле, данных хватит ещё на много жизней, если бы мы умели с ними работать. Вместо того чтобы генерировать синтетический мусор, можно было бы, например, строить системы, которые понимают, а не имитируют, используют онтологии, логические правила, модели мира - превращают данные в знания. Но пока мы считаем, что "больше текста = умнее модель", то мы никогда не исчерпаем данные, но быстро исчерпаем смысл.

Вы говорите, что не являетесь специалистом, но сразу же берёте на себя "роль исследователя", сравнивая людей и ИИ, по способности "брать ответственность" или "понимать другого". Однако вы не задаёте главный вопрос: чем измерить это понимание? ToM в когнитивной науке - это не про "что сказал человек", а про способность предсказать поведение на основе скрытых знаний. Например: ребёнок не знает, что машина не успеет затормозить, а человек на тротуаре это знает. Может ли система смоделировать этот разрыв? Это проверяется не на словах, а в контролируемых тестах, например, false belief task. Там нет места для "философствования" или оправданий вроде "он был в мыслях". Абсолютное большинство людей проходят такие тесты с детства, LLM - нет. Вы уходите в социологию, чтобы не говорить о когнитивном дефекте. Да, люди могут не среагировать, но они понимают, что должно было произойти, а LLM этого не делает. Он генерирует текст, который звучит правильно, но не имеет внутренней модели. Что до "взятия ответственности", когда отвечает LLM, то она ничего не берёт, а просто исполняет. Ответственность - это не семантика, а возможность осознать последствия, признать ошибку, отказаться от выгоды ради правды. Этого у системы нет. И пока мы будем считать, что "сказал красиво - значит, понял", мы не придём к интеллекту. Мы просто создадим "идеального лжеца", которого назовём разумным.

Чтобы подвести черту под этой дискуссией: каждый год проводятся строгие тесты на "теорию разума" (ToM) - для LLM, для гибридных систем, для логических/когнитивных архитектур. И каждый год разработчики LLM сталкиваются с одной и той же проблемой - их системы не понимают ложных убеждений, не моделируют чужое знание, не предсказывают поведение на основе скрытых причин. Вместо того чтобы перестраивать архитектуру, они "хитрят" - добавляют в обучающие данные ответы из проваленных тестов, тонко настраивают промпты, маскируют провал под "интерпретацию". И вот, через год-другой, объявляют: "Мы почти прошли ToM! Это прорыв!". Но это не прорыв - это подгонка. Альтернативные системы: LBS, CESP (Soar, ACT-R и др.) - стабильно проходят те же тесты и без подтасовок, потому что строятся на явной модели мира, логическом выводе, целеполагании. Им не нужно внедрять правильные ответы в ядро - они способны их вывести. Потому что интеллект - это не только память, но и рассуждение.

Если кому-то интересно разобраться глубже, рекомендую начать с работ Ребекки Сакс (Saxe Lab, MIT), Алана Лесли (Leslie, "Theory of Mind in Infancy"), Дугласа Хофштадтера ("Gödel, Escher, Bach"), а также: Яра-Эттингер (Jara-Ettinger, “Theory of Mind in Artificial Agents”), Косинки (Kosinski, “Do Language Models Have Theory of Mind?”), “Cognitive Architectures and the Challenge of General Intelligence” (Langley). И пока одни продолжают усложнять автозаполнение, другие тихо строят то, что однажды действительно сможет сказать: "Я понял".

"If a system can’t represent someone else’s belief, especially when it’s false - then it doesn’t have a theory of mind. No matter how fluent it seems."

"Если система не может представить чужое убеждение, особенно когда оно ложное - значит, у неё нет теории разума и неважно, насколько бегло она говорит."

- Ребекка Сакс, когнитивный нейробиолог, MIT

Я повторюсь, может Вы просмотрели: "Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться."

Вы утверждаете, что базы знаний относятся к ИИ, потому что решают плохо формализуемые задачи, но это путаница. База знаний сама по себе - не ИИ, так же как учебник по алгебре не является математиком. То же и с системами на основе знаний и если они ограничиваются поиском по фактам, то это не проявление интеллекта, а простой доступ к данным. Но когда эти системы встроены в архитектуру, способную к логическому выводу, целеполаганию, обучению в процессе, например - LBS/CESP, тогда мы говорим о когнитивных моделях, которые приближаются к разумному поведению. И да, я нигде не называл их "искусственным интеллектом". Вы же, определяя ИИ через "решение плохо формализуемых задач", фактически включаете в него всё подряд: от чат-бота до автопилота, от экспертной системы до сложного if-else дерева. Но если любая система, выходящая за рамки простого скрипта, становится ИИ, то тогда и компилятор - ИИ, ведь он решает задачу, которую нельзя описать парой условий.

"Неясность формулировок - главный враг научного прогресса. Она позволяет верить в то, что что-то объяснено, тогда как на самом деле лишь названо."

- Карл Р. Поппер, "Логика научного исследования"

Интересное определение - "ИИ решает слабо формализуемые задачи". :D Разница не в степени формализации, а в наличии модели мира, способности к рассуждению, целеполаганию, объяснению. Именно их нет у LLM, даже когда они "решают" неформальные задачи. А системы, которые действительно ближе к интеллекту: Soar, ACT-R, LBS - часто работают с жёстко заданными знаниями, то есть в формализованной среде, но при этом демонстрируют поведение, недоступное любой статистической модели. Значит, проблема не в типе задачи, а в архитектуре. Если университет обучает Вас мыслить так, что замена одного расплывчатого термина другим - это прогресс, то самое время перечитать основания: Тьюринга, Минского, Ньюэлла, Хофштадтера.

Если продолжать внушать людям, что ИИ - это любой инструмент, "решающий задачи, традиционно выполняемые человеком", то скоро и кофеварку начнут называть искусственным интеллектом, ведь она делает то, что раньше делал бариста. По такому же критерию можно назвать ИИ: тостер, автопилот или даже калькулятор. Это не расширение понятия, а его уничтожение. Настоящий искусственный интеллект - это не автоматизация, а система, способная понимать, рассуждать, объяснять, учиться в процессе и признавать ошибки.

"Пока мы заменяем разум имитацией, мы не развиваем ИИ. Мы просто усложняем автозаполнение"

- Гэри Маркус

Не надо использовать "ложную иерархию". Такое представление: AI → ML → DL → GenAI → LLM - удобно для слайдов, но глубоко ошибочно. Да, LLM использует deep learning, а он - machine learning, но это не значит, что весь ИИ сводится к обучению на данных. Существуют логические системы (LBS), когнитивные архитектуры (Soar, ACT-R), символьные модели - все они работают на правилах, выводах, моделировании знаний и при этом, вообще не используют машинное обучение, но они ближе к интеллекту, чем любая LLM.

Особенно тревожно, что статья позиционируется как "для начинающих". Такие упрощения наносят реальный вред - они формируют ложную картину мира, обрезают горизонт, закрывают глаза на десятилетия исследований, не вписывающихся в хайп. Новичкам нельзя давать только одну ветвь истории. Им нужно показывать всё поле: и статистику, и символику, и гибриды, и другие системы, где знания явно задаются. Только тогда, они осознанно смогут выбирать свой путь, а не повторять чужие заблуждения.

Про LLM написано много, а где про ИИ?

Хорошо, пару сотен миллионов лет у меня как раз есть - подождём...

Статья интересна попыткой выйти за пределы инженерной парадигмы и рассмотреть AGI через призму психологии развития и особенно ценно внимание к социализации и формированию внутренних конфликтов. Однако она начинается с ошибки, утверждая, что GPT, diffusion-модели и AlphaZero - это "самый продвинутый AI на сегодня". Автор признаёт их ИИ, хотя ни одна из этих систем не прошла строгих тестов на понимание, ни теста Тьюринга в его истинном смысле (не имитация, а осмысленный диалог), ни базовых задач на теорию разума (ToM). LLM галлюцинируют, не могут отличить ложное убеждение от истины, не имеют модели чужого ума. AlphaZero играет идеально в шахматы, но не знает, что такое доска, фигуры или победа вне игры. Это высочайшее мастерство в узкой области, но не интеллект. Настоящий ИИ должен осознавать факт решения, понимать последствия, моделировать других, а этого нет.

Без желаний - нет конфликта. Без конфликта - нет выбора. А без выбора - нет сознания. Когда система выбирает между "полезно" и "справедливо", она не переживает этот выбор, она просто применяет веса, обученные на примерах. Она не боится быть осуждённой, не страдает от несправедливости, не хочет быть лучше. Она "играет в мораль", как актёр - блестяще, но без души. Настоящее сознание не возникает из количества функций оценки, а из внутренней напряжённости между тем, что ты должен и тем, что ты хочешь. А если ничего не хочешь - ты не можешь быть субъектом, ты - очень умный интерфейс. А пока мы называем автозаполнение и оптимизацию "искусственным интеллектом", мы теряем саму возможность говорить о том, что значит быть разумным.

Поэтому задача создания AGI не в том, чтобы "воспитать" очередную статистическую модель как ребёнка, а в том, что настоящий путь лежит через системы, способные к рассуждению, целеполаганию и пониманию контекста. Именно гибриды, сочетающие логические движки (LBS), когнитивные архитектуры (Soar, ACT-R и др.) и символьное представление знаний, уже сегодня демонстрируют поведение, близкое к прото-интеллекту: они могут объяснить свои решения, планировать, обучаться в процессе и что особенно важно - проходят базовые тесты на теорию разума, например, задачи с ложным убеждением, потому что оперируют явной моделью мира и чужих знаний. Они не галлюцинируют, не зависят от триллионов токенов, не требуют "миллиона" GPU. Они в разы быстрее, сложнее в разработке, но они единственные, кто хоть немного понимает, а не имитирует.

И нельзя забывать, от программиста мало чего зависит. Он не может создать то, что не понимает. А чтобы понять, нужен не просто код, а глубокое знание того, как возникает разум: как формируется модель мира, как появляется намерение, как работает рефлексия. Нужно знать не только алгоритмы, но и нейробиологию, психологию, поведение животных, адаптацию, социальное взаимодействие. Без этого любые попытки "воспитать" ИИ, будут сводиться к подгонке статистики под ожидания, а не к построению системы способной мыслить.

Паттернов гораздо больше и у каждой LLM они свои. Пример взял из одной сгенереной статьи. Проверка показала 87% генерации, но автор в грудь себя бил - "не сгенерено!":

  1. Отчасти соглашусь с "длинным тире". Но почему так?! Я готовлю материал/комментарий в Notepad++ и когда "копипащу" на Хабр, то из коротких получаю длинные;

  2. Один из маркеров генерации - не знает правил русского языка: "вопросов — но никогда...", "...вопросов — которые задаю...", " способ: подсказать, что...".

  3. Некоторые слова стоят не там, где должны быть, не так, как это пишет/произносит русскоговорящий, зато по правилам английского;

  4. "...функцию DoClean так никто..." - изменение стиля, при этом стиль может больше нигде не менятся;

  5. Очень часто используются "...« »...", а не " " " и также часто встречается такая структура "... слово:, -другое"

  6. и т.д. т.д. т.д

Вы правы в том, что термин "искусственный интеллект" действительно восходит к 1956 году и изначально обозначал попытку формализовать человеческие когнитивные способности: обучение, рассуждение, принятие решений. Но тогда это были математические гипотезы, логические модели и скромные алгоритмы, построенные на понимании, что ИИ - это система, способная к пониманию, а не к предсказанию. К 1980-м годам, с появлением первых персональных компьютеров и экспертных систем, стало ясно: настоящий ИИ должен обладать моделью мира, объяснять свои решения и адаптироваться. Именно тогда и начались серьёзные дебаты о границах: можно ли назвать ИИ то, что просто выполняет правила? Ответ был осторожным - только если система демонстрирует признаки разума, а не имитации.

Сегодня технологии ушли вперёд, но смысл термина "ИИ" не уточнился и он был "растянут" до бессмысленности. Когда мы называем LLM "искусственным интеллектом", мы стираем грань между автономной, рассуждающей, самокорректирующейся системой и статистическим анализатором, который генерирует текст на основе "триллионов примеров". Настоящий ИИ - это не программа, которая отвечает на запрос, а система, которая может задать вопрос сама, осознать пробел в знаниях, перестроить модель мира и предложить решение, которого не было в данных. До этого уровня LLM не дотягивают. И пока мы продолжаем называть их ИИ, мы не просто вводим в заблуждение, мы замедляем развитие настоящего "интеллектуального программирования", потому что начинаем считать, что уже достигли цели.

P.S.: Было бы очень интересно, если Вы не против - не могли бы Вы кратко перечислить все современные "разновидности ИИ"? Просто чтобы я, наконец, вошёл в курс дела.

Как только перестанут врать и называть LLM - "ИИ" и станут называть свои настоящим именем, а именно статистический анализатор с генерацией данных, может ситуация и улучшится.

Так оно изюмительно работает, так как изначально строилось вокруг онтологии, особенностей того или иного языка, контекста и смыслов. Я думал что может есть еще прорывы в переводах, оказалось нет. То есть, получается в мире только немного качественных переводчиков, включая наш :( Печалька

Всё должно было вернуться к исходному варианту

6 вариантов написания в русском языке предложения "Я люблю тебя" - и каждая имеет свою смысловую и эмоциональную нагрузку, с точки зрения онтолдогии

  1. В нормальной, научной среде, использовать солово ГенИИ - моветон;

  2. И что дальше? Сами вектора что с ними делать?! Они никак не связаны между собой. Вот логические/когнитивные цепочки - они связаны, но только в альтернативных системах.

Как Вы понимаете - это неверный перевод, потеря смысла и эмоций

1
23 ...

Information

Rating
922-nd
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity

Specialization

Game Developer, Real AI Developer
Lead
From 150,000 ₽
C#
.NET
Designing application architecture
Creating project architecture
Software development
Visual Studio
C++
C
Assembler
Rust