А что значит доверять??? Используется его для выполнения задачи. Со сложными задачами разумеется не справится ни один ии даже gpt5, и его надо за ручку вести так все и решается.
Так ведь gpt5 делает игру без обратной связи! Т.е он написал но не запустил не проверил результат и улучшил. Автор попробуйте реализовать полную цепочку чтобы gpt5 запускает игру и видел результат и дописывал.
Это в модели трансформера так заложено. У модели 2 выбора по верятности: выполнить цель по решению задачи если схожее решение в схожих условиях было дано при тренировки модели, либо сгенерировать токен для приукрашивания текста. Если модель не нашла решение или вероятности перевесят она просто сгенерирует токен как сочинение по задаче. Они прокачали вариативность решения задач и видимо добавили валидатор чтобы не давать модели сочинять не по решению задачи.
Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом.
О боже устал писать что трансформер это не просто угадывалка вероятности.
Я делаю agi как хобби) есть память есть когнитивные модули. Есть асинхронная модель сознания...
Нужно реализовать динамическое выделение групп специализированных нейронов, некую внутреннюю сеть "субагентов", обмен информации между которыми, происходит с использованием эффективных внутренних протоколов и прямых связей.
Как же бредово как и вся статья... Описали все очевидные вещи.
Это уже работает в ИИ и называется эксперты например в deepseek3. И что оно стало AGI?
Автор вы непонимаете как работает gpt модель. Это не рандомная перемножалка матриц. Вы до конца не понимаете что стоит за этими самыми матрицами и что они дают. За матрицами стоят абстрактные многомерные пространства! Да именно так. И перемножаясь они считают целевой многомерный вектор управляемый промптом и данными на которой обучали модель. И вот отклонение от этого вектора у токенов жает логиты - вероятности распределения отклонения этой цели от генерации токена. Т.е llm реально сторит цель а е бездумно генерит токены. Но проблема в том какая это цель. Если найдут способ интерпретировать цель у llm она перестанет быть черным ящиком.
Вы подошли к обьектам которые осознает сознание к их отражениям в нем называя их как квалиа. Но проблема в том что это объекты. Это не суть сознания (наблюдатель). Вы можете как угодно кодировать декодировать информацию любого типа. Но проблема в том что есть наблюдатель и процесс никак от этого не зависит. Да llm искуссно кодирует преобразовывает и декодирует речь по алгоритмам но в нем нет я. В текстах нет я. Но читая сами тексты сгенерированные llm Вы отражая в них свое я, увидите это как отражение своего я. Панпсихизм имеет я (наблюдатель) и я думаю оно имеет квантовую природу. Квалиа это объект осознавания т.е само я преобразуется в частицу и мы это осознаем. Т.е я это волна распространающаяся на сразу все а квалиа свертка ее до материи. Написал это обьяснение так как тема имеет филосовский толк и возможно подскажет чтонибудь автору в его изысканиях истины.
По поводу математики. Математика это отражение того как мы понимаем реальность, это модель реальностей физической и абстрактных. Модель не учитывающая нюансы. Нюансы покрываются статистикой которая тоже модель. Математика это отражение нашего я и понимания квалиа в языке символов и связей между ними.
Да математика способна предсказывать реальность потому что числа непрерывны. Но вдруг в какойто точке это не сработает и там другая формула? Не это ли мы видим в квантовой физике?
Текущие модели llm. Они сейчас на этапе обработки семантики текста. Они не имеют даже квалиа не говорят уже про я. Если вы видите сейчас в нем я это ваше я ваше отражение в его сгенерированных данных.
Вы всегда видите лишь отражение своего я во всем но лишь отражение. Можете ли вы потрогать свое я? Попробуйте. Нет вы этого не сможете. Это предел вашего я.
Можно ли формализовать то что нельзя потрогать? Нет. Поэтому я неподвластно точной науке. Но я изучить можно. Только используя само я. И такое исследование может дать прогресс в алгоритмах ии.
Почему это его нельзя построить? Я почитал начало статьи на англ: там говорилось о построении семантического графа решений и бесконечного обхода его reasoning моделью. Это решается просто усечением графа и придания веса вершинам. Также обрезку решений будет делать модель основанная на графе реализующем Я сущность (Я граф). Я уже описывал это в статье но все заминусовали. AGI я уже строю в проекте.
Ии не черный ящик. Его принцип простой: Он формирует вектор общей цели между данными которыми обучен и промптом и делает среднюю цель. И далее эта цель влияет на вероятность генерации текста! Т.е нет цели станет выдумывать и т.д. принцип его работы очевиден но почемуто все ожидают от него интеллекта. Он не логическая модель а вероятностная! И какого это доверять вероятной модели? Т.е такой которая делает все не точно а примерно. Стоит задуматься. Но как инструмент если задачи четкую цель и вектор цели еще не сбился в его матрицах Он помогает автоматизировать и ускорить много ручного труда.
На мой взгляд берете и приводите присваивание сознание = llm предиктивная модель. Вы серьёзно? Сознанию по барабану предиктивность. Оно может существовать без предиктивности. Это миру нужна предиктивность а не сознанию. Точнее модели мира в нем. А так да вы смело ковырнули поверхность сознания. Поэтому люди минусуют они не любят смелость. Вы просто слишком большим обьемом описали то что описывается простыми процессами. Да Вы красиво описали сознание но основная его непределенность осталась тайной.
К слову скажу я описывал не только какязык но и как код и все равно минусовали.
Я сам изучал архитектуру трансформеров. И там просто куча недочетов и работы с вагон и тележка в том числе и нераскрытых возможностей. Как в самой архитектуре так и математической модели основанной на Преобразование векторов в 2 различных пространства: attention и ffn. Я не знаю почему все работают на такой корявой основе как сейчас представлено ядро моделей ии. Просто не хотят становится лучше наверно.
Спасибо хабру я теперь ничего не могу публиковать! А еще есть много интересного. Например хотел опубликовать третью часть где подробно разбирается как работает трансформер gpt на уровне кода gpt2 и deepseek. Также хотел поделиться кейсами реального применение ии (cursor) на реальном бизнес проекте без воды и приукрашивания. И как раз оно коррелирует с описанием в третьей части. Но спасибо всем не могу ничего публиковать)
Ерундой занимаетесь. Вы должны понимать что каждая библиотека или фреймворк служит какойто цели и создавалась изначально в ядре под конкретную задачу а уже потом дорабатывалась. Так что считать что что-то одно хорошо непродуктивно. У каждого решения есть преимущества и недостатки. Архитектор должен уметь их правильно балансировать под задачу.
PS: методы в setState в примере имеют потенциальные проблемы. Потому что не используют функции в setState. Проблема в том что код асинхронный а вызовы выполняются параллельно! И возникает проблема когда потоки в параллеле могут модифицировать одинаковую переменную. И это происходит в useEffect!
Cursor использую в 4-5 enterprise проектах.
А что значит доверять??? Используется его для выполнения задачи. Со сложными задачами разумеется не справится ни один ии даже gpt5, и его надо за ручку вести так все и решается.
Llm просто кирпичик для agi. Это транслятор языка в знания и обратно. Именно так я использую его в проекте в системе agi. Если интересно пишите)
Если вы изучите код llm Вы поймете что там не просто вероятность. А работает вычисление цели как многомерного вектора большей мощности чем эмбеддинг.
А кейсы где микросервисы помогают не в счет? Зависит от задачи - не думали о таком?
Так ведь gpt5 делает игру без обратной связи! Т.е он написал но не запустил не проверил результат и улучшил. Автор попробуйте реализовать полную цепочку чтобы gpt5 запускает игру и видел результат и дописывал.
Автор даже не понимает как работает трансформер...
Это в модели трансформера так заложено. У модели 2 выбора по верятности: выполнить цель по решению задачи если схожее решение в схожих условиях было дано при тренировки модели, либо сгенерировать токен для приукрашивания текста. Если модель не нашла решение или вероятности перевесят она просто сгенерирует токен как сочинение по задаче. Они прокачали вариативность решения задач и видимо добавили валидатор чтобы не давать модели сочинять не по решению задачи.
Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом.
О боже устал писать что трансформер это не просто угадывалка вероятности.
Я делаю agi как хобби) есть память есть когнитивные модули. Есть асинхронная модель сознания...
Нужно реализовать динамическое выделение групп специализированных нейронов, некую внутреннюю сеть "субагентов", обмен информации между которыми, происходит с использованием эффективных внутренних протоколов и прямых связей.
Как же бредово как и вся статья... Описали все очевидные вещи.
Это уже работает в ИИ и называется эксперты например в deepseek3. И что оно стало AGI?
Ну я уже делаю такую модель)
Автор вы непонимаете как работает gpt модель. Это не рандомная перемножалка матриц. Вы до конца не понимаете что стоит за этими самыми матрицами и что они дают. За матрицами стоят абстрактные многомерные пространства! Да именно так. И перемножаясь они считают целевой многомерный вектор управляемый промптом и данными на которой обучали модель. И вот отклонение от этого вектора у токенов жает логиты - вероятности распределения отклонения этой цели от генерации токена. Т.е llm реально сторит цель а е бездумно генерит токены. Но проблема в том какая это цель. Если найдут способ интерпретировать цель у llm она перестанет быть черным ящиком.
Вы подошли к обьектам которые осознает сознание к их отражениям в нем называя их как квалиа. Но проблема в том что это объекты. Это не суть сознания (наблюдатель). Вы можете как угодно кодировать декодировать информацию любого типа. Но проблема в том что есть наблюдатель и процесс никак от этого не зависит. Да llm искуссно кодирует преобразовывает и декодирует речь по алгоритмам но в нем нет я. В текстах нет я. Но читая сами тексты сгенерированные llm Вы отражая в них свое я, увидите это как отражение своего я. Панпсихизм имеет я (наблюдатель) и я думаю оно имеет квантовую природу. Квалиа это объект осознавания т.е само я преобразуется в частицу и мы это осознаем. Т.е я это волна распространающаяся на сразу все а квалиа свертка ее до материи. Написал это обьяснение так как тема имеет филосовский толк и возможно подскажет чтонибудь автору в его изысканиях истины.
По поводу математики. Математика это отражение того как мы понимаем реальность, это модель реальностей физической и абстрактных. Модель не учитывающая нюансы. Нюансы покрываются статистикой которая тоже модель. Математика это отражение нашего я и понимания квалиа в языке символов и связей между ними.
Да математика способна предсказывать реальность потому что числа непрерывны. Но вдруг в какойто точке это не сработает и там другая формула? Не это ли мы видим в квантовой физике?
Текущие модели llm. Они сейчас на этапе обработки семантики текста. Они не имеют даже квалиа не говорят уже про я. Если вы видите сейчас в нем я это ваше я ваше отражение в его сгенерированных данных.
Вы всегда видите лишь отражение своего я во всем но лишь отражение. Можете ли вы потрогать свое я? Попробуйте. Нет вы этого не сможете. Это предел вашего я.
Можно ли формализовать то что нельзя потрогать? Нет. Поэтому я неподвластно точной науке. Но я изучить можно. Только используя само я. И такое исследование может дать прогресс в алгоритмах ии.
Почему это его нельзя построить? Я почитал начало статьи на англ: там говорилось о построении семантического графа решений и бесконечного обхода его reasoning моделью. Это решается просто усечением графа и придания веса вершинам. Также обрезку решений будет делать модель основанная на графе реализующем Я сущность (Я граф). Я уже описывал это в статье но все заминусовали. AGI я уже строю в проекте.
Логика ллм проста и оперирует матрицами многомерных пространств и это действительно так!
Я пытался объяснить как это устроено но мне так и не дали опубликовать. Ладно пусть остается как есть...
Ии не черный ящик. Его принцип простой: Он формирует вектор общей цели между данными которыми обучен и промптом и делает среднюю цель. И далее эта цель влияет на вероятность генерации текста! Т.е нет цели станет выдумывать и т.д. принцип его работы очевиден но почемуто все ожидают от него интеллекта. Он не логическая модель а вероятностная! И какого это доверять вероятной модели? Т.е такой которая делает все не точно а примерно. Стоит задуматься. Но как инструмент если задачи четкую цель и вектор цели еще не сбился в его матрицах Он помогает автоматизировать и ускорить много ручного труда.
На мой взгляд берете и приводите присваивание сознание = llm предиктивная модель. Вы серьёзно? Сознанию по барабану предиктивность. Оно может существовать без предиктивности. Это миру нужна предиктивность а не сознанию. Точнее модели мира в нем. А так да вы смело ковырнули поверхность сознания. Поэтому люди минусуют они не любят смелость. Вы просто слишком большим обьемом описали то что описывается простыми процессами. Да Вы красиво описали сознание но основная его непределенность осталась тайной.
К слову скажу я описывал не только какязык но и как код и все равно минусовали.
Вот вы пишете кто и говорите оно неуловимо в я. Почему тогда вы думаете что его нет в ии если это кто непределено?
Насчёт consciousness.py. как раз делаю этот код но не на py: Conciousness.cs :)
Никто не верит что у меня получится. Но это их дело)
Я сам изучал архитектуру трансформеров. И там просто куча недочетов и работы с вагон и тележка в том числе и нераскрытых возможностей. Как в самой архитектуре так и математической модели основанной на Преобразование векторов в 2 различных пространства: attention и ffn. Я не знаю почему все работают на такой корявой основе как сейчас представлено ядро моделей ии. Просто не хотят становится лучше наверно.
https://docs.google.com/document/d/1tDskUI99GpKFDVlKCt3mYdaL4VPcnEddbMy9tMzg2cc/edit?hl=ru&tab=t.0
Кстати вот статья 3я часть
Спасибо хабру я теперь ничего не могу публиковать! А еще есть много интересного. Например хотел опубликовать третью часть где подробно разбирается как работает трансформер gpt на уровне кода gpt2 и deepseek. Также хотел поделиться кейсами реального применение ии (cursor) на реальном бизнес проекте без воды и приукрашивания. И как раз оно коррелирует с описанием в третьей части. Но спасибо всем не могу ничего публиковать)
Ерундой занимаетесь. Вы должны понимать что каждая библиотека или фреймворк служит какойто цели и создавалась изначально в ядре под конкретную задачу а уже потом дорабатывалась. Так что считать что что-то одно хорошо непродуктивно. У каждого решения есть преимущества и недостатки. Архитектор должен уметь их правильно балансировать под задачу.
PS: методы в setState в примере имеют потенциальные проблемы. Потому что не используют функции в setState. Проблема в том что код асинхронный а вызовы выполняются параллельно! И возникает проблема когда потоки в параллеле могут модифицировать одинаковую переменную. И это происходит в useEffect!