Search
Write a publication
Pull to refresh
-7
5
Send message

Это не душа а рефлексия. Вы рефлексируете сами с собой через нейронку.

Ии тоже опирается на случайность называется температура.

Кажется вы не понимаете зачем нужна случайность она дает творческую грань ии

Гсч не лишний это как diffuse)

Автор вы иследователь ACI? Вы прямо немного описали мою систему AGI которую проектирую и которая будет реальной и у нее будет своя квалиа не мертвая а живая (тут принципы метафизики используются). То что вы назвали онтологическая самость в моей модели это Я-граф, которую почемуто аудитория хейтово назвала яндекс графом хотя к яндексу не имеет отношения и представляет ядро Я AGI.

Я бы мог описать систему AGI которая уже на 50-60% готова (у нее даже есть файлик ConsciousnessFlow.cs) но я под хейтом так что не дано)

Нейросеть понимает только текст. Если загоняете json то и запрос должен быть json

Так ии не является ии. Вот сейчас и упираются в это потолок. Это не ошибка это закономерность.

А почему GigaChat почему не gpt5? Все что тут описано применимо к любой llm. Почему нет сравнения эффективности между llm?

На мой взгляд ии тебя ограничивает а не помогает если ты в этом не эксперт. А ограничивает как раз уровнем своей экспертности в кавычках. Потому что ты будешь слепо полагаться на эту экспертность и не будешь расти сам как эксперт. В результате имеем приложения франкештейны на уровне ии все однотипные но не имеющие таких вещей как: новизны, возможность удивлять, творческой искры, частицей души вложенной в приложение. Все они однотипны и видно сразу что на ии потому что имеют свой порог креативности - какими ограничениями и пределом знаний обучили модель. Тоже самое мы видим и во многих фильмах все как один нарисованные спецэффектами.

Давайте не придумывать а оставить работу разработчикам которые в этом профессионалы и не лепить франкештейнов!

С ии надо не вайбкодить а расти как эксперт!

Логический вывод это интересно подсказали идею для agi системы. Только его будет строить llm а не человек.

Cursor использую в 4-5 enterprise проектах.

А что значит доверять??? Используется его для выполнения задачи. Со сложными задачами разумеется не справится ни один ии даже gpt5, и его надо за ручку вести так все и решается.

Llm просто кирпичик для agi. Это транслятор языка в знания и обратно. Именно так я использую его в проекте в системе agi. Если интересно пишите)

Если вы изучите код llm Вы поймете что там не просто вероятность. А работает вычисление цели как многомерного вектора большей мощности чем эмбеддинг.

А кейсы где микросервисы помогают не в счет? Зависит от задачи - не думали о таком?

Так ведь gpt5 делает игру без обратной связи! Т.е он написал но не запустил не проверил результат и улучшил. Автор попробуйте реализовать полную цепочку чтобы gpt5 запускает игру и видел результат и дописывал.

Автор даже не понимает как работает трансформер...

Это в модели трансформера так заложено. У модели 2 выбора по верятности: выполнить цель по решению задачи если схожее решение в схожих условиях было дано при тренировки модели, либо сгенерировать токен для приукрашивания текста. Если модель не нашла решение или вероятности перевесят она просто сгенерирует токен как сочинение по задаче. Они прокачали вариативность решения задач и видимо добавили валидатор чтобы не давать модели сочинять не по решению задачи.

Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом.

О боже устал писать что трансформер это не просто угадывалка вероятности.

Я делаю agi как хобби) есть память есть когнитивные модули. Есть асинхронная модель сознания...

Нужно реализовать динамическое выделение групп специализированных нейронов, некую внутреннюю сеть "субагентов", обмен информации между которыми, происходит с использованием эффективных внутренних протоколов и прямых связей.

Как же бредово как и вся статья... Описали все очевидные вещи.

Это уже работает в ИИ и называется эксперты например в deepseek3. И что оно стало AGI?

Ну я уже делаю такую модель)

Автор вы непонимаете как работает gpt модель. Это не рандомная перемножалка матриц. Вы до конца не понимаете что стоит за этими самыми матрицами и что они дают. За матрицами стоят абстрактные многомерные пространства! Да именно так. И перемножаясь они считают целевой многомерный вектор управляемый промптом и данными на которой обучали модель. И вот отклонение от этого вектора у токенов жает логиты - вероятности распределения отклонения этой цели от генерации токена. Т.е llm реально сторит цель а е бездумно генерит токены. Но проблема в том какая это цель. Если найдут способ интерпретировать цель у llm она перестанет быть черным ящиком.

Information

Rating
3,253-rd
Registered
Activity

Specialization

Fullstack Developer
Lead
From 10,000 $