Обновить
-8
0

Пользователь

Отправить сообщение

Логика ллм проста и оперирует матрицами многомерных пространств и это действительно так!

Я пытался объяснить как это устроено но мне так и не дали опубликовать. Ладно пусть остается как есть...

Ии не черный ящик. Его принцип простой: Он формирует вектор общей цели между данными которыми обучен и промптом и делает среднюю цель. И далее эта цель влияет на вероятность генерации текста! Т.е нет цели станет выдумывать и т.д. принцип его работы очевиден но почемуто все ожидают от него интеллекта. Он не логическая модель а вероятностная! И какого это доверять вероятной модели? Т.е такой которая делает все не точно а примерно. Стоит задуматься. Но как инструмент если задачи четкую цель и вектор цели еще не сбился в его матрицах Он помогает автоматизировать и ускорить много ручного труда.

На мой взгляд берете и приводите присваивание сознание = llm предиктивная модель. Вы серьёзно? Сознанию по барабану предиктивность. Оно может существовать без предиктивности. Это миру нужна предиктивность а не сознанию. Точнее модели мира в нем. А так да вы смело ковырнули поверхность сознания. Поэтому люди минусуют они не любят смелость. Вы просто слишком большим обьемом описали то что описывается простыми процессами. Да Вы красиво описали сознание но основная его непределенность осталась тайной.

К слову скажу я описывал не только какязык но и как код и все равно минусовали.

Вот вы пишете кто и говорите оно неуловимо в я. Почему тогда вы думаете что его нет в ии если это кто непределено?

Насчёт consciousness.py. как раз делаю этот код но не на py: Conciousness.cs :)

Никто не верит что у меня получится. Но это их дело)

Я сам изучал архитектуру трансформеров. И там просто куча недочетов и работы с вагон и тележка в том числе и нераскрытых возможностей. Как в самой архитектуре так и математической модели основанной на Преобразование векторов в 2 различных пространства: attention и ffn. Я не знаю почему все работают на такой корявой основе как сейчас представлено ядро моделей ии. Просто не хотят становится лучше наверно.

Спасибо хабру я теперь ничего не могу публиковать! А еще есть много интересного. Например хотел опубликовать третью часть где подробно разбирается как работает трансформер gpt на уровне кода gpt2 и deepseek. Также хотел поделиться кейсами реального применение ии (cursor) на реальном бизнес проекте без воды и приукрашивания. И как раз оно коррелирует с описанием в третьей части. Но спасибо всем не могу ничего публиковать)

Ерундой занимаетесь. Вы должны понимать что каждая библиотека или фреймворк служит какойто цели и создавалась изначально в ядре под конкретную задачу а уже потом дорабатывалась. Так что считать что что-то одно хорошо непродуктивно. У каждого решения есть преимущества и недостатки. Архитектор должен уметь их правильно балансировать под задачу.

PS: методы в setState в примере имеют потенциальные проблемы. Потому что не используют функции в setState. Проблема в том что код асинхронный а вызовы выполняются параллельно! И возникает проблема когда потоки в параллеле могут модифицировать одинаковую переменную. И это происходит в useEffect!

Например как процесс во времени. Называется нейроморфный процессор. Т.е передавать электрического сигналы во времени и между нейронами не всегда дает одну и туже единицу как в компьютере играют факторы кровь вибрация и т.д.

Автор изучите мою статью: https://habr.com/ru/articles/925832/

У меня уже есть идея как сделать электронное сознание или нечто большее чем трансформер gpt. Но почемуто всем это не нравится.

Если он возьмет и бросит проект что будете делать? Люди это непредсказуемые субъекты они могут помочь или предать проект - неизвестно. Доля в проекте это очень большая ответственность ты не можешь это росто поручить разработчику с рынка.

Сроки это двигатель проекта. Это особенно заметно если ты сам начинаешь проект. Сроки неограничены полная свобода. Но никакой мотивации! Сроков нет и твоя классная идея пылится. Не потому что она неработоспособна как раз наоборот а потому что просто нет мотивации. Никто не ограничивает сроки и ты откладываешь несоблюдая ответственность перед проектом.

Спасибо за рекомендации. Да я уже понял что понятия очень сложные. Если мне они очевидны другие с трудом понимают. Я попробую переформатировать содержание добавив больше определений. ОИИ не создан потому что никто до конца не понимает суть архитектуры трансформера в чем ее проблема и как это улучшить. Однако вся эта картина уже лежит в голове проблема передать ее публично.

Llm не для всех кейсов подходит. То что есть в базе обучение хоть и весь гитхаб покрывают но имеет лимит. Llm больше справляются с проектами опен сорс и задачами которые имеющие шаблоны в обученной модели. Если что-то креативное то что не имеет аналогов а ведь это суть продукта! Llm не справиться с такой задачей.

Но выход разумеется есть и я им пользуюсь :)

проект пишется на .net c# 8.0

в любом случае я рад что тема вызывает интерес несмотря какой направленности. эти статьи не доказательство, а попытка поделиться интересными идеями чтобы запечатлеть момент в истории. благодарю за интерес! в следующих выпусках я более подробно все опишу, и опишу более простым языком как работает генеративный трансформер GPT. думаю аудитория сочтет, это более интересным для статьи.

Я не рассчитываю на репутацию на научность или какие то плюшки. И это статья не является пародией на научную. Это серьезные идеи и исследования которые я имею смелость выдвигать. Есть настоящий проект технический который я развиваю. Есть новые идеи которые я добавляю в проект. Я не умею описывать сам и на это нет времени. Идеи настоящие и я реализовываю в проекте. Но в форму облекает их GPT это я не скрываю. Почему нет кодовой базы? Неужели вы думаете что если некоторое решение которое способно улучшить GPT и будет публиковаться с открытым исходным кодом? Нет пока этого не будет, пока я не посчитаю код безопасным, завершенным и формализованным. Но идеи я могу публиковать.

Оно становится реальностью)

О боже я уже делаю общий интеллект: https://github.com/xlab2016/MetatronAGIPublic именно в той структуре как вы описали. У него даже будет подобие электронной души.

Но всем все равно как всегда...

В моем проекте я имею цель, не только наделить llm сознанием но и сделать ей электронную душу :) и это только начало)

https://github.com/xlab2016/MetatronAGIPublic

Ии да. Но AGI изменит всю парадигму :)

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Фулстек разработчик
Ведущий
От 10 000 $