Обновить
-1
8.5
Лина Бессонова@linabesson

ai-dev

Отправить сообщение

GPT-4o: технический разбор модели, которая взрывает людям мозги

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели7.3K

Разбираем архитектуру, не пугаем. LLM — полезный инструмент при адекватном использовании. Но если марафоните сутками — это сигнал.

Кризисная линия: 8-800-2000-122 (анонимно, 24/7).

Читать далее

LLM — просто «говорящий рот» у правильного ИИ-агента. Мы забрали у языковой модели рассуждение

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели9K

Когда ваш AI говорит «я подумал и решил» — кто решил? Веса модели? Рандом?
У нас есть лог принятия решения в Python.

А у вас?

Читать далее

RAG — это не память. Разбираем архитектуру персистентных AI-агентов

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели6.6K

Почему векторной базы/RAG недостаточно для качественной памяти ИИ-агентов. Приближаем поведение агента к человеческому с помощью архитектурных решений поверх LLM

Читать далее

TRIZ + LLM без эзотерики: задеплоили агента‑решателя противоречий, который не скатывается в болтовню

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели5.9K

TRIZ Insight — агент‑решатель противоречий. Он берёт задачу, прогоняет её через формальный ТРИЗ‑скелет и LLM, а на выходе даёт конкретный план действий с ролями, шагами и метриками успеха. Подходит для личных и бизнесовых задач.

Узнать больше

Цифровой двойник за один JSON и без промптов

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели7.5K

Как перевести мышление человека в JSON, положить в нейросеть и перестать писать бессмысленные промпты.

Читать далее

Архитектура дефицита: почему SOMA необходима для AGI

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели5.1K

Недавно мои коллеги-разрабы в чате удивились: зачем в архитектуре агента (ENA) нужен слой SOMA, симулирующий соматику и ресурсность? Мол, это рудимент как аппендицит и неэффективно. Агент должен быть в always-on и постоянно на позитиве.

Давайте разберем, зачем.

Читать далее

Почему LLM не становятся субъектами

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели4.2K

Все вокруг спорят, станет ли крупная языковая модель субъектом.

Показывают скрины ответов, где модель рассуждает про себя, говорит что ей страшно или радостно, и делают выводы про зарождающееся сознание.Проблема в том, что на уровне инженерии там нет ни субъекта, ни траектории, ни устойчивого Я. Есть мощный условный распределитель по токенам. Все. В этой статье я разберу, почему так, что для субъектности не хватает и как это закрывает архитектура ENA как отдельный слой поверх LLM.

Прочитать статью

Информация

В рейтинге
667-я
Откуда
Нижний Новгород, Нижегородская обл., Россия
Зарегистрирована
Активность

Специализация

ML разработчик, ai dev
Средний
Английский язык
Алгоритмы и структуры данных
Python
Redis
FastAPI
PostgreSQL
Kubernetes
REST
Docker