Обновить
2
0.1
Dmaslo@DMaslo

Пользователь

Отправить сообщение

Уточню, потому что, кажется, мы говорим о разных уровнях.

Я **не спорю**, что современные инструменты на базе LLM (Cursor, Copilot, IDE-агенты) *умеют*:

* ориентироваться в существующей файловой структуре,

* создавать каталоги/файлы,

* воспроизводить **принятую** архитектуру проекта.

Мой комментарий был **не про это**.

Я говорил про **LLM в чистом виде**, как модель:

* без жёсткой схемы,

* без валидаторов,

* без типов,

* без AST,

* без runtime-проверок,

* без внешних инструментов, которые ограничивают пространство ошибок.

И конкретно — про **иерархию объектов и логическую связанность данных**, например:

* вложенные JSON-структуры,

* строгие контракты API,

* зависимости между полями,

* семантику, где одна ошибка в имени / уровне вложенности ломает всю систему.

LLM **не оперирует логикой и иерархией как системой ограничений**.

Она оперирует **вероятностями токенов**, даже если результат *выглядит* структурированным.

То, что ты описываешь (Cursor, ревью, рабочая структура) — это:

* LLM + контекст,

* LLM + tooling,

* LLM + человек как внешний валидатор и источник логики.

С этим я полностью согласен:

**у штурвала должен быть человек**, иначе система разваливается на мелочах.

Мой скепсис был не к «ИИ в команде»,

а к иллюзии, что **модель сама по себе** понимает иерархию так же, как человек с опытом, который уже набил шишки на неработающих системах.

Коротко:

* структура ≠ логика,

* воспроизведение паттерна ≠ понимание ограничений,

* без внешней валидации LLM фундаментально остаётся у

средняющей моделью.

Вот это я и имел в виду.

Был какой-то стартап в сфере перевозок где за штурвалом ... Ну и закрылся ... Полтора года назад в новостях наткнулся. В то время встретил статью о такси и о грузоперевозках, фурах. По-моему это было о фурах, но может и о бразильской компании которая занималась такси... Честно специально не записывал и не помню львиную долю подробностей... Понимаешь почему такой скептицизм к этому. Это математично-статестическая модель использования слов. Логики там попросту нет. Ноль. Реально - с первого раза может только "hello world" накодить. Сама по себе в чистом виде, без дополнительных инструментов. Но так или иначе усреднённый ответ будешь иметь. И с этим ничего не можно сделать, они фундаментально так устроены. Видел мультик Cat-Dog? Вот тебе усреднённый ответ. Человек который с системами работает много, начинает и мыслить также как и системы и нет для него больше раздражающего чем маленькие недочёты, вот эти вот бл***кие недочёты. Неправильные переменные, иерархия вложения объектов. С иерархией в ЛЛМ большие проблемы ибо там логика нужна... А система может и не работать из-за одной неправильной переменной. Человек который шарит в нюансах таких ошибок не допускает ибо шишки ибо опыт. Чаще негативный и эмоционально яркий и хорошо записанный в подкорку. Профильная деформация это называется когда жизнь свою подчиняет или пробует подчинить безжалостно логике, иерархии. Суть ты понял я думаю. Не хочу тут трактат описывать. Мы то что мы едим, мы то что мы делаем. Мы строим себя из себя самих же.

Собственный инструмент планирования... Все что выше и пост комментарии. Все тоже самое 1:1. Идея родилась 4 месяца назад и реализовал апи на базе Джанго к целому vault obsidian. Шаблоны к форматеру (шапка заметки в формате yaml) поиск, тагирование, формирование описи заметки через llm 1.2b и вообще косвенных признаков через api. И теперь проблема атомарности этих материалов. Концепция не до конца выстроена. Теперь в размышлениях. Так как, дополнительные модули должны базироваться на нормальном фундаменте...

А RooCode это форк Cline. ))) и даже значки не поменяли)

Odoo - чем-то отдаленно напоминает.

Хмм.. мысленный процес запущен... systemd + ansible. Но пока непонятно как сервисами быть. Volume == bind. Дёшево и сердито))) теперь осталось только на этом компоуз файле это прописать. Хмм... Для домашних этот способ не подойдёт. Там NixOs и апдейты через colmena, там что-то другое должно быть... Спасибо.

Хмм… вот смотрите (как бы всем адресовано кто отвечал под моим клиентом). У меня Docker Swarm, оверлей-сети, один админ — а не несколько человек. Да, есть чужие образы — около 20 (Grafana, Prometheus и всё вокруг них). Обновления хостов и доставка образов идут через Ansible-плейбуки. Собственные веб-сервисы общаются только через API. Наружный и внутренний выходы разделены через Traefik. Доступы — через самоподписанные сертификаты. NFS между хостами тоже на сертификатах. Оверлей-сети чётко ограничивают, кто и с кем может общаться.

Я прекрасно понимаю, что Docker — не панацея. Но в сравнении с bare-metal это в моём случае реально проще и надёжнее. На чистом железе пришлось бы вручную обслуживать десятки конфигураций, ловить несовместимости, обновлять зависимости, контролировать окружения — и всё это без изоляции. У меня же весь стек предсказуемый: единые образы, единые сценарии развертывания, автоматизация, минимизация ручного вмешательства. Для моей архитектуры это полностью оправдано. Которую сам с нуля поднял это лучше чем...

Для моих задач Swarm — более чем достаточно, без лишней сложности и без ненужных уровней абстракции.

Отдельно по сертификатам: хочу поставить свой CA под всю инфраструктуру, но раньше с этим не работал, поэтому и решил почитать, что советуют люди, которые в теме.

Хмм... Мне намного проще с докером чем настраивать сервера под несколько задач....

---

Я вот представил одну вещь и меня ужас охватил. Администрирование 40 хостов с разными конфигурациями и под разные нужды, и все это дело ручками... Да ну... 4 сервера - докер сварм, 40 контейнеров, под этим всем. И я вообще не парюсь... За два года был один инцидент. 2 недели в отпуску был. Место закончилось на одном хосту на менеджере, пол дня восстанавливал кластер, можно сказать с нуля. Да, технология сложная по началу, но лучше так чем bare-metal в чистом виде.

Да, согласен ручками щупать очень полезно и познавательно. Я второй год с начальником... В футбол играем, наслушался он всяких. Слава всем богам что отбросили PowerBugAutomate, и пришла очередь make.com... В моих глазах N8N приемлем как компромис, на сервере в соседней комнате в кластере doker-swarm.

Тут общая проблема (у меня на фирме где я "one man army" и статья) - выбор инструмента для разраба, интегратора. Не имея абсолютного понятия с чем разработчик работает.

Подход хорош... Может не так я это использую - да не могу сказать что промпт-инженер я 80 уровня(термин как на меня выжат из пальца)... Но. Использование Греческих символов - єто оказалось отличным трюком. Комбинуруя LangChain и system_prompt на модели liquid/lfm2-1.2b. Модель сама по себе хороша - хорошо следует инструкциям на достаточном уровне... Но имела проблемы...
---Нужно идти - поэтому минимум информации---
Использование их как маркеров - так как модели мало обучены на этих символах и соответсвенно мало статистики где-то там в весах - так мне кажется. Я только 2 часа эксперементирую но результат гораз лучше гораздо предсказуем даже на температуре 0.9.

Классная формулировка, запомню на будущее) Я всегда приводил пример с каменными секирами с понятно какого века, но действительно ваша формулировка мне больше нравится. Разрешите пользоваться?)))

Интересно... Попробу я пожалуй это на модели 1.5b... Не знаю правильно ли уловил суть... Я использовал мермеинд диаграммы для описания последовательностей. Здесь немного о другом но описано интересно.

Я понимаю сто эта стаття под менеджеров сделана, но немогу не согласится, сами пробовали "это" сделать. Мне мой начальник год подсовывал PowerBugAutomate. В итоге у меня целая коллекция этих багов и нервный тик от мелкософта с их автоматизацией.

Хотя сам для себя использую модель 1.5b в связке с n8n + python для тагирования, линкования и паркинга заметок с обсидиана... И всё это на NixOS. Ибо Виндоус маст дай! Эти модели как некоторые называют их AI, я бы их назвал математическо-статистические модели использования слов, на самом нижнем уровне решают поиска пути и задачи классификации. Эти задачи можна дать им без оглядки...

Ну не скажи... Мой интерес к малым обусловлен тем, что давать короткие инструкции, что бы следовало максимально точно. И фундамент это скрипты. Но если ищешь модель 1b с качеством как у 600+ то слишком много ты хочешь от дистелированых моделей.

На Huginface, есть калькулятор. Там можно посмотреть сколько нужно ресурсов для запуска той или иной модели.

Я занимаюсь активно этим вопросом по мере возможности. Модели до 7б работают в связке с roocode и kilocode отвратительно. За все время может 3 раза правильно вызвали "tools" из сотни. Иду в отпуск на следующей неделе и немного будет времени.

П.С. Не знаю как с Виндоус, но на Линукс. А конкретно NixOS у меня получилось запускать модели и на vRAM и RAM, когда модель не помещается в видео память.

На ЦРУ и на раме 32b модель генерировать ответ будет час

Нужно было назвать не ЛЛМ, многомерная статистическая модель использования слов... У меня шев определяет по наличию интеграции с ЛЛМ хороший инструмент/ платформа или нет)

Хм... Как бы сказать. NFS... Расширение памяти(HDD;SSD) для хостов за счёт других хостов. В контексте docker-compose, NFS оглашается в volume (нужен настроенный серверNFS) . В сварм из коробки точно не работает, можно использовать bind на каталог NFS тогда содержание доступно на других холстах: так работает.

Теперь о user в докер компоуз оглашается user "1000":"1000" ("uid":"gid") либо user : container_user. Чтобы контейнер работал не от рута и при использовании бинд не было проблем с доступом к данным. В контейнере там ид юзера и ид группы 1000 и 1000 и на хосту по умолчанию те самые айдишники... В сценарии использования кластера сварм - унификация пользователей, этот вопрос доступа стоит остро. Наверно половина образов которые запускал, работали от рута. В своё время намучался с этим...

NFS? Коли не ошибаюсь для докер компоуз можно из коробки пользоваться, а для сварма плагин какой-то нужен.

И запуск контейнеров от пользователя, как-то мало об этом.

Хотя и кажется мне что это для следующей статьи))) Спасибо годная статья) Моё почтение и уважение.

Использование генеративных нейро сетей - это большая нагрузка на мозг. Фильтровать критически тонну информации/опровергать/тестировать... То ещё удовольствие.

Я использую в учебных/рабочих целях.

Плюс ещё могу из минусов написать что при изучении, очень часто белые пятна в изучении технологии. Ты о них знаешь, но никак времени не находишь. Постоянно в процессе.

За год использования, ну... Больше 1000 (импортировал в obsydian, а далее агентами редактируются, связываются и формируются "дев-стори") чатов о Django, Odoo, Pyton, NixOS, Docker, Docker-swarm, Docker-compose, сеть,ансибл, и хрен пойми что ещё...

Высшее в 12 году закончил - "инженер системотехник" - ИТ, но после то електриком был з доступом до 10 кВт, строителем, фирма своя была из 3 человек - телефоны ремонтировали. Ещё 6 специальностей которые с ИТ не связаны. Это я к чему - во первых после вуза. В те года не особо и брали всех. За 10 лет сколько всего - что угнаться просто нереально.

Нескажу что даже мидл SRE, front-end, back-end. Пойти могу как Пайтон Разграб на фронт-енд или бек-енд. Девопс тоже вариант вполне реальный. Вопрос - возьмут ли ))) это не знаю, в ИТ неспокойное время).

Я не думаю что нейро сети делают нас глупее. Это инструмент, а не один мозг на двух. Инструмент не больше ни меньше. Молотком тоже можно отбить себе пальцы и остаться калекой.)

1

Информация

В рейтинге
3 644-й
Зарегистрирован
Активность

Специализация

Фулстек разработчик, Архитектор баз данных
Младший
PostgreSQL
Docker
Python
Базы данных
Bash
Linux
Nginx
Redis
SQL