Оно работет тупо из-за точной логики цифр. Если вы помер напишите словами, оеа его не решит. Почему? Потому что у слов могут быть разные значения. У цир оно всегда одно! Если это 5, то это 5 всегда. А со словами не так. Пожтому модель тупо точнее находит ответ.
Аналогично точно работает и булева алгебра.
LLM ничего не считает. Просто якоря и фокусы максимально точные, логичны. Поэтому и ответы точные. Обучите LLM только еа тексте и оно ничего не решит… Или дайте минимум математики…
Если запустить средней сложности пример раз 10, есть боььгая вероятность ошибки. Если простой, то шанс ошибки почти нулевой ибо чистота логического смысла очень высока.
Вот и вся магия!
Я так 25000 токенов поместил в 327, и LLM прекрасно понимало о чем был разговор в тех 25к. Как это сработало? Ровно так как я описал выше. А не “оно думает!”… 😁
Вы полностью не верно мыслите! LLM не так работает! Оно не пишет одинаковый код. Оно генерирует на основе вероятности. Код может быть и хорошим. Но LLM почти никогда не повторяется в одном и том же запросе. То есть оно вооьще не понимает что хорошо, что плохо, как хорошо… Оно просто берет близкое по значению.
Если бы LLM отдавало то, на чем ее обучили, то код был бы хороший. Но вас тогда за плагиат засудят досмерти. 😁
Оно берет фокус, минимум логики и ее смысла, и пытается подобрать подходящее. Не “правильное” а “близкое по значению”. То есть код на котром оно обучается, вообще не имеет особого значения если он рабочий.
Ну в Antropic допустим, один программист с их ИИ сжигает в день месячную зп свою на токены… Они сами в своем блоге это пишут. Нормальные компании не пишут код через ИИ! Они автоматизируют рутиные задачи! Например генерация DTO. По сути тоже часть проекта… Базы знаний создаются. Но ни кто вам не расскажет что они не пишут код с ИИ, ибо так модно, это бесплатная реклама. 😁 Работники, пишут, с ними уже судятся компании в тихую. По гуглите сколько судов в той же РФ на эти темы в 2026.😁 Если вы пишите код через ИИ, вы обязаны уведомить об этом клиента! 😁 А так мусор всякий генерируют, для тестов… Крупные игроки много всякого мусора раньше делали. Чисто посмотреть. Сейчас его генерирует ИИ. Это не продакшен! Это просто поиграться. Продакшен код на ИИ, очень дорогой оказался… 😁
если у них так обучают программировать как он описал, то понятно почему такая безработица у их студентов…
первое чему учат, это как раз пониманию как устроено ПО и его нюансам! код писать, ну это самое простое в программировании… и меня удивляет что все так уперлись в ИИ генерацию, как дети малые…
основная проблема не сгенерировать кучку строк кода. основная проблема потом это поддерживать! и тут уже не важно ты писал, или ИИ генерировало… долго делается первичная архитектура, ее могут продумывать месяцами… сам же код пишется крайне быстро. если взять реального профи, то он будет дольше описывать ИИ что делать чем сам напишет… есть ускорения, но они в районах погрешности… что такое 5-7%? как вообще почитать продуктивность программиста?.. есть задачи которые обдумываешь неделю… а код пишешь минуту. и где тут ИИ ускорит тебя написав код за тебя? верно, ни где… генерация это про студии, быстрые прототипы но не программирование! поэтому учиться генерировать мусор, такое себе решение… просто вы такой ничего не стоите…
все что надо, это научиться применять LLM там, где они реально полезны!
генерация текста
анализы данных
генерация картинок
генерация видео
видео наблюдение (определение товаров и тд…)
а в программировании генерировать код не имеет веса! эта мода которая уже исчезает… сегодня уже массово подают в суд на работников которые используют ИИ! идет переосмысление договоров и контрактов… это крайне уязвимый навык…
“мылить архитектурно!”… как он этому собирается учить, если сам даже не понимает что это?.. без опыта, реального который вызывает острою боль в заднице, не научиться читать код и предвидеть проблемы! НО! LLM прекрасно умеют анализировать! зачем нам тратить все свое ресурсы на то что легко делает LLM а отдать LLM то что мы можем делать так же легко?.. это как минимум глупо…
надо учить людей не как писать промпт для LLM. а как использовать LLM в виде экзоскелета к своему мозгу! то есть LLM не должно решать простые задачи, оно должно помогать нам быстро находить решения в сложных задачах! вот что реально важно! а не то что они предлагают… LLM лучше пусть указывает на возможные ошибки, недочеты, отдает данные с базы знаний. оно это делает в несколько раз лучше нас при этом затраты у ее тоже в несколько раз ниже наших! вот к чему надо стремиться. а не к всемирной деградации программирования…
это в разы дешевле. 24-26B или какая 30B, в руках эксперта будет уровня близко к топ модели. но не все конечно сможет решить, но 90% задач точно покроет. если брать кодинг покроет все.
цена вопроса хорошая видеокарта. тут уже кому что нравиться от 3060 до 5080 и выше, зависит от модели и задач.
НО! получить по api аналогичные модели очень дешево… а некоторые из них вообще бесплатные…
так что тут палка о двух концах. как минимум вам понадобиться эксперт в этом деле, иначе получиться не пойми что не пойми для чего… развернуть их проще простого. а вот настроить так чтоб они приносили максимум пользы, крайне сложно… это вам не большие модели где не точный промпт и температуры, как и остальное в конфиге, нивелируются большим объёмом данных в самой модели. тут надо четко понимать как какя модель работает, как и на чем обучали, какие данные есть в ней, как у ее работает фокус и тд… поиграть да, более чем достаточно. но для реально продакшен использования, надо экспертные знания. опять же, зависит от задач, может вам и не надо.
конечно, оно само все решает за вас… с маленькими моделями надо уметь работать. это я вам как эксперт в данном направлении говорю! от всех кто в теме ИИ, реально работают на хорошем уровне с локальными моделями единицы! возможно вы считаете если смогли развернуть то уже эксперт в ИИ… но это далеко не та, это даже еще не минимум необходимых знаний…
чтоб запустить свою качественно, надо в этом хорошо разбираться! а тут нет. поэтому один черт это будет не дешево, и многий бизнес просто будет стерт с лица земли…
сегодня локалки изучает пару человек, на хорошем уровне.
при верном подходе. если вам реально оно надо, просто берете любую модель даже 1B, она вам это легко все составит как надо и пользуетесь. это не для коротких запросов! это протокол для сложного взаимодействия с ИИ и экономии от 65% до 95%. то есть, это не для поиграться. это для серьезной работы. можно и текстом, ни кто не против. но когда вы тратите в компании на ИИ 100 000 дол, экономия в 95% или даже 65% минимум, это очень много. Vibe++ подходит под простые задачи одиночек. а мой протокол про серьёзные задачи где надо четкие ответы. и там потратить даже на 3B модель (тестировал) 3-5$ в месяц чтоб экономить тысячи долларов, выглядит очень даже круто. точность там очень высокая, даже 3-7B по логике выходят на уровень 70B.
проект можно сживать до 80-95%, при этом ИИ будет четко знать что за ч то в нем отвечает. сразу скажу, тестировал в обычных форматах точность падает с 98% на 40-50%… а это огромные деньги. даже 3-7B справляются близко к уровням больших можделей.
26B модель, на обычном промпте, не смогла решить ни одной задачи. на моем протоколе она обогнала даже Kimi…
Идея правильная. Но не все ИИ следубт таким инструкциям.
Но это в разы лучше чем предлагают многие.
Я не пишу полотна с ИИ, я пишу мелкими кусками. Так вы строго контролируете процесс.
У меня есть наработка протокала, он сложнее того что описали вы, но похож не много. И мой вариант экономит до 95% токенов заставляя ИИ строго идти по инструкции.
Так что да, ваш подход хороший. Это описано во многих книгах и докумениации по работе с ИИ. Но их ни кто не читает… 😂
К каждой ИИ есть документация, там четко описано нечто подобное вашему, с ограничениями и пояснениями где ИИ хорошо сработает а где плохо.
У каждой ИИ свое причуды.
Основная проблема это рамытость… Для ИИ одно и то же предложение, без жёсткой конкретики, может сильно размыть результат. Но так же важна последовательность инструкций! Важно еще и чтоб их не было много! Ваш пример может в одном ИИ хорошо отработать, в другом запутаться… Особенно в рассуждениях… Есди вы пишите такую большую инструкцию, лучше выключать рассуждения. Иначе ИИ запутаться по итогу…
Отдайте данный текст любой ИИ и спросите что там. Она ответит очень точно, хотя там минимум данных. И их легко прочитать. Для ИИ это чистая логика, оно ее обожает. 😁
Этт работает с Claude, и не работает с DeepSeek например. Для клода, да, xml решает сильно. Это старо как мир… НО! У каждой модели свое нюансы! Если везде трансформер, это не значит что один и тот же промпт сработает хорошо везде. Еще важно понимать что при повторном запросе, модель ответии по другому. И этл нормально. Откуда я знаю? Да я собу сожрал на этом… Я даже состою в щакрвтом сообществе исследователей LLM, там и сами разрабы есть. Поэтому и знаю. 😁 Вас приглосят, если вы полезны. Меня позвали сами. Мой вам совет, изучайте как общие сценарии поведения ИИ. То есть не xml, а последовательность важности. Первая важное, второе сам вопрос, третье уточнение. Нельзя писать в конце еще вопросы, модель даст часто фокус на них… То нсть идёт:
роль (не всегда нужна! Может вредитт в определенных запросах.)
важное уточнение
вопрос ваш
как модели вам ответить В таком порядке надо все делать. Дальше от модели к моделе… Где-то надо xml, где-то он вреден сильно. Где-то надо “задай уточняющие вопросы”, где-то нет. Не все зависит от фокуса! От его зависит если вы в “выкууме” тестируете. А так часто поверх лежит еще много всего… Те де ограничители, скилы, распределение… Иногда достаточно написать - “используем python”, а не “ты сенор на Python…”, иногда писать “сеньор” плохо, в Qwen вроде оно вредит. В Mistral надо писать еще и “с опытом 10 лет…” без “сенор”. То есть это крайне индивидуально от модели к моделе… Просто спросите у самой модели, она вам скажет как лучше. Только нормально спросите. 😁 Если спросите -" как мне тебе писать промпты?“, она ответит в общем виде. Надо четко -” как писать промпты на рему такую то, для модели Mistral такой-то, какие особенности промптинга в ней есть"… Это я кратко. И она четко все вам расскажет и про фокус и осиальное. 😁
Потому что надо чтоб было, это критическое мышление. А это в реальности огромная редкость… Если у вас оно так, это супер. Значит вы попали в еденицы тех у кого оно реально есть а не они думают что оно есть. 😁
Есщи все проверять и править, то нет тогда смысла от генерации этого всего. Это уже проверено, миллион паз доказано. Замедление реальное иногда доходит до 600%…😁 Я как разработчик с огромным сиадем, даже представить не могу, как описать досконально задачу потом ее проверить, и чтоб это было быстрее кучного кодинга + автодополнение. Если я задачу точно описал, то и код я уже написал, и пока писал уже проверил. 😁 То есть генерация кода, тут лишнее как не крути… Мы просто усложняем простое на деле… Я бы лучше наоборот, ИИ тщательно описал, я создал. Оно, ИИ, на много лучше решает такие задачи.
Я не против генерации кода, главное чтоб вам за это платили и потом вам же за это ничего не было. 😁 Я только за, если это прокатывает и все довольны. НО! В своем продукте, я бы так не делал… Времени, усилий, тратишь реально в ращы больше. Ускоряет в какой генерации DTO, конфиги, рутинно простое. Тут спору нет, бустит…
А так, ну как вы не опишите, для LLM надо столько информации, что сам напишешь быстрее на опыте. Лбди с vim писсли в раза три медленнее код, чнм те кто в IDE… Но что-то никогда это ни кому не мешало. 😁 Скорость тут не главное…
В этом есть большой минус! Так можно только проблем найти… Вы по сути занимаетесь спамом, при этом сами не знаете чего и куда хотите… Как итог таких отправляют в спамеры и все…
Вторая проблема, найдете. Но, все окажутся не те что искали… 😂
Работу, нормальную, ищут точечно! Вы должны четко знать:
какие компани
какие вилки
локации
стек Ну и тд… Без этого вы не ищите работу, вы просто орёте - “возьмите меня хоть куда нибудь, ибо я ни кому не нужен…”. То есть ваша ценность, как специалиста, сразу равна нулю…
Поэтому оно то хорошо, но подходит низким грейдам! Стажёр, джун, студент вчерашний… Мидл и выше, это выстрел себе в ноги и крах карьеры. Хотя если вы не ищите хорошее место, и вас устроит любой вариант, тогда сойдет.
Мне в среднем 3 раза в месяц сами предлогают работу. Я ее не ищу… 😁 Лучше потратить сил на личный бред и позиционирование себя как специалиста. Чем как спамера…
Я бы не говорил что модель не важна. Модель и ее выбор тоже очень важный параметр. В остальном, согласен. Спасибо!
Разные модели по разному себя ведут в разных залачах. Поэтому выбор модели LLM под конкретные задачи, очень важен. Даже промпты пишутся по разному, под разные (даже по топ) LLM. А про локальные вообще молчу… Банально 4B распазнала скрины с игры, результаты матча, с 100% точностью, а Chatgpt на 70%… Казалось бы, а вот так получилось… У меня не мало опыта в разных тестах с LLM. Ну не доверяю я разным бенчмаркам…
Банально, задачи DevOps лучше выполняют модели из Китая. Как пример чисто. Mistral прекрасно справляется с некоторой логикой, причем даже на мелкиих моделях может дать очень сильный результат.
Поэтому, как не крутите, а от модели тоже многое зависит… Качество можно сильно улучшить правильным выбором LLM.
Прекрасно. Зачем мне тогда в моем бизнесе вы? 😂 Гонка за хайпом, это хорошо. Не понимание как устроен инструмент и применение его везде, это плохо…
Ни кто в большом бизнесе так не делает, вас поспдчт за такое срок до 8 лет, если не знали. За слив перс данных, контактов и тд… 😁
LLM очень глючная штука…
Где реально полезно?
Локальные LLM, даже 26В справляется превосходно. На некоторые задачи хватит даже 4-8В моделей.
анбординг нового сотрудника
помощь в подготовке ТЗ, шаблонов, нарезке задач
получение текста из аудио для анализа
первичная аналитика. Есть специальные LLM для этого.
чат по документам внутри компани
А то что вы описали, это серьёзная статья! В данном случае оно подойдёт для дома, домашних, личных дел. Там ошибка не критична. LLM ошибается иногда до 60% и выше… Где около 30% это критические ошибки.
Один раз хрень какую разашлете, или поставите дедлайны длинные. Больше вы не работаете не в ИТ, не в таких должностях. А если данные сольете, то там вообще только дворником возьмут, даже уборщицей в офи не приму, не пройдёте СБ проверку…
С LLM надо быть крайне осторожным!
В бизнесе его используют и очень давно, еще до хайпа в банках оно было везде. Но не в тех задачах что вы описали. 😁
Худшая реклама если честно… 😂 Я в свое время отказался от сбера, потом от Альфа. А теперь понимаю что спас себя от беды… 😂 И на волоске держится Яндекс… И то, санкции, через слезы приходиться пользоваться… 😁 А тут они еще и про вайб-кодинг заговорили…
Я не хейтер, а просто личным опытом делюсь. А так мне очень хотелось бы чтоб Яндекс был по качественее, хоть на грамм… Но нет, это не про эти компании похоже…
Попытка продать продукт компаниям, которые в теме… Ну такое себе… 😂 Сами себе сейчас “отстреливаете” все торчащие…
Прикол этого шума вокруг ИИ убивается одним фактом! Написание кода, занимает не более 20% от всего остального у программиста. То есть это самое простое! И остальные 80% это решения проблем после написания или до написания. А вы предлагаете увеличить эти 80% проблем своими решениями под лозунгом “оптимизировать труд программистов!”… Как итог создаёте дополнительное узкое горлышко своим решением. Получается вы не решаете проблему, а создаёте еще больше проблем. При этом еще рекламируете себя как уже проверенно на себе… Я даже не знаю кому такая дичь в голову пришла… 😂
Представление о программистах, такое себе, на 3 по 10 бальной… Программирование, это не только про алгоритмы! Программист, это тот, для кого язык программирования не имеет особой разницы. Это инженер, и инженерное мышление а не дроч Littcode… 😁 Появились те кто клеет библиотеки, которые создают программисты. Программист не пишет мистический чистый код! 😁 Про это он в книгах потом может расскажет. Хороший программист знает как решить задачу не только правильно, но и выгадно бизнесу! Оверинженеринг, это не про программистов. 😁
Набрались где-то то же этого всего… Вы про теоретиков говорите, это они вечно рассказывали как надо… 😁
Фреймворк не портит программиста, он ускоряет его работу! Я еще старой школы самоучка. Я перед тем как сесть на frontend, написал свой, не большой но, фреймворк. Там и роуты, и реактивность… 😁
Всегда обменились информацией, ни кто не зубрил… Читали книги. Ждали неделями ответа на форумах… Были теоретики которые мозг дурили - “вы не знаете это! Вы не знаете то!”, а даёшь им задачу они сели плачут… 😂
Не путайте программистов и тех кто трепет языком на публику… 😁
Я свой первый сайт делал, у меня ПК даже не было… Кнопочный Nokia был, призма, и Opera в нем. 😁 Слепил. Чет в клубе, чет на нем… 80% на нем.
Столкнулся с проблемой, пошел гуглить…
Я еще помню спросил в те времена - “а Google платный?”… 😂 Под мобилки был отдельный интернет, сеть целая wap.exemple.com…😁 А не www.exemple.com.
Были повернутые челы, но они почти никогда ничего особенного не делали, ибо были в рамках алгоритмрв и правильного кода.
И сегодня программисты, реальные, потные 🤓 сейчас почти все в Open Source. 😁 Пишут либы, фреймворки и тд… Которые потом клеят новые “программисты”. 😁
Как опыт, ладно. Но как продакшен вариант, ещё и на Go, еще и такое… 😁 Не надо Django! Есть превосходное решение на нем же - Wagtail. Очень мощная CMS, простая как сапог! 😁 Еще и GraphQL из коробки… Если уж совсем простое, можно и WordPress. Django не большой, потребляет он около 64мб памяти. Wagtail аналогично очень лёгкий. Был опыт, делали тур проект + api радовало на приложение. Развернули на самом дешевом хостинге и все ок. 😁
Как опыт прикольно. Но это дикий оверинженеринг. 😁
Ну если не в штат, то и вилка как на фрилансе, минимум +30%. Чаще ставят +50%, зависит от того что делать и какой стек. Я таким ставлю рыночные цены от 30$ час. Знакомые ставят таким 30-50$ час. Мидл 15-30$ час. За обычную зп идти на такие условия нет смысла… И не заработаешь, и время потратишь… Да и банки не самое привлекательное место работы. 😁
Оно работет тупо из-за точной логики цифр. Если вы помер напишите словами, оеа его не решит. Почему? Потому что у слов могут быть разные значения. У цир оно всегда одно! Если это 5, то это 5 всегда. А со словами не так. Пожтому модель тупо точнее находит ответ.
Аналогично точно работает и булева алгебра.
LLM ничего не считает. Просто якоря и фокусы максимально точные, логичны. Поэтому и ответы точные. Обучите LLM только еа тексте и оно ничего не решит… Или дайте минимум математики…
Если запустить средней сложности пример раз 10, есть боььгая вероятность ошибки. Если простой, то шанс ошибки почти нулевой ибо чистота логического смысла очень высока.
Вот и вся магия!
Я так 25000 токенов поместил в 327, и LLM прекрасно понимало о чем был разговор в тех 25к. Как это сработало? Ровно так как я описал выше. А не “оно думает!”… 😁
Вы полностью не верно мыслите! LLM не так работает! Оно не пишет одинаковый код. Оно генерирует на основе вероятности. Код может быть и хорошим. Но LLM почти никогда не повторяется в одном и том же запросе. То есть оно вооьще не понимает что хорошо, что плохо, как хорошо… Оно просто берет близкое по значению.
Если бы LLM отдавало то, на чем ее обучили, то код был бы хороший. Но вас тогда за плагиат засудят досмерти. 😁
Оно берет фокус, минимум логики и ее смысла, и пытается подобрать подходящее. Не “правильное” а “близкое по значению”. То есть код на котром оно обучается, вообще не имеет особого значения если он рабочий.
Ну в Antropic допустим, один программист с их ИИ сжигает в день месячную зп свою на токены… Они сами в своем блоге это пишут. Нормальные компании не пишут код через ИИ! Они автоматизируют рутиные задачи! Например генерация DTO. По сути тоже часть проекта… Базы знаний создаются. Но ни кто вам не расскажет что они не пишут код с ИИ, ибо так модно, это бесплатная реклама. 😁 Работники, пишут, с ними уже судятся компании в тихую. По гуглите сколько судов в той же РФ на эти темы в 2026.😁 Если вы пишите код через ИИ, вы обязаны уведомить об этом клиента! 😁 А так мусор всякий генерируют, для тестов… Крупные игроки много всякого мусора раньше делали. Чисто посмотреть. Сейчас его генерирует ИИ. Это не продакшен! Это просто поиграться. Продакшен код на ИИ, очень дорогой оказался… 😁
если у них так обучают программировать как он описал, то понятно почему такая безработица у их студентов…
первое чему учат, это как раз пониманию как устроено ПО и его нюансам! код писать, ну это самое простое в программировании… и меня удивляет что все так уперлись в ИИ генерацию, как дети малые…
основная проблема не сгенерировать кучку строк кода. основная проблема потом это поддерживать! и тут уже не важно ты писал, или ИИ генерировало… долго делается первичная архитектура, ее могут продумывать месяцами… сам же код пишется крайне быстро. если взять реального профи, то он будет дольше описывать ИИ что делать чем сам напишет… есть ускорения, но они в районах погрешности… что такое 5-7%? как вообще почитать продуктивность программиста?.. есть задачи которые обдумываешь неделю… а код пишешь минуту. и где тут ИИ ускорит тебя написав код за тебя? верно, ни где… генерация это про студии, быстрые прототипы но не программирование! поэтому учиться генерировать мусор, такое себе решение… просто вы такой ничего не стоите…
все что надо, это научиться применять LLM там, где они реально полезны!
генерация текста
анализы данных
генерация картинок
генерация видео
видео наблюдение (определение товаров и тд…)
а в программировании генерировать код не имеет веса! эта мода которая уже исчезает… сегодня уже массово подают в суд на работников которые используют ИИ! идет переосмысление договоров и контрактов… это крайне уязвимый навык…
“мылить архитектурно!”… как он этому собирается учить, если сам даже не понимает что это?.. без опыта, реального который вызывает острою боль в заднице, не научиться читать код и предвидеть проблемы! НО! LLM прекрасно умеют анализировать! зачем нам тратить все свое ресурсы на то что легко делает LLM а отдать LLM то что мы можем делать так же легко?.. это как минимум глупо…
надо учить людей не как писать промпт для LLM. а как использовать LLM в виде экзоскелета к своему мозгу! то есть LLM не должно решать простые задачи, оно должно помогать нам быстро находить решения в сложных задачах! вот что реально важно! а не то что они предлагают… LLM лучше пусть указывает на возможные ошибки, недочеты, отдает данные с базы знаний. оно это делает в несколько раз лучше нас при этом затраты у ее тоже в несколько раз ниже наших! вот к чему надо стремиться. а не к всемирной деградации программирования…
это в разы дешевле. 24-26B или какая 30B, в руках эксперта будет уровня близко к топ модели. но не все конечно сможет решить, но 90% задач точно покроет. если брать кодинг покроет все.
цена вопроса хорошая видеокарта. тут уже кому что нравиться от 3060 до 5080 и выше, зависит от модели и задач.
НО! получить по api аналогичные модели очень дешево… а некоторые из них вообще бесплатные…
так что тут палка о двух концах. как минимум вам понадобиться эксперт в этом деле, иначе получиться не пойми что не пойми для чего… развернуть их проще простого. а вот настроить так чтоб они приносили максимум пользы, крайне сложно… это вам не большие модели где не точный промпт и температуры, как и остальное в конфиге, нивелируются большим объёмом данных в самой модели. тут надо четко понимать как какя модель работает, как и на чем обучали, какие данные есть в ней, как у ее работает фокус и тд… поиграть да, более чем достаточно. но для реально продакшен использования, надо экспертные знания. опять же, зависит от задач, может вам и не надо.
конечно, оно само все решает за вас… с маленькими моделями надо уметь работать. это я вам как эксперт в данном направлении говорю! от всех кто в теме ИИ, реально работают на хорошем уровне с локальными моделями единицы! возможно вы считаете если смогли развернуть то уже эксперт в ИИ… но это далеко не та, это даже еще не минимум необходимых знаний…
чтоб запустить свою качественно, надо в этом хорошо разбираться! а тут нет. поэтому один черт это будет не дешево, и многий бизнес просто будет стерт с лица земли…
сегодня локалки изучает пару человек, на хорошем уровне.
при верном подходе. если вам реально оно надо, просто берете любую модель даже 1B, она вам это легко все составит как надо и пользуетесь. это не для коротких запросов! это протокол для сложного взаимодействия с ИИ и экономии от 65% до 95%. то есть, это не для поиграться. это для серьезной работы. можно и текстом, ни кто не против. но когда вы тратите в компании на ИИ 100 000 дол, экономия в 95% или даже 65% минимум, это очень много. Vibe++ подходит под простые задачи одиночек. а мой протокол про серьёзные задачи где надо четкие ответы. и там потратить даже на 3B модель (тестировал) 3-5$ в месяц чтоб экономить тысячи долларов, выглядит очень даже круто. точность там очень высокая, даже 3-7B по логике выходят на уровень 70B.
проект можно сживать до 80-95%, при этом ИИ будет четко знать что за ч то в нем отвечает. сразу скажу, тестировал в обычных форматах точность падает с 98% на 40-50%… а это огромные деньги. даже 3-7B справляются близко к уровням больших можделей.
26B модель, на обычном промпте, не смогла решить ни одной задачи. на моем протоколе она обогнала даже Kimi…
ваш подход тоже хорош. но он про другое.
Идея правильная. Но не все ИИ следубт таким инструкциям.
Но это в разы лучше чем предлагают многие.
Я не пишу полотна с ИИ, я пишу мелкими кусками. Так вы строго контролируете процесс.
У меня есть наработка протокала, он сложнее того что описали вы, но похож не много. И мой вариант экономит до 95% токенов заставляя ИИ строго идти по инструкции.
Так что да, ваш подход хороший. Это описано во многих книгах и докумениации по работе с ИИ. Но их ни кто не читает… 😂
К каждой ИИ есть документация, там четко описано нечто подобное вашему, с ограничениями и пояснениями где ИИ хорошо сработает а где плохо.
У каждой ИИ свое причуды.
Основная проблема это рамытость… Для ИИ одно и то же предложение, без жёсткой конкретики, может сильно размыть результат. Но так же важна последовательность инструкций! Важно еще и чтоб их не было много! Ваш пример может в одном ИИ хорошо отработать, в другом запутаться… Особенно в рассуждениях… Есди вы пишите такую большую инструкцию, лучше выключать рассуждения. Иначе ИИ запутаться по итогу…
Отдайте данный текст любой ИИ и спросите что там. Она ответит очень точно, хотя там минимум данных. И их легко прочитать. Для ИИ это чистая логика, оно ее обожает. 😁
Вот этот текст который ниже:
PyDev(2+y) → Team/Product. Req: Docker, Redis, PG, Py3, DRF, Celery, AIOHTTP; Indices; REST, µserv, async; CleanCode/Tests/Docs; Git/Jira/GL. Stack: Ubuntu/CentOS(systemd); PG/Redis; Py3.7+(Django/AIOHTTP/DRF); Nginx/uWSGI/Gunicorn; Celery. Opt: Go. Offer: Office(Minsk/Krasavik); TK RB; FlexVacation; 5SickDays(100%); Sport/Eng/Edu paid.
Откуда эти специалисты берутся?.. 😂 GraphQL не быстрее REST! У них назначения разные, как и у grpc.
Это разные инструменты, под разные задачи! 😁
GraphQL чаще подходит под Frontend, но не под весь!
Grpc, это больше про общение между микросервисами.
REST, стандарт на века который используется где не подошли остальные два. 😁
То есть они все три решают узкие задачи, взаимодополняя друг-друга, а не заменяя!
Этт работает с Claude, и не работает с DeepSeek например. Для клода, да, xml решает сильно. Это старо как мир… НО! У каждой модели свое нюансы! Если везде трансформер, это не значит что один и тот же промпт сработает хорошо везде. Еще важно понимать что при повторном запросе, модель ответии по другому. И этл нормально. Откуда я знаю? Да я собу сожрал на этом… Я даже состою в щакрвтом сообществе исследователей LLM, там и сами разрабы есть. Поэтому и знаю. 😁 Вас приглосят, если вы полезны. Меня позвали сами. Мой вам совет, изучайте как общие сценарии поведения ИИ. То есть не xml, а последовательность важности. Первая важное, второе сам вопрос, третье уточнение. Нельзя писать в конце еще вопросы, модель даст часто фокус на них… То нсть идёт:
роль (не всегда нужна! Может вредитт в определенных запросах.)
важное уточнение
вопрос ваш
как модели вам ответить В таком порядке надо все делать. Дальше от модели к моделе… Где-то надо xml, где-то он вреден сильно. Где-то надо “задай уточняющие вопросы”, где-то нет. Не все зависит от фокуса! От его зависит если вы в “выкууме” тестируете. А так часто поверх лежит еще много всего… Те де ограничители, скилы, распределение… Иногда достаточно написать - “используем python”, а не “ты сенор на Python…”, иногда писать “сеньор” плохо, в Qwen вроде оно вредит. В Mistral надо писать еще и “с опытом 10 лет…” без “сенор”. То есть это крайне индивидуально от модели к моделе… Просто спросите у самой модели, она вам скажет как лучше. Только нормально спросите. 😁 Если спросите -" как мне тебе писать промпты?“, она ответит в общем виде. Надо четко -” как писать промпты на рему такую то, для модели Mistral такой-то, какие особенности промптинга в ней есть"… Это я кратко. И она четко все вам расскажет и про фокус и осиальное. 😁
Потому что надо чтоб было, это критическое мышление. А это в реальности огромная редкость… Если у вас оно так, это супер. Значит вы попали в еденицы тех у кого оно реально есть а не они думают что оно есть. 😁
Есщи все проверять и править, то нет тогда смысла от генерации этого всего. Это уже проверено, миллион паз доказано. Замедление реальное иногда доходит до 600%…😁 Я как разработчик с огромным сиадем, даже представить не могу, как описать досконально задачу потом ее проверить, и чтоб это было быстрее кучного кодинга + автодополнение. Если я задачу точно описал, то и код я уже написал, и пока писал уже проверил. 😁 То есть генерация кода, тут лишнее как не крути… Мы просто усложняем простое на деле… Я бы лучше наоборот, ИИ тщательно описал, я создал. Оно, ИИ, на много лучше решает такие задачи.
Я не против генерации кода, главное чтоб вам за это платили и потом вам же за это ничего не было. 😁 Я только за, если это прокатывает и все довольны. НО! В своем продукте, я бы так не делал… Времени, усилий, тратишь реально в ращы больше. Ускоряет в какой генерации DTO, конфиги, рутинно простое. Тут спору нет, бустит…
А так, ну как вы не опишите, для LLM надо столько информации, что сам напишешь быстрее на опыте. Лбди с vim писсли в раза три медленнее код, чнм те кто в IDE… Но что-то никогда это ни кому не мешало. 😁 Скорость тут не главное…
Спасибо за рекомендации. С уважением!
В этом есть большой минус! Так можно только проблем найти… Вы по сути занимаетесь спамом, при этом сами не знаете чего и куда хотите… Как итог таких отправляют в спамеры и все…
Вторая проблема, найдете. Но, все окажутся не те что искали… 😂
Работу, нормальную, ищут точечно! Вы должны четко знать:
какие компани
какие вилки
локации
стек Ну и тд… Без этого вы не ищите работу, вы просто орёте - “возьмите меня хоть куда нибудь, ибо я ни кому не нужен…”. То есть ваша ценность, как специалиста, сразу равна нулю…
Поэтому оно то хорошо, но подходит низким грейдам! Стажёр, джун, студент вчерашний… Мидл и выше, это выстрел себе в ноги и крах карьеры. Хотя если вы не ищите хорошее место, и вас устроит любой вариант, тогда сойдет.
Мне в среднем 3 раза в месяц сами предлогают работу. Я ее не ищу… 😁 Лучше потратить сил на личный бред и позиционирование себя как специалиста. Чем как спамера…
Я бы не говорил что модель не важна. Модель и ее выбор тоже очень важный параметр. В остальном, согласен. Спасибо!
Разные модели по разному себя ведут в разных залачах. Поэтому выбор модели LLM под конкретные задачи, очень важен. Даже промпты пишутся по разному, под разные (даже по топ) LLM. А про локальные вообще молчу… Банально 4B распазнала скрины с игры, результаты матча, с 100% точностью, а Chatgpt на 70%… Казалось бы, а вот так получилось… У меня не мало опыта в разных тестах с LLM. Ну не доверяю я разным бенчмаркам…
Банально, задачи DevOps лучше выполняют модели из Китая. Как пример чисто. Mistral прекрасно справляется с некоторой логикой, причем даже на мелкиих моделях может дать очень сильный результат.
Поэтому, как не крутите, а от модели тоже многое зависит… Качество можно сильно улучшить правильным выбором LLM.
Прекрасно. Зачем мне тогда в моем бизнесе вы? 😂 Гонка за хайпом, это хорошо. Не понимание как устроен инструмент и применение его везде, это плохо…
Ни кто в большом бизнесе так не делает, вас поспдчт за такое срок до 8 лет, если не знали. За слив перс данных, контактов и тд… 😁
LLM очень глючная штука…
Где реально полезно?
Локальные LLM, даже 26В справляется превосходно. На некоторые задачи хватит даже 4-8В моделей.
анбординг нового сотрудника
помощь в подготовке ТЗ, шаблонов, нарезке задач
получение текста из аудио для анализа
первичная аналитика. Есть специальные LLM для этого.
чат по документам внутри компани
А то что вы описали, это серьёзная статья! В данном случае оно подойдёт для дома, домашних, личных дел. Там ошибка не критична. LLM ошибается иногда до 60% и выше… Где около 30% это критические ошибки.
Один раз хрень какую разашлете, или поставите дедлайны длинные. Больше вы не работаете не в ИТ, не в таких должностях. А если данные сольете, то там вообще только дворником возьмут, даже уборщицей в офи не приму, не пройдёте СБ проверку…
С LLM надо быть крайне осторожным!
В бизнесе его используют и очень давно, еще до хайпа в банках оно было везде. Но не в тех задачах что вы описали. 😁
Худшая реклама если честно… 😂 Я в свое время отказался от сбера, потом от Альфа. А теперь понимаю что спас себя от беды… 😂 И на волоске держится Яндекс… И то, санкции, через слезы приходиться пользоваться… 😁 А тут они еще и про вайб-кодинг заговорили…
Я не хейтер, а просто личным опытом делюсь. А так мне очень хотелось бы чтоб Яндекс был по качественее, хоть на грамм… Но нет, это не про эти компании похоже…
Попытка продать продукт компаниям, которые в теме… Ну такое себе… 😂 Сами себе сейчас “отстреливаете” все торчащие…
Прикол этого шума вокруг ИИ убивается одним фактом! Написание кода, занимает не более 20% от всего остального у программиста. То есть это самое простое! И остальные 80% это решения проблем после написания или до написания. А вы предлагаете увеличить эти 80% проблем своими решениями под лозунгом “оптимизировать труд программистов!”… Как итог создаёте дополнительное узкое горлышко своим решением. Получается вы не решаете проблему, а создаёте еще больше проблем. При этом еще рекламируете себя как уже проверенно на себе… Я даже не знаю кому такая дичь в голову пришла… 😂
Представление о программистах, такое себе, на 3 по 10 бальной… Программирование, это не только про алгоритмы! Программист, это тот, для кого язык программирования не имеет особой разницы. Это инженер, и инженерное мышление а не дроч Littcode… 😁 Появились те кто клеет библиотеки, которые создают программисты. Программист не пишет мистический чистый код! 😁 Про это он в книгах потом может расскажет. Хороший программист знает как решить задачу не только правильно, но и выгадно бизнесу! Оверинженеринг, это не про программистов. 😁
Набрались где-то то же этого всего… Вы про теоретиков говорите, это они вечно рассказывали как надо… 😁
Фреймворк не портит программиста, он ускоряет его работу! Я еще старой школы самоучка. Я перед тем как сесть на frontend, написал свой, не большой но, фреймворк. Там и роуты, и реактивность… 😁
Всегда обменились информацией, ни кто не зубрил… Читали книги. Ждали неделями ответа на форумах… Были теоретики которые мозг дурили - “вы не знаете это! Вы не знаете то!”, а даёшь им задачу они сели плачут… 😂
Не путайте программистов и тех кто трепет языком на публику… 😁
Я свой первый сайт делал, у меня ПК даже не было… Кнопочный Nokia был, призма, и Opera в нем. 😁 Слепил. Чет в клубе, чет на нем… 80% на нем.
Столкнулся с проблемой, пошел гуглить…
Я еще помню спросил в те времена - “а Google платный?”… 😂 Под мобилки был отдельный интернет, сеть целая wap.exemple.com…😁 А не www.exemple.com.
Были повернутые челы, но они почти никогда ничего особенного не делали, ибо были в рамках алгоритмрв и правильного кода.
И сегодня программисты, реальные, потные 🤓 сейчас почти все в Open Source. 😁 Пишут либы, фреймворки и тд… Которые потом клеят новые “программисты”. 😁
Как опыт, ладно. Но как продакшен вариант, ещё и на Go, еще и такое… 😁 Не надо Django! Есть превосходное решение на нем же - Wagtail. Очень мощная CMS, простая как сапог! 😁 Еще и GraphQL из коробки… Если уж совсем простое, можно и WordPress. Django не большой, потребляет он около 64мб памяти. Wagtail аналогично очень лёгкий. Был опыт, делали тур проект + api радовало на приложение. Развернули на самом дешевом хостинге и все ок. 😁
Как опыт прикольно. Но это дикий оверинженеринг. 😁
Ну если не в штат, то и вилка как на фрилансе, минимум +30%. Чаще ставят +50%, зависит от того что делать и какой стек. Я таким ставлю рыночные цены от 30$ час. Знакомые ставят таким 30-50$ час. Мидл 15-30$ час. За обычную зп идти на такие условия нет смысла… И не заработаешь, и время потратишь… Да и банки не самое привлекательное место работы. 😁