Обновить
-29
@MSZXread⁠-⁠only

Пользователь

Отправить сообщение

Стало в десять раз проще написать с нуля крупный проект при базовом знании языка, это огромный буст. Считай - сразу прыгаешь до мидла в скиллах.

Тут недавно был комментарий под другим постом, как человек запускает сразу две модели - в одной код пишется, в другой прогоняются тесты.

Никогда LLM не заменит мидл-разработчика, но мидлов, которые не пользуются LLM уже скоро не останется, это уже базовый скилл, как пользоваться гуглом. Локальная дообученная LLM это уже норма.

Решается локальной моделью. Мне уже надоело ловить минуса на Хабре за постинг очевидных вещей про LLM, но тем не менее, сейчас локальная, дообученная LLM - это уже норма для практически любого спеца. Сужу по англоязычным ресурсам. У нас же, как обычно, всё с отставанием, и ещё лет пять на Хабре будет минусить тупо за упоминание LLM.

Поставьте локально базовую модель (любую) и научитесь её дообучать - в скором времени пригодится, это будет базовый скилл уже лет через пять.

Получают вайб-прибыль.

В умелых руках - всё прекрасно пишут.

Смотря что требуется от модели. Выше грезят запуском дипсика и ламы, но это как возить картошку на феррари. Если требуется простой фронтенд на JS, отлично справляются даже древние модели. Новые LLM требуются только если вам нужны какие-то свежие фреймворки/библиотеки. Для классических языков даже нейронки пятилетней давности прекрасно работают в умелых руках. Современные просто меньше "тупят", но борьба с затупами - часть скилла при работе с LLM, то есть, знающему человеку - это не страшно.

Это максимум, хороший интерфейс они не могут сделать. Пробовал все, они тупо не понимают верстку и адаптацию, потому что это, по сути, графика, а CSS выступает в роли, можно сказать, "текстового векторного редактора". В вектор на хорошем уровне пока ещё не может ни одна модель. Простенький логотип - это вышка.

Если забыл - значит нехватка контекстного окна. LLM это простейшая информатика, странно, что приходится базовые вещи объяснять на Хабре, а потом ещё и ловить за это минусов, как будто это какое-то Пикабу, только для программистов. Такое чувство, что здесь сидят люди 50+, для которых LLM это просто плохо изначально, потому что молодое поколение придумало, а для старшего это слишком сложно в освоении.

Микросервисы для веба пишут на ура.

Ну так в чём вопрос освоить LLM? Настроить локально свою личную, под свои нужды и влиться наконец в тему? При вашем знании языка/языков вы только сможете эффективнее LLM пользоваться, будете более ценным специалистом.

Как она может ошибиться - если в её основе документация и база знаний с работающим кодом? Вопрос в том выходят ли ваши задачи за базу знаний или нет. LLM просто прогоняет промпт по имеющейся базе и выдаёт генерацию, ничего больше она не делает.

Лично на моих задачах - отлично справляется, и быстрая. Но не всегда предлагает наилучшие решения.

В чём проблема? Сделайте свою. Опесоурсных полно. Скачиваете, настраиваете, обучаете. Всего делов-то.

Вайб-постинг

Есть десятки разнообразнейших LLM, от LLM-провайдеров и опенсоурсные. Есть множество баз для дообучения LLM. Есть разница по величине контекста. Всё это обсуждаемые параметры. Если, скажем, у вас используются языки/фреймворки/библиотеки, с которыми используемая LLM хорошо знакома, контекста хватает (от LLM-провайдера или запущена локальная), модель дообучена на вашей кодовой база (допустим), то тыква превращается в карету. Качественно настроенная LLM с качественной базой знаний при грамотном целевом использовании - практически не может ошибиться, потому что действует исключительно в согласии с документацией языка.

LLM выдаёт за 15 секунд отличный прототип бэкенда для малого бизнеса на Fastify + Rethink, доработки практически не требует. Сколько бы на это потребовалось времени и ресурсов без LLM? SPA для фронтенда пишется ещё за неделю (в CSS LLM пока не умеют, и вряд ли когда-либо сумеют). Какова рыночная стоимость разработки аналогичного продукта, и какая команда для этого потребуется? Вопрос риторический, про "два месяца" - абстрактное значение для примера, что бы можно было сравнить скорость разработки.

Новые решения - новые проблемы. LLM это не про надёжность решений, это про скорость построения. Раньше прототипирование делалось командой за два месяца, сейчас одним человеком за неделю. Рабочий прототип - это много. Иногда всё что нужно. Вторая крутая сфера применения LLM - это поиск ошибок. Достаточно скормить ему кодовую базу, и в девяти случаях из десяти он если не пофиксит, по по крайней мере найдёт ошибку, и подскажет куда копать. Третья - это поиск информации. В 2025 году Гугл и другие поисковики почти мертвы. Они забиты чем угодно, кроме нужной информации. Инфоцыганщина попросту уничтожила интернет. Использование LLM - это примерно как возврат к гуглу 2003 года, когда каждый результат был релевантен, а страницы наполнены информацией, а не сторонним контентом, создающим вездесущий attention vortex - водоворот внимания, с целью любой ценой завлечь вас на сайт.

Напишет, но это будет огромный контекст, соответственно цена затрат/конечная будут внушительными. Там даже чистая себестоимость серверных мощностей будет очень приличной. Вам могут открыть доступ к такому контексту только по личной договорённости с LLM-провайдером (потому что если каждый пользователь будет с таким контекстом, то никакой парк серверов не выдержит), или стройте свой сервер под LLM. Локальный LLM-сервер для разработки с дообученной опен-соурсной моделью - реальность уже послезавтрашнего дня, и обыденность после-послезавтрашнего. Даже базовые модели с давностью релиза в несколько лет - при грамотной настройке выдадут всё, что вам нужно (на основных языках). Вопрос только в дообучении, настройке и прочем. Специалист по LLM в скором времени станет базовым элементом почти любой команды.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность