Обновить
-29
@MSZXread⁠-⁠only

Пользователь

Отправить сообщение

Есть нюанс. Можно на незнакомом языке взять и написать за неделю качественное приложение. Раньше для этого приходилось синтаксис учить, а сейчас просто логику через LLM прокидываешь, вопрос скиллов. То есть вопрос изучения языка отпал, вопрос перехода на другой язык отпал, если понимаешь среду, окружение и архитектуру - то можешь любым инструментов пользоваться. Например, допустим, вы фронтенд, и хотите мобильное приложение написать, раньше человек год пыхтел, страдал, учил яву, свифт, или использовал тормознутую мультиплатформу. Сейчас ты садишься и за неделю получаешь хороший и качественный код на нативном языке.

Ну можно обсуждать вместо этого очередное производство пирожков, скоро до ста рецептов шаурмы для шаурмичной дойдём. Если честно, смешно наблюдать, вся глобальная индустрия семимильными шагами осваивает LLM, как инструмент, а на главном сайте российских айтишников минусят за упоминание LLM, и обсуждают производства пирожков. Не, про пирожки тоже интересно, не спорю, но лучше уж статьи про LLM читать (ну как бы если мы на айтишном сайте).

Очень размытое обобщение. Зависит кардинальнейшим образом от стека, LLM, методов работы с LLM и прочее. При забитом контекстном окне - качество генерации снижается в геометрической прогрессии, а правильно оперировать контекстным окном пока ещё мало кто умеет.

Программисты и математики не нужны, всех заменит ллм.

Нет, просто программистов и математиков, которые не умеют пользоваться LLM не будут брать на работу, как сейчас не берут тех, кто не умеет пользоваться гуглом.

У меня все последние комментарии от вчерашнего обсуждения LLM красные.

У вас эффект отсутствия английского (уже лет сто как международный и "технологический" язык) и полное отсутствие понимания того, что происходит в глобальной индустрии. А то, что мультиплатформа вся ужасно лагучая - известно любому за пределами Хабра, тут просто из-за системы инвайтов, по классике echo chamber сформировалось, где все друг друга хвалят и "попробуй плохо про мультиплатформу скажи". Зайдите на любой форум и спросите мнение людей насчёт производительности мультиплатформенных решений. Flutter, причём, обладает самой худшей репутацией в плане производительности из всей мультиплатформы. Он годится для MVP и прототипирования, для быстрого запуска и валидации рынка, но лагает даже на самом простом функционале при разрастании логики. Топить за Flutter, как за мультиплатформу - окей, можно крайне быстро продукт разработать и запустить. Топить за Flutter, как за производительное техническое решение - не смешите. Оставайтесь в своём echo chamber, пожалуй, у вас от моих попыток вытащить вас из вашей зоны комфорта - нервы шалят.

При всём моём патриотизме - российские технологические форумы, по классике, лет на десять отстают от глобальной индустрии. LLM это уже несколько лет как альтернатива поисковикам, Stack Overflow и прочим. Но у нас надо, по всей видимости, на ассемблере по книжкам код писать, что бы плюсики на Хабре получать.

Поток сознания это ваши мысли касательно состояния сферы LLM. Вы опираясь на использование специфического инструмента на пяти LLM (исходя из ваших комментариев), делаете выводы о состоянии всей сферы и ещё пытаетесь на меня своё мнение экстраполировать (в чём ваша ошибка). Реальные сценарии использования Flutter? Нужен "Вася", который будет тащить на себе работу, которую по идее должен целый отдел делать, то что оно всё лагает и тормозит (а то, что приложения и фронтенд на Flutter лагают и тормозят известно всем, ну если есть желание - можно поискать замеры, но в целом то, что любая кроссплатформа лагает на любом функционале отличном от базового, это аксиома, тем более Flutter, у которого мультиплатформенность в абсолют возведена) - всем плевать. Очень ещё смешно, как вы к толпе на Хабре апеллируете, тут людей понимающих состояние сферы LLM на 2025-ый - два с половиной человека, включая меня, просто лишний раз доказываете свою абсолютную некомпетентность в вопросе ещё и прибегаете почти в любую ветку где я отписался касательно LLM, доказывать своё мнение. Смешно наблюдать.

Вопрос умения использования LLM. При низком интеллекте можно и вилкой себе в глаз попасть когда ешь.

 Вы утверждаете, что, если современной LLM задать достаточный контекст - она не будет совершать ошибок.

Это вы сами придумали, я такого не утверждал. Значение имеют: база знаний, контекстное окно и ни один другой параметр. Я утверждаю, что в рамках стандарта W3 (так как он изучен вдоль и поперёк, и по нему масса общедоступной высококачественной бигдаты), при достаточной свежести (для гарантии современности библиотек) - ни одна модель из топ-20 коммерческих не может ошибиться, плюс-минус тоже самое можно сказать про опенсурсные модели.

Это уже ваши проблемы как вы будете это доказывать. Вам нужно знать параметры контекстного окна модели, и количество текущего используемого контекста. Есть масса способов это сделать. Вы так упорно выдвигаете постулат о "вероятностной природе" LLM, что бремя доказательства тут на вас лежит. Любому, кто хоть более-менее разбирается в вопросе текущего состояния сферы LLM - абсолютно всё и так понятно, я объясняю "прописные истины", если вы с ними не согласны - извольте доказать. Технически это элементарно делается, вопрос желания и усилий.

Давайте пример неверного срабатывания любой топ-20 LLM старше 2024 года выпуска на чистом стандарте W3 (HTML/CSS/JS), при условии достаточного контекстного окна. Спойлер: их нет. Точнее есть один, обоснованный спецификой стандарта W3, но по стандарту LLM как раз таки правильно все делают, просто это недостаток архитектуры и все используют хаки в работе, это работа из JS с псевдоклассами CSS. Больше их нет. Можете сколько угодно тестировать, ни одна LLM не даст ошибку при наличие достаточного контекста. Причём можно уже в уверенной степени сказать примерно тоже самое о локальных опенсурсных LLM. Т.е., на Хабре пользователи всё ещё прибывают в информационном состоянии пятилетней давности.

Если вероятность околонулевая, на уровне ниже единицы на гугол, то термин "вероятностная", по факту, не уместен.

Это уже от вас зависит и от вашего знания языка.

Пользователю, у которого всё лагает - от этого не легче. Вообще, фреймворки в основной своей массе появились, потому что крупным корпорациям нужна дешевая рабочая сила, а обучать нативным языкам долго, а потом, когда разработчик их выучит - становится ценным специалистом, и требует много денег. А обучить работе на React на порядок проще, чем работе на JS. Тот же принцип со всеми остальными фронтенд-фреймворками. Они абсолютно ничего не улучшают, и не дают новых возможностей, только лагают, единственный смысл фреймворков это более удобный синтаксис, читай, проще обучать сотрудников. Что даёт нового React (кроме лагов) инфраструктуре HTML/CSS/JS? Ровным счётом ничего, ещё и возможности урезает на корню, особенно в плане построения интерфейсов. Но можно, да, за пять минут собрать шаблонный корпоративный интерфейс на MUI. По факту, просто новое поколение CMS, сменившее Wordpress и ему подобных.

Всё что хорошо написано, и хорошо работает.

Первый коммент в треде по делу.

Общераспространенное заблуждение. Все LLM, включая коммерческие, растут из опенсурса, все они построены на опенсурсных библиотеках. Сфера LLM, подобно сфере Linux, жестко отсеивает любые "негативные тенденции" в общей архитектуре (а она всегда одна, потому что все библиотеки это форки друг друга). Конечно же LLM обучаются не на "индусах", а на лучших проектах с гитахаба, и других отсеянных высококачественных обучающих выборках. Вы же доверяете ядру Linux, хотя это чистой воды опенсорс? Так здесь в чём вопрос?

С появлением LLM, фактически, отпадает потребность в фреймворках (пока ещё нет, но это вопрос времени), потому что либо ты берёшь React со сложной архитектурой, когда твой код, простейшая, базовая функциональность, идёт через сложную структуру фреймворка, который вращается в рантайме на машине пользователя. При работе с бэкендом, хорошо, это сервер на себе вытягивает. А стандартная ситуация на фронтенде? Пользователь, у которого открыто двести вкладок, и тут прилетает вкладка на очередном навороченном, тяжёловесном фреймворке - и браузер благополучно падает, потому что однопоток и привет 100% CPU load. Я прогнозирую, что фреймворки уйдут в прошлое уже очень скоро, потому что сейчас ты просто делегируешь написание бойлерплейта LLM вместо делегирования функционала фреймворку - и получаешь, по сути, свой фреймворк, только с логикой в сто раз проще и скоростью работы на два-три порядка выше. Заметили возврат на Rust с Go? Вот это одна из первых ласточек. Когда качество архитектуры ценится выше качества бойлерплейта - это уже и есть тенденция созданная LLM. Если ты хорошо разбираешься в тематике LLM, то написание дикого количества бойлерплейта на нативе превращается в элементарную задачу, а что быстрее работает, натив или фреймворк/мультиплатформа? Вот и вся суть.

Очень сильно помогает, плюс ещё хорошие комментарии сильно повышают качество генерации.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность