Обновить
4
0
Тимур Умаров@4wards1

Пользователь

Отправить сообщение

Пробовал подключиться через API (юзаю официальный плагин для PyCharm), но почему-то контекст с первого же запроса раздувается до сотни тысяч токенов, в итоге буквально несколько запросов съедают 1млн+ токенов и работа с моделью становится просто золотой.

При использовании подписки такого не происходит и лимит тратится очень медленно.

Сценарий использования, промпты, кодовая база - всё идентично в обоих случаях. Не сталкивались с таким?

Да, то же самое. Сочи, Dtel. Пока не отправляются реальные запросы, соединение держится. Как только отправляется https-запрос через браузер - тут же разрывается. При этом https-запросы не через браузер не приводят к разрыву соединения.

Именно об этом я и говорю :) Вы шлёпаете простенькие проекты с жизненным циклом 2 недели (!) в то время, как 90% индустрии занимается совершенно другими вещами, ощутимо более сложными. Затем вы экстраполируете свой опыт из микропроектов на всю отрасль и делаете весьма сомнительные выводы. Эти выводы естественно оспариваются теми, кто работает над полноценными проектами, потому что их опыт говорит о полностью противоположном.

Приведу простую аналогию. Допустим, вы строите гаражи. И тут Boston Dynamics выпускает робота, который умеет строить гаражи любых цветов и размеров. Вы пишете статью: "В будущем сопромат будет не нужен, ведь робот уже умеет строить сам!". После чего проектировщики, рассчитывающие сложные металлоконструкции и использующие в работе всякие там ЛИРА и Advance Steel, крутят пальцем у виска, а вы искренне считаете, что они тупые, а вам виднее, ведь вы этих гаражей по 10 штук каждый месяц заказчикам сдаёте без всякого там сопромата и прочей ненужной мути.

Вот только, повторюсь, 90% строительной отрасли не гаражи строит. И такие выводы насчёт сопромата от строителя гаражей их действительно насмешат.

Но ведь изначально вы чётко говорили о бизнесе в целом, а теперь оказывается, что речь уже только про MVP для проверки гипотезы?

Так тут же соотношение хорошо если 1 к 10 (на 1 разраба, пилящего MVP, приходится 10 разрабов, развивающих зрелый продукт). А скорее всего ещё хуже.

Безусловно, если ваша сфера деятельности - штамповать телеграм-ботов для кальянных, то конечно, вайбкодинг рулит, все дела. У заказчика бюджет 30 тысяч и те в рассрочку. А вот давайте мы с вами посмотрим на РЕАЛЬНЫЙ бизнес, в котором вращается 90% всех денег в IT: финтех, ритейл, телеком, промышленность. Там 1 задача может занимать десятки и сотни человекочасов. И что говорите, что для них говнокод - это вообще не проблема, да? :)

Ну то есть придут нам новые правила резервирования товаров на складах, и будем мы вместо 20 часов вносить эти правки 200 часов, потому что у нас сотни тысяч строк разношёрстного говнокода, в котором никто не ориентируется, потому что на этапе написания никто в него не вникал. Зато когда мы пилили MVP, мы его сделали за 1 месяц, а не за 3. Звучит очень выгодно, нужно внедрять в каждый бизнес безотлагательно.

Вот смотрите, я вас попросил показать факты. Вы в ответ выдаёте фантазию, причём ещё и тему пытаетесь в сторону увести. Очевидная логическая ошибка, но похоже, что очевидная не для всех.

Давайте я вам контекст разговора напомню. Хотя он состоит всего из пары сообщений, но вы уже успели его потерять. Я попросил показать конкретные кейсы трудоустройства вайбкодеров на реальную работу за деньги. Потому что среди моих коллег нет ни одного вайбкодера, и мне искренне интересно, неужели хоть какие-то работодатели на полном серьёзе доверяют IT-инфраструктуру бизнеса ллм-обезьянкам, которые просто генерят код без понимания?

А прибыль как считается, не напомните? Я всегда считал, что это доходы минус расходы, а говнокод - это огромные расходы из-за быстрого роста стоимости каждой новой фичи.

Видимо, я очень сильно заблуждаюсь. Расскажите, пожалуйста, как всё устроено на самом деле.

А покажите конкретные примеры трудоустройства вайбкодеров на реальную работу, пожалуйста. А то у меня ни одного коллеги-вайбкодера почему-то нет и даже сама мысль кажется смешной.

Ну и ну. Мало того, что все зависимости будут при каждом билде с нуля выкачиваться из репозитория, так ещё и в композе идёт бессмысленное дублирование части докерфайла.

Вы уверены, что вам не рановато писать туториалы по докеру? Как будто бы стоит сначала самому разобраться, а потом уже пытаться писать обучающие статьи.

Или можно просто использовать loguru, в котором уже давно реализовано всё описанное и ещё куча дополнительных фич вроде авторотации лог-файлов раз в период или по достижению определенного размера.

А собранные данные на корректность проверяли? Год назад WB в таких ситуациях подсовывал фейковые данные. То есть запросы они не блочили, а просто по-тихому наливали трэша в части ответов.

По API или со страниц?

Много удачи понадобится тому, кто решит спарсить хоть сколько-нибудь ценный объём информации таким скриптиком на requests и без проксей.

Ужасно неприятно дёргается скроллбар. Технология ради технологии, а юзеру в итоге неудобно.

В раздел с инструментами для анализа памяти очень рекомендую добавить Memray. Он гораздо нагляднее tracemalloc.

Так О-нотацию используют как для оценки временной сложности, так и для оценки пространственной сложности.

Зачем нужен VS Code с расширениями, если PyCharm уже содержит в себе всё, что нужно для комфортной работы? Файловый менеджер, гит (нафаршированный фичами под завязку), подключение к удалённым серверам, подключение к БД всех цветов и размеров, шикарно работающее автодополнение и подсветка синтаксиса (не только для python, но и SQL, Docker, Bash, HTML, CSS, JS), линтеры, интеграция с pytest, flask, django, fastapi. Для любителей упороться в анализ данных и датасатанизм - встроенный интерфейс для Jupyter Notebook и просмотр таблиц из Pandas в отдельных вкладках. А, совсем забыл про таймтрекинг и интеграцию с таскменеджерами.

И да, если вам этого внезапно не хватит, то есть маркетплейс с расширениями.

В чём смысл при наличии такого мощного инструмента, заточенного именно под Python, собирать его урезанное подобие из кучи расширений от отдельных разработчиков?

По несколько часов в день? У меня после работы и ежедневной рутины остаётся 3-4 часа в день. На себя, на семью. И на ведение гита по несколько часов в день, конечно же.

Парсинг и скрейпинг - это разные вещи.

Скрейпинг - вполне нормальный широко используемый термин. А вот "латентность" и структура статьи с кучей буллитов явно показывают, что LLM здесь поработала.

Пока читал код, глаза лезли на лоб. Сколько там вы в айти? Пишете, что "давно" - это уже больше месяца или ещё нет?

Синхронные запросы через requests внутри асинхронных хэндлеров, ужасный грязный код и свалка из всего подряд в едином файле - кого вы обманываете? Код написан студентом и ChatGPT - в это ещё можно поверить. И то студент как будто не слишком усердный.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Бэкенд разработчик, Преподаватель
Средний
От 300 000 ₽
Python
ООП
Django
Flask
Nginx
Базы данных
PostgreSQL
REST
Git
Docker