Пробовал подключиться через API (юзаю официальный плагин для PyCharm), но почему-то контекст с первого же запроса раздувается до сотни тысяч токенов, в итоге буквально несколько запросов съедают 1млн+ токенов и работа с моделью становится просто золотой.
При использовании подписки такого не происходит и лимит тратится очень медленно.
Сценарий использования, промпты, кодовая база - всё идентично в обоих случаях. Не сталкивались с таким?
Да, то же самое. Сочи, Dtel. Пока не отправляются реальные запросы, соединение держится. Как только отправляется https-запрос через браузер - тут же разрывается. При этом https-запросы не через браузер не приводят к разрыву соединения.
Именно об этом я и говорю :) Вы шлёпаете простенькие проекты с жизненным циклом 2 недели (!) в то время, как 90% индустрии занимается совершенно другими вещами, ощутимо более сложными. Затем вы экстраполируете свой опыт из микропроектов на всю отрасль и делаете весьма сомнительные выводы. Эти выводы естественно оспариваются теми, кто работает над полноценными проектами, потому что их опыт говорит о полностью противоположном.
Приведу простую аналогию. Допустим, вы строите гаражи. И тут Boston Dynamics выпускает робота, который умеет строить гаражи любых цветов и размеров. Вы пишете статью: "В будущем сопромат будет не нужен, ведь робот уже умеет строить сам!". После чего проектировщики, рассчитывающие сложные металлоконструкции и использующие в работе всякие там ЛИРА и Advance Steel, крутят пальцем у виска, а вы искренне считаете, что они тупые, а вам виднее, ведь вы этих гаражей по 10 штук каждый месяц заказчикам сдаёте без всякого там сопромата и прочей ненужной мути.
Вот только, повторюсь, 90% строительной отрасли не гаражи строит. И такие выводы насчёт сопромата от строителя гаражей их действительно насмешат.
Но ведь изначально вы чётко говорили о бизнесе в целом, а теперь оказывается, что речь уже только про MVP для проверки гипотезы?
Так тут же соотношение хорошо если 1 к 10 (на 1 разраба, пилящего MVP, приходится 10 разрабов, развивающих зрелый продукт). А скорее всего ещё хуже.
Безусловно, если ваша сфера деятельности - штамповать телеграм-ботов для кальянных, то конечно, вайбкодинг рулит, все дела. У заказчика бюджет 30 тысяч и те в рассрочку. А вот давайте мы с вами посмотрим на РЕАЛЬНЫЙ бизнес, в котором вращается 90% всех денег в IT: финтех, ритейл, телеком, промышленность. Там 1 задача может занимать десятки и сотни человекочасов. И что говорите, что для них говнокод - это вообще не проблема, да? :)
Ну то есть придут нам новые правила резервирования товаров на складах, и будем мы вместо 20 часов вносить эти правки 200 часов, потому что у нас сотни тысяч строк разношёрстного говнокода, в котором никто не ориентируется, потому что на этапе написания никто в него не вникал. Зато когда мы пилили MVP, мы его сделали за 1 месяц, а не за 3. Звучит очень выгодно, нужно внедрять в каждый бизнес безотлагательно.
Вот смотрите, я вас попросил показать факты. Вы в ответ выдаёте фантазию, причём ещё и тему пытаетесь в сторону увести. Очевидная логическая ошибка, но похоже, что очевидная не для всех.
Давайте я вам контекст разговора напомню. Хотя он состоит всего из пары сообщений, но вы уже успели его потерять. Я попросил показать конкретные кейсы трудоустройства вайбкодеров на реальную работу за деньги. Потому что среди моих коллег нет ни одного вайбкодера, и мне искренне интересно, неужели хоть какие-то работодатели на полном серьёзе доверяют IT-инфраструктуру бизнеса ллм-обезьянкам, которые просто генерят код без понимания?
А прибыль как считается, не напомните? Я всегда считал, что это доходы минус расходы, а говнокод - это огромные расходы из-за быстрого роста стоимости каждой новой фичи.
Видимо, я очень сильно заблуждаюсь. Расскажите, пожалуйста, как всё устроено на самом деле.
А покажите конкретные примеры трудоустройства вайбкодеров на реальную работу, пожалуйста. А то у меня ни одного коллеги-вайбкодера почему-то нет и даже сама мысль кажется смешной.
Ну и ну. Мало того, что все зависимости будут при каждом билде с нуля выкачиваться из репозитория, так ещё и в композе идёт бессмысленное дублирование части докерфайла.
Вы уверены, что вам не рановато писать туториалы по докеру? Как будто бы стоит сначала самому разобраться, а потом уже пытаться писать обучающие статьи.
Или можно просто использовать loguru, в котором уже давно реализовано всё описанное и ещё куча дополнительных фич вроде авторотации лог-файлов раз в период или по достижению определенного размера.
А собранные данные на корректность проверяли? Год назад WB в таких ситуациях подсовывал фейковые данные. То есть запросы они не блочили, а просто по-тихому наливали трэша в части ответов.
Зачем нужен VS Code с расширениями, если PyCharm уже содержит в себе всё, что нужно для комфортной работы? Файловый менеджер, гит (нафаршированный фичами под завязку), подключение к удалённым серверам, подключение к БД всех цветов и размеров, шикарно работающее автодополнение и подсветка синтаксиса (не только для python, но и SQL, Docker, Bash, HTML, CSS, JS), линтеры, интеграция с pytest, flask, django, fastapi. Для любителей упороться в анализ данных и датасатанизм - встроенный интерфейс для Jupyter Notebook и просмотр таблиц из Pandas в отдельных вкладках. А, совсем забыл про таймтрекинг и интеграцию с таскменеджерами.
И да, если вам этого внезапно не хватит, то есть маркетплейс с расширениями.
В чём смысл при наличии такого мощного инструмента, заточенного именно под Python, собирать его урезанное подобие из кучи расширений от отдельных разработчиков?
По несколько часов в день? У меня после работы и ежедневной рутины остаётся 3-4 часа в день. На себя, на семью. И на ведение гита по несколько часов в день, конечно же.
Скрейпинг - вполне нормальный широко используемый термин. А вот "латентность" и структура статьи с кучей буллитов явно показывают, что LLM здесь поработала.
Пока читал код, глаза лезли на лоб. Сколько там вы в айти? Пишете, что "давно" - это уже больше месяца или ещё нет?
Синхронные запросы через requests внутри асинхронных хэндлеров, ужасный грязный код и свалка из всего подряд в едином файле - кого вы обманываете? Код написан студентом и ChatGPT - в это ещё можно поверить. И то студент как будто не слишком усердный.
Пробовал подключиться через API (юзаю официальный плагин для PyCharm), но почему-то контекст с первого же запроса раздувается до сотни тысяч токенов, в итоге буквально несколько запросов съедают 1млн+ токенов и работа с моделью становится просто золотой.
При использовании подписки такого не происходит и лимит тратится очень медленно.
Сценарий использования, промпты, кодовая база - всё идентично в обоих случаях. Не сталкивались с таким?
Да, то же самое. Сочи, Dtel. Пока не отправляются реальные запросы, соединение держится. Как только отправляется https-запрос через браузер - тут же разрывается. При этом https-запросы не через браузер не приводят к разрыву соединения.
Именно об этом я и говорю :) Вы шлёпаете простенькие проекты с жизненным циклом 2 недели (!) в то время, как 90% индустрии занимается совершенно другими вещами, ощутимо более сложными. Затем вы экстраполируете свой опыт из микропроектов на всю отрасль и делаете весьма сомнительные выводы. Эти выводы естественно оспариваются теми, кто работает над полноценными проектами, потому что их опыт говорит о полностью противоположном.
Приведу простую аналогию. Допустим, вы строите гаражи. И тут Boston Dynamics выпускает робота, который умеет строить гаражи любых цветов и размеров. Вы пишете статью: "В будущем сопромат будет не нужен, ведь робот уже умеет строить сам!". После чего проектировщики, рассчитывающие сложные металлоконструкции и использующие в работе всякие там ЛИРА и Advance Steel, крутят пальцем у виска, а вы искренне считаете, что они тупые, а вам виднее, ведь вы этих гаражей по 10 штук каждый месяц заказчикам сдаёте без всякого там сопромата и прочей ненужной мути.
Вот только, повторюсь, 90% строительной отрасли не гаражи строит. И такие выводы насчёт сопромата от строителя гаражей их действительно насмешат.
Но ведь изначально вы чётко говорили о бизнесе в целом, а теперь оказывается, что речь уже только про MVP для проверки гипотезы?
Так тут же соотношение хорошо если 1 к 10 (на 1 разраба, пилящего MVP, приходится 10 разрабов, развивающих зрелый продукт). А скорее всего ещё хуже.
Безусловно, если ваша сфера деятельности - штамповать телеграм-ботов для кальянных, то конечно, вайбкодинг рулит, все дела. У заказчика бюджет 30 тысяч и те в рассрочку. А вот давайте мы с вами посмотрим на РЕАЛЬНЫЙ бизнес, в котором вращается 90% всех денег в IT: финтех, ритейл, телеком, промышленность. Там 1 задача может занимать десятки и сотни человекочасов. И что говорите, что для них говнокод - это вообще не проблема, да? :)
Ну то есть придут нам новые правила резервирования товаров на складах, и будем мы вместо 20 часов вносить эти правки 200 часов, потому что у нас сотни тысяч строк разношёрстного говнокода, в котором никто не ориентируется, потому что на этапе написания никто в него не вникал. Зато когда мы пилили MVP, мы его сделали за 1 месяц, а не за 3. Звучит очень выгодно, нужно внедрять в каждый бизнес безотлагательно.
Вот смотрите, я вас попросил показать факты. Вы в ответ выдаёте фантазию, причём ещё и тему пытаетесь в сторону увести. Очевидная логическая ошибка, но похоже, что очевидная не для всех.
Давайте я вам контекст разговора напомню. Хотя он состоит всего из пары сообщений, но вы уже успели его потерять. Я попросил показать конкретные кейсы трудоустройства вайбкодеров на реальную работу за деньги. Потому что среди моих коллег нет ни одного вайбкодера, и мне искренне интересно, неужели хоть какие-то работодатели на полном серьёзе доверяют IT-инфраструктуру бизнеса ллм-обезьянкам, которые просто генерят код без понимания?
А прибыль как считается, не напомните? Я всегда считал, что это доходы минус расходы, а говнокод - это огромные расходы из-за быстрого роста стоимости каждой новой фичи.
Видимо, я очень сильно заблуждаюсь. Расскажите, пожалуйста, как всё устроено на самом деле.
А покажите конкретные примеры трудоустройства вайбкодеров на реальную работу, пожалуйста. А то у меня ни одного коллеги-вайбкодера почему-то нет и даже сама мысль кажется смешной.
Ну и ну. Мало того, что все зависимости будут при каждом билде с нуля выкачиваться из репозитория, так ещё и в композе идёт бессмысленное дублирование части докерфайла.
Вы уверены, что вам не рановато писать туториалы по докеру? Как будто бы стоит сначала самому разобраться, а потом уже пытаться писать обучающие статьи.
Или можно просто использовать loguru, в котором уже давно реализовано всё описанное и ещё куча дополнительных фич вроде авторотации лог-файлов раз в период или по достижению определенного размера.
А собранные данные на корректность проверяли? Год назад WB в таких ситуациях подсовывал фейковые данные. То есть запросы они не блочили, а просто по-тихому наливали трэша в части ответов.
По API или со страниц?
Много удачи понадобится тому, кто решит спарсить хоть сколько-нибудь ценный объём информации таким скриптиком на requests и без проксей.
Ужасно неприятно дёргается скроллбар. Технология ради технологии, а юзеру в итоге неудобно.
В раздел с инструментами для анализа памяти очень рекомендую добавить Memray. Он гораздо нагляднее tracemalloc.
Так О-нотацию используют как для оценки временной сложности, так и для оценки пространственной сложности.
Зачем нужен VS Code с расширениями, если PyCharm уже содержит в себе всё, что нужно для комфортной работы? Файловый менеджер, гит (нафаршированный фичами под завязку), подключение к удалённым серверам, подключение к БД всех цветов и размеров, шикарно работающее автодополнение и подсветка синтаксиса (не только для python, но и SQL, Docker, Bash, HTML, CSS, JS), линтеры, интеграция с pytest, flask, django, fastapi. Для любителей упороться в анализ данных и датасатанизм - встроенный интерфейс для Jupyter Notebook и просмотр таблиц из Pandas в отдельных вкладках. А, совсем забыл про таймтрекинг и интеграцию с таскменеджерами.
И да, если вам этого внезапно не хватит, то есть маркетплейс с расширениями.
В чём смысл при наличии такого мощного инструмента, заточенного именно под Python, собирать его урезанное подобие из кучи расширений от отдельных разработчиков?
По несколько часов в день? У меня после работы и ежедневной рутины остаётся 3-4 часа в день. На себя, на семью. И на ведение гита по несколько часов в день, конечно же.
Парсинг и скрейпинг - это разные вещи.
Скрейпинг - вполне нормальный широко используемый термин. А вот "латентность" и структура статьи с кучей буллитов явно показывают, что LLM здесь поработала.
Пока читал код, глаза лезли на лоб. Сколько там вы в айти? Пишете, что "давно" - это уже больше месяца или ещё нет?
Синхронные запросы через requests внутри асинхронных хэндлеров, ужасный грязный код и свалка из всего подряд в едином файле - кого вы обманываете? Код написан студентом и ChatGPT - в это ещё можно поверить. И то студент как будто не слишком усердный.