Обновить
3
0.6

Пользователь

Отправить сообщение

Если изучить как работают локаторы в playwright, то не нужны будут ни LLM, ни OCR))

Зачем здесь LLM?

Внятного ответа на этот вопрос мы так и не получили.

Вместо того, чтобы пользоваться стандартным функционалом playwright - локаторы, вы на кой-то черт впихнули туда LLM….

Про остальное я вообще молчу.

Может все же стоит проверять за LLM?

Samsung презентовала новую линейку игровых 3D-мониторов Odyssey.

Из всей линейки 3d оказался только один

Нужно понимать что свободное != бесплатное и бесхозное. Нельзя просто так брать и использовать чужой код, даже под свободными лицензиями.

Нельзя джуну использовать LLM. И на это есть несколько причин:

  1. Отсутствие прогресса в знаниях

  2. Копирование за LLM банальных ошибок и избыточного кода

  3. Полное непонимание кода, выданного LLM

  4. Отсутствие знаний для правки кода за LLM

LLM - это и есть джун. Зачем нужен компании джун с еще более глупым виртуальным джуном?

Интересно, а какие игрушки учат американских детей скулшутингу?

Калийную селитру и сахар продавали везде)) Все летало высоко и далеко))

Ну полу-философский же булщит - это как раз к искусственному интеллекту относить матстат))

А можно узнать где в LLM вы нашли AI?

Маленькая ремарка - как трудолюбивому дремучему джуну, потому что генерит он код в 99% случаев избыточный и зачастую неверный

Есть. Плавиковая кислота называется))

А чем не угодил Playwright или Puppeteer развернутые где-нибудь в докере и конвертирующие HTML в PDF так как это должно отображаться в браузере? По-моему, намного меньше возни чем вот с этим

Пу-пу-пу…. Эм… А ты точно уверен, что защитное стекло - это пластик?

Я вообще перевел все управление на HomeAssistant, а Алису оставил как голосовой интерфейс

ТС, хранение горячих данных на диске уже в целом плохая идея с точки зрения масштабирования. Пока метрик и источников мало, все +- работает, но как только нужно будет полезть за историческими данными за месяц или когда источников метрик станет существенно больше например начнутся проблемы с IO. Может все же сделать для горячих данных БД на SQLite в памяти и постепенно сгружать все на диск ?

Вот и думаешь о том чтобы сделать свою Алису с преферансом и куртизанками с использованием какого-нибудь whisper или GigaAM и HomeAssistant

Их код выглядит безупречно — но всё чаще решает не ту задачу, что стоит перед нами.

Весьма спорное утверждение. Код после LLM выглядит как код джуна, который не читает документацию, придумывает велосипеды и уходит «не в ту степь». LLM хороши для проверки жизнеспособности идеи, но никак для продакшен разработки. И это касается всех без исключения LLM, в том числе и последних из серии Claude.

Ой не знаю, не знаю… Косячат модели от Claude будь здоров и контекст иногда забывают и документацию, которую им дали не читает, а придумывает свое. Ее модели как дремучий джун, за которым надо все досконально проверять

Извините конечно… Я не вовлечен в ваш срач, но ваше «В реальной жизни я бы в табло за такое зарядил», говорит о том, что вы крайне не адекватны. Нормальный человек не будет рассказывать о возможности причинения насилия тому, кто, по его мнению, имеет «неправильное» мнение. А по поводу ваших тезисов про LLM и программистов - ну не решает в данный момент LLM задачи лучше того же синьора или лида, только геморрой доставляет в виде правки кода за этим LLM. Я лучше сам напишу код, чем буду за кем-то его править

Кто-то смотрит в сторону вичата, но у нас будет как обычно - все через одно интимное место никогда не видевшего света…

Информация

В рейтинге
1 854-й
Зарегистрирован
Активность

Специализация

Бэкенд разработчик
JavaScript
TypeScript
Node.js
NestJS