Search
Write a publication
Pull to refresh
1
0
Send message

Habr-стайл: без скриптов — только суть

Мда, нейронки и торгуют за нас, и рассказывают нам как торговать без нашего участия 🫠🫠🫠

видимо данный ресурс Вы никогда не посещали и даже в чьих-то материалах/сообщениях не видели?
https://semver.org/

У меня на работе вообще 3.8 🤣🤣🤣

Откуда взялись 300 долларов за гигабитное соединение? На всех хостингах это обойдётся максимум 1к как допуслуга а чаще это встроено в тариф(хотя 3 моих любтивх хостинга до машины за 3к дают только 200-250мбит)

Для управления курсором есть трекпады от эпл, работают с виндой и есть трекболы, юзаю конечно не отдельный а как модуль в High Plains Drifter v2 от ergohaven, 5к доплата, но очень удобная штука, но тут вопрос к вам в прошедшей ситуации жать клавиши мыши, у меня то они в клаве, которая походу была вам не под силу, но можно и другие трекболы поискать, тот же кенсингтон, огромный, крути любым пальцем, жми тоже любым

Автор гигачад, самый преданный работе тестировщик

Почему абзацы одинакового размера? Гпт уже заменяет не только программистов но и авторов на хабре?

Какие ты по итогу выбрал даты в этом году?

наконец-то релизнулось что-то удобнее чем jmeter.

Изучил, не знал раньше об этой проблеме. Спасибо что поделились. Из лучшего что там увидел - это уйти от сварма в сторону k3s как легковеского кубера для не больших контор которые при этом уже в compose не влезают.

Ещё очень плохо что от изобилия постов про микросервисы(зачастую об их проблемах и как их решать) новичку можно показаться что монолиты уже никому давно не нужны. Сам несколько лет назад попался в этоу ловушку. Тперь я 100 раз подумаю прежде чем заикнуться о микросервисах

Приятно видеть что стартапы начали замечать докер сварм(про который постоянно вижу как в интернете пишут что неактуальная никем не используемая технология) вместо кубера. В рф только бигтехам нужен кубер, пока вы 1.5 землекопа с 3к юзеров в сутки - дальше сварма смотреть запрещено.

Только 1% пользователей Chat GPT знают эти секретные промпты. Они могут в 10 раз повысить качество ответов Chat GPT

осталось сравнить все модели сразу и ещё джуна, мидла, сеньора и nocode решение

Уже не актуально, теперь сравниваем r1 с o3
Но я лично уже потестировал и вот что заметил:
1) r1 решает кодефорсес лучше чем o1 и все модели ниже
2) o1 пишет намного лучше большой код во многих файлах сразу, написал телеграм мини эп буквально за полтора часа полноценный с бекендом на fastapi и фронтом на vue. По приколу решил со своего давнего большого проекта код объеденить в 1 файл и попросил обложить ручки всеми возможными тестами(чтобы как в sqlite где на каждую строчку кода 600 строчек тестов), и получилось очень и очень хорошо, даже отдельно написал юнит тесты и интеграционные, и даже без моих запросов догадался использовать инъекцию зависимости чтобы бд тестовая использовалась
3) o3 mini - ничем не лучше o1
4) o3 mini high - убийца дипсика и клауди и что там ещё существует на планете, попросил его сгенерировать микросервис на го, за 2 запроса сгенерил код и за третий запрос обложил его тестами, даже интеграционными, плюс написал как правильно начальнику объяснить почему я неделю ничего не делал предоставив этот код чтобы загладить вину

Но вот именно как генерирует код например приложений на андроид и ios - очень интересно мнение экспертов, как например автора поста

жду сравнения o1 и r1, если к первому нет доступа, могу от своего имени закинуть

На самом деле если бы прикрутить определенние что ты примерно в сети(ну то есть готов в случае чего продолжать диалог), и при этом она не написала тебе первой и в этом случае в случайном диапазоне от N до N+K часов присылать сообщение то очень даже годный пртдукт вышел бы, но всё равно маловато вариаций диалога, а много дело заранее муторно, поэтому легче просто сделать себе напоминалку - НАПИШИ ЕЙ

Мне в чате сильных программистов и уже архитекторов посоветовали данное произведение, оригинал на английском, так что должно подходить.

Ричардc М., Форд Н. - Фундаментальный подход к программной архитектуре

Мне очень нравится, обрывочные знания после неё структурировались

Конечно Ваша инструкция очень важна, т.к. каждый юзер какого-то скромного ноута с 8гб памяти(а таких ещё очень много, эпл в том числе решило такой мув сделать недавно) сможет запустить хотя бы самый маленький мистрал или лламу на 7b которые требуют минимум 12 и 14 гигабайт соответственно(если меня не обманула информация с самой первой ссылки в гугле). Спешу так же напомнить что ни ллама, ни мистрал, ни гемма не обучены в режиме code completion как это есть с копилотом или starcode 7b(этот даже бесплатный на fireworks.ai из-за чего локально ничего ставить не нужно), из-за чего они могут выполнять лишь функцию чата в данных средах, в то время как специально обученные сетки способны на лету дополнять код.

спасибо за шизу

Information

Rating
7,928-th
Registered
Activity