Pull to refresh
1
0.1
Максим Карандашов@Norgat

User

Send message

Это прописывается в инструкциях в README.md и AGENTS.md/CLAUDE.md
В крайнем случае - ты же увидишь это на ревью кода (блокировки мастер веток для пуша для этого и созданы).

Да даже на python, если проект не тривиальный REST сервис, будет фронт, мб отдельные воркеры, отдельные микросервисы и тд.

Я пришел к тому, что для подобного создал мастер репозиторий с понятной структурой, в него через submodule добавил компоненты и в мастер проекте завел доки с онтологией проекта. Почему так? Потому что тогда в доках понятно от какого корня писать пути до конкретных файлов (и это становится справедливо для всех частей проекта).

Из статистики просмотра резюме - где-то для 5% можно найти github (по никнейму или указан явно).

Нюанс в том, что у многих там нет кода по которому стоит оценивать людей с профессиональной точки зрения. Там могут быть просто эксперименты или какие-то форки. У меня вот только код с GSOC можно считать более менее. Но что людям скажет мой код на Clojure полезного? Не очень много)

Например, в computer vision, часто, можно увидеть код экспериментов с чем-то, вот только качество кода там будет стабильно отвратительное, потому что это write once код для проверки алгоритма.

Ну или другая крайность - у джунов/мидлов можно увидеть типовой проект на каком-то фреймворке который вообще о человеке мало что говорит. Потому что это что-то уровня Hello, world по How to гайду из оф дока.

Кроличья нора в целом)

Не выживет на практике. Почему? На мой взгляд есть три причины:

  1. Людям будет не особо интересно разбираться и внедрять

  2. Значительная часть работы это не написание кода

  3. Работу по написанию кода стремительно забирает ИИ и эта тенденция усилится (не вижу объективных причин для замедления тренда)

Даже одной из этих причин хватит, чтобы внедрение в индустрию было довольно сложным. А у нас все три имеются на данный момент. Так что без шансов)

Если железо оставляют в стойках, то это значит что юнит экономика обслуживания сходится в плюс. T4 сейчас можно найти у крупных провайдеров AWS, Google, MS. Если бы экономика не сходилась - продали бы по остаточной стоимости и поставили новое.

Я вот не понимаю этой всей истерики по поводу того, что вот бизнес купит видеокарт на много денег и влезет в долги.

Вы посмотрите на то сколько лет в эксплуатации Nvidia T4 карты. Они до сих пор продаются и используются (CV, OCR задачи - вполне ок для части). 8 лет прошло с релиза карт, а они до сих пор в строю.

Если на пальцах прикинуть, то окупаемость инвестиций получается отличная для видеокарт.

Там минимум срок жизни карт 5 лет, реально - под 10. А по поводу потребления - так у того же гугла есть большой объем трафика с поиска для AI подсказок, утилизируют.

Вот давайте прикинем экономику одной B200. Гугл говорит, что цена у нее $30-40к за штуку. Учтем, что это крупные покупатели - скидка 30% от публичной там точно будет. Возьмем $25к за карту.

Аренда часа от $5.7 до $14. Возьмем усредненную в $8. И, консервативно, утилизацию в 30% (думаю, что там будет больше, но на дистанции что-то такое ожидаемо). Это будет 13140 часов за 5 лет которые она будет делать что-то полезное, те $105120 грязной выручки.

Из нее вычтем закупочную стоимость, остается $80к. И пусть половина из них уйдет на электричество и обслуживание. Те профик в $40к за 5 лет или, примерно ~26% годовых на капитал. Для долларового актива это превосходная цифра.

Векторный поиск, ИИ... Вот у меня в хроме на компе в vkvideo звук заикается раз в несколько минут (i7 13700KF, 64 Гб RAM, RTX 4080 Ti - ну чтобы вопросов к мощности компа не было) и это буквально на этой неделе было.

А с месяц назад смотрел фотки из альбома - так при закрытии просмотра выбивало из альбома (сейчас не знаю поправлено или нет).

Мб кто-то ребятам расскажет, что базовый функционал все же стоит стабилизировать?

PS Про волшебную скорость открытия страницы с видео по клику в браузере с какой-то гигантской задержкой молчу, черт с ней.

Вообще через консоль его не использую - только VSCode плагин. Причем он берет контекст из того файла, где нажал на кнопку открытия окна клауда + всегда отрабатывает когда ему Relative Path из Explorer в промпт вставляешь. Ровно такие же окна подтверждения редактирвания как у Kiro, даже поудобнее (Да, Нет, Дать пояснение, чтобы скорректироваться посредине задачи).

По факту, у него нету только автоматического пайплайна Kiro по генерации спеков. Но это поведение элементарно воспроизводится инструкцией: сделай дизайн фичи, сделай план реализации, запиши их в такой-то файл, прочитай инструкции из такого-то файла и тп.

Я конечно понимаю что это сравнение по формальным признакам, но чтобы Kiro обходил Claude? У меня был к ней доступ в день анонса и я активно использовал ее. Спеки делает хорошо, тут вопросов нет.

Но вот реализация - там все откровенно плохо. Поэтому перешел на Claude и выдохнул (использую ежедневно как для поиска и фикса багов, так и для создания нового функционала).

Странно, что pixtral пропустили в сравнении. Он выдает довольно хорошие результаты.

Это конечно круто, но им бы починить интеграцию с Gmail. Сегодня вот пытался подключить - пишет что коннектор ок, а в чате говорит - ой, не ок, ничего не работает.

Вместо того, чтобы делать бота который в личку что-то там присылает и которого нужно контроллировать по поводу кому он это посылает, можно сделать бота который посылает в группу. Группу сделать самому и номер группы вшить в бота. Тогда этап авторизации будет включением участника в группу или исключением его из нее.

PS Это не отменяет сомнительности всей схемы управления промышленным объектом через общедоступный месседжер конечно.

Напишите через полгода сколько раз серт отвалился)

Так Google же переместил эту фукнцию в DevTools. DevTools > Lighthouse.

А что можете сказать про storm.apache.org?
Хм, добавлю от себя — Read Only слетел и со старых акков.

Поясню: Я никогда не был приглашён на хабр ни НЛО, ни участником, а просто зашёл через VK.

Information

Rating
3,474-th
Date of birth
Registered
Activity