
Я начал пользоваться платформой Linear пару месяцев назад. То, с чем я столкнулся, затянуло меня в кроличью нору деталей local-first-разработки (локально-ориентированной разработки), которые изменили мой взгляд на веб-приложения.
Я начал пользоваться платформой Linear пару месяцев назад. То, с чем я столкнулся, затянуло меня в кроличью нору деталей local-first-разработки (локально-ориентированной разработки), которые изменили мой взгляд на веб-приложения.
Привет, хабражители и коллеги по цифровым джунглям! Сижу тут, владелец скромного, но гордого царства игрушек Akarius, попиваю вечерний чай (ну, ладно, крепкий кофе — отчеты же ждут!). Вспоминаю, как после одного особенно «мощного» прогона Хрумером, я чуть не превратился в того самого озлобленного плюшевого медведя с нашего сайта — глаза квадратные, пальцы в спазме от кликов. Знакомо? Сейчас расскажу не только о том, как автоматизация спасла мой рассудок, но и как она превратила гору цифрового мусора в… золотую жилу для будущих побед! Да‑да, даже из «плохих» отчетов можно извлечь пользу, если знать как.
Когда я работал с Vue, мне доводилось использовать provide
и inject
буквально пару раз - и то просто чтобы обойти ограничения архитектуры проекта. Однако, столкнувшись с Angular, я увидел, что DI в фронтенде может быть не только костылем, но и вполне себе рабочим паттерном, который позволяет создавать гибкие компоненты с удобным API. Так ли это в случае с Vue?
Доброго времени суток, «Хабр»!
Вероятно, многим уже известно, что современные нейронные сети способны обрабатывать изображения в качестве входящего запроса. Пользователи активно применяют эту возможность, загружая фото с заданиями или вопросами, — особенно часто так поступают учащиеся школ и вузов, получая от нейросети готовые решения задач или правильные ответы на интересующие вопросы.
Сегодня я рассмотрю перечень нейросетей и сервисов, проверю их на фотографиях с разными форматами заданий и постараюсь подсказать, какие из них лучше всего подходят для распознавания текста с изображений.
Присаживайтесь поудобнее, начинается мое повествование.
Привет всем читателям замечательного Хабра! Может кто-то из вас припомнит мою статью, вышедшую в конце 21-го года. Тогда я спешил поделиться первым опытом создания мультфильма, про волка-кулинара и его «мишленовскую» яичницу :-) Признаюсь, что пользователи Хабра оказались самыми благодарными зрителями и читателями, такого большого фидбека я не получал ни с одной из социальных сетей. Огромная вам благодарность. После такой доброжелательной реакции, я захотел делать продолжение и строил радужные планы.
Я Евгений Прочан, в платформенной команде Magnit OMNI развиваю инфраструктуру DWH. Расскажу здесь, почему нам понадобилось перейти от батчинга к CDC и как мы это делали. Причин перехода было две: потребность бизнеса в расширении возможностей инфраструктуры и нестабильность нашего старого процесса репликации.
Мы используем в основном базы данных PostgreSQL. Оттуда пакетами раз в час передаём данные в S3, ClickHouse и таблицы Iceberg. Наша потоковая нагрузка достигает примерно полутора терабайта данных, 6000 операций в секунду (около 1500 в самой нагруженной базе данных).
В этой очередной статье по GIL разберемся, как работает Python, как был реализован GIL до версии языка 3.2, как глобальная блокировка работает сейчас, и что с ней делать.
Я уже довольно давно работаю в автоматизированном тестировании. Иногда касаюсь найма, иногда обучения, а еще наблюдаю за коллегами и в целом за рынком. Вижу, что вместе с ИТ в целом отрасль автоматизированного тестирования быстро меняется. И в этой статье хочу отразить некоторые самые явные изменения. Надеюсь, мои размышления направят в нужное русло тех, кто выбирает свой путь обучения или только планирует “зайти в ИТ” через тестирование.
Зачем изучать генерацию SEO‑описаний? Представьте, что вам нужно разом загрузить на сайт сотни товаров: ручками каждое описание не напишешь, а универсальный шаблон выдаёт скучные списки характеристик, которые никто не читает. Что, если эту работу делегировать LLaMA и получить не просто текст, а продающий контент, готовый к выкладке в карточку товара?
Когда вы открываете REST API своего сервиса во внешний мир, вы приглашаете не только легитимных клиентов, но и потенциальных злоумышленников. API по сути становится линией боевого соприкосновения. Сегодня уже недостаточно просто проверять права доступа или надеяться, что фронтенд не отправит «плохой» запрос, да и WAF перестает быть панацеей.
Для защиты от потенциальных злоумышленников мы в IVA Technologies реализовали механизм строгой валидации API прямо на уровне сетевого периметра — в нашем продукте IVA SBC (Session Border Controller). Механизм позволяет не только фильтровать трафик, но и полноценно проверять каждый запрос на соответствие актуальной модели API, автоматически синхронизируемой с основным приложением.
Рассказываем, как устроена эта функция, какие задачи решает — и почему на рынке почти нет аналогов.
Я давно работаю с Linux-серверами, и одна из вещей, которая меня всегда раздражала, — это постоянный ввод паролей при подключении по SSH. Представьте: у вас несколько машин, и каждый раз стучать по клавишам, вспоминая, какой там пароль... Но есть простое решение — использовать SSH-ключи. Это как цифровой пропуск: один раз настроил, и дальше всё идёт как по маслу. В этой статье я расскажу, как это сделать шаг за шагом, особенно если вы новичок в Linux или SSH. Я постараюсь объяснить все термины по-человечески, без лишней зауми, и добавлю пару советов из личного опыта. Давайте разберёмся!
Представьте: вы — CTO, перед вами — зеленые дашборды, аптайм 99.9%, клиенты довольны. Но где-то в недрах инфраструктуры тикает бомба замедленного действия. Ее зовут «технический долг», и он накапливается каждый день.
Каждый раз, когда архитектор говорит: «Потом допилим», админ — «Некогда сейчас по стандартам настраивать», а менеджер — «лишь бы работало», компания подписывает кредитный договор. Только вместо банка — невидимый коллектор, а проценты начисляются рисками.
Сегодня поговорим о том, почему классический подход «работает — не трогай» больше не работает, и как системно решать эту проблему.
Разберем реальные кейсы из практики К2Тех и покажем методологию, которая помогает построить управляемый процесс погашения технического долга. Ведь альтернатива — оказаться в новостных заголовках рядом с теми компаниями, которые уже дорого заплатили по счетам.
Спойлер: это не про покупку дорогих железок или найм армии пентестеров. Это про системный подход, автоматизацию и изменение культуры, это непрерывный процесс, которым многие пренебрегают. Харденинг — ваша страховка от кибер-коллекторов, которые приходят без предупреждения.
GPT-OSS - тесты на реальном железе: производительность моделей 20B и 120B на RTX 4090, RTX 5090 и H100. Реальные метрики TPS, сравнение скорости генерации и практические выводы о том, какую модель выбрать для локального использования.
После санкций стоимость строительства ЦОДов в РФ сильно увеличилась. Это породило парадоксальную ситуацию, когда ввод в строй новых дата-центров приводит к повышению цен. Ключевая ставка ЦБ по-прежнему запредельная для кредитов, а в Москве практически не осталось площадок для новых проектов.
Окупаемость инвестиций в такие проекты составляет 10 лет, так что инвестировать имеют возможность крупные госкорпорации вроде «Ростелекома» и «Росатома», которые точечно запускают новые дата-центры. Каждый отдельный запуск в РФ — уже большое событие, а во всём мире сейчас бум массового строительства ЦОДов для ИИ с на триллионы долларов.
Это первая статья специалиста по архитектуре ИТ-систем и трансформации ИТ-ландшафта Дениса Прилепского из серии «Строим корпоративную GenAI-платформу: от концепции до ROI». В этой части он объясняет, зачем вообще нужен архитектурный подход при внедрении GenAI-решений и как грамотная архитектура помогает пройти путь от идеи до реальной бизнес-ценности.
Если вы управляете достаточно крупным бизнесом, вы неизбежно будете собирать аналитические данные. Вы же хотите точно понимать, почему меняются показатели продаж или какие товары будут пользоваться спросом в следующем месяце.
Звучит логично и понятно, пока вы не начнете плотно работать с цифрами и графиками. И тут, как и почти в любой сфере, кто-то рано или поздно должен был внедрить AI-ассистента. Под катом посмотрим, что из этого получилось.
Люблю работать с IT-специалистами — они самые самообучающиеся. Отрасль постоянно вынуждает их узнавать что-то новое и прокачивать скиллы, но взрослые не учатся впрок. Об этом мы ещё поговорим предметнее.
Привет, Хабр! Меня зовут Дарья Вьюнова, я — кандидат педагогических наук (неожиданно в этой среде, правда?) и руковожу Центром дидактики профессионального образования в Московском городском педагогическом университете. Кроме того, сейчас занимаюсь развитием андрагогики в нашей стране. Это теория и практика обучения взрослых. Мы же всегда, даже на рабочих встречах, хотим, чтобы другие уже начали делать что-то «по-нормальному».
Метод Верле́ — один из самых элегантных и простых численных способов решать уравнения движения. Его можно встретить и в молекулярной физики, и в геймдеве (cloth sim 🧦). Недавно я сделал короткое видео с его наглядной демонстрацией (см. YouTube Shorts под катом и зеркало на GitHub).
В этом посте я хочу показать, как идея «чисто позиционного» интегрирования без явного использования скоростей превращается в рабочую анимацию, начиная с простых примеров, заканчивая сетками и игрой в бильярд 🎱
Продажи в B2B — это про длинные циклы, десятки людей с обеих сторон и сотни микрозадач, про которые легко забыть. Возможно ли оптимизировать процессы в продажах с помощью ИИ, чтобы работать эффективнее?
Меня зовут Алёна, я лидер направления по привлечению новых клиентов в компании ПравоТех. Мы разрабатываем ИТ-решения для автоматизации работы юристов — от подачи документов в суд до аналитики судебной практики.
Со стороны клиента решение о сотрудничестве принимает целая команда: юридический департамент, ДИТ, финансовый отдел. Цикл сделки зачастую большой и по крупным компаниям сроки достигают нескольких лет.
Раньше весь процесс держался на усилиях менеджера — следить за стадиями, вести коммуникации, вовремя подключать коллег, подбирать аргументацию для обоснования ценности продуктов и отработки возражений. Но чем больше сделок, тем выше вероятность что-то упустить.
Чтобы автоматизировать рутину и снять с себя часть нагрузки, мы с командой самостоятельно собрали и начали использовать несколько GPT-ботов на базе OpenAI.
В игре CoreWars участники писали программы, которые сами клонировались в памяти и пытались затереть друг друга. Работало это в виртуальной машине с хитроумными инструкциями, которые позволяли создавать очень короткий код. Простейшая само-копирующаяся программа, "самобеглый MOV", выглядела вот так:
MOV 0, 1
Пояснение этой инструкции будет дано чуть ниже. Программа "бежит" по всему сегменту памяти, в котором происходит "битва" и затирает собою все ячейки последовательно. В языке RedCode используемом в игре эта инструкция занимает одну ячейку памяти.
Мне неизвестны реальные процессоры в которых были бы подобные "удобные" инструкции. И вот любопытно - насколько короткой можно сделать (а можно ли?) подобную "самобеглую" программу для какой-нибудь настоящей архитектуры. Ну хотя бы для 8086. Тем более что там сегменты обозримого размера - 64 килобайта.
Не страшно если вы не знаете или плохо помните команды ассемблера, их будет немного и мы снабдим их пояснениями.