Легкий и простой способ настроить бесплатную синхронизацию Obsidian между всеми своими устройствами.
Пользователь
Управление личными делами в Obsidian (прототип)
В статье будет показан прототип системы дел, который реализован в Obsidian. Система в основном будет базироваться на идеях GTD.
Задачи будут создаваться в дневнике/журнале и агрегироваться в отдельных заметках с использованием плагина Tasks.
Система будет адаптирована для телефонов.
Статья написана для продвинутых юзеров Obsidian. Новичкам, конечно, с ней будет тяжеловато разобраться.
Как работать с Git и Gitflow: разбираемся на примерах
Привет, Хабр!
Меня зовут Николай Пискунов — я руководитель направления Big Data, и в блоге beeline cloud я делюсь практическими советами по программированию. В этой статье погрузимся в увлекательный мир Git и узнаем, как он поможет эффективно управлять версиями наших проектов.
Эффективный запуск и инференс LLM на своем сервере с нуля (часть 1)
Привет, Хабр! На связи CEO команды Compressa AI. Недавно обнаружил для себя крутой базовый курс по эффективному запуску и инференсу LLM моделей от легенды AI мира — Andrew NG и его платформы DeepLearning. Он полностью на английском языке в формате видео, поэтому я осмелился адаптировать его под формат Хабра на русском языке. Знания должны быть доступны всем и в удобной форме, так ведь?
Многие команды (включая и Compressa AI) начинали LLM проекты с использования облачных API. Но по мере развития все больше разработчиков хотят использовать open-source LLM, чтобы экономить на токенах, снижать latency, запускать fine-tuning на собственных данных и в целом меньше зависеть от внешних моделей.
Из этого курса вы узнаете детали эффективного обслуживания и дообучения open-source LLM, включая методы обработки множества запросов от нескольких пользователей. Используя несколько таких методов одновременно, вы можете улучшить как задержку (latency), так и пропускную способность (throughput). Например, благодаря применению последних open-source технологий в своем продукте, мы добились увеличения пропускной способности до 70x на 1 GPU в сравнении с дефолтными Hugging Face & PyTorch.
Курс слишком объемный даже для лонгрида, в нем много практического кода, поэтому сегодня начну с первых уроков и выпущу следующие части, если увижу живой интерес. Это адаптация, а не прямой копипаст, поэтому где-то немного расширю курс информацией от себя, а где-то сокращу. Также хочется отметить, что русифицирование терминов вокруг LLM — дело довольно неблагодарное, поэтому часть из них будет на английском.
Как ломаются большие системы и как их траблшутить — инсайты из интенсива ШАДа Яндекса
Привет, меня зовут Руслан Савченко, я руководитель службы разработки динамических таблиц в Yandex Infrastructure и преподаватель в Школе анализа данных. Сегодня я поделюсь актуальными инсайтами о том, как ломаются большие системы и как их траблшутить. Думаю, это будет полезно разработчикам и студентам, которые интересуются Site Reliability Engineering. Вообще, мало где сейчас обучают SRE, хотя в индустрии такие задачи очень востребованы.
В основе статьи — материалы SRE Week, открытого интенсива ШАДа по работе с большими нагруженными системами.
Как я обучил модель, которая понимает русский лучше GPT 3.5 Turbo
В этой статье я расскажу, как я смог обучить модель, которая превзошла GPT 3.5 Turbo на русскоязычной части MT-Bench. Также я рассмотрю новую конфигурацию для обучения на двух графических процессорах параллельно с помощью accelerate и deepspeed.
Особенный интерес представляет мой датасет для обучения. Он получен из сабсета мультиязычных промтов набора lightblue/tagengo-gpt4 на русском, английском и китайском, всего 10 тысяч примеров, сгенерированных с помощью GPT-4o. Это в 8 раз меньше, чем исходный набор Tagengo, но обученная на последнем Suzume, как показали бенчмарки, лишь очень незначительно превосходит мою модель на ru_mt_bench, а на англоязычном бенче и вовсе уступает ей. Это значит, что я в разы сэкономил на GPU за счет более высокого качества данных, полученных с помощью GPT-4o.
Я использовал скрипт для получения ответов по заданным промптам. Для генерации русскоязычной выборки я изменил часть скрипта, чтобы выбрать все промпты на русском из Tagengo (8K примеров), так как основной фокус при обучении модели был на русском языке.
В итоге я получил датасет ruslandev/tagengo-rus-gpt-4o и приступил к обучению.
Для этого я создал виртуальную машину с NVIDIA H100, используя сервис immers.cloud. Для достижения наилучших результатов по instruction-following (что проверяется на MT-Bench) я взял в качестве исходной модели meta-llama/Meta-Llama-3-8B-Instruct. Именно на ней обучена модель Suzume, у которой высокая оценка на MT Bench. Предыдущие эксперименты показали, что базовая Llama-3 8B, а особенно ее четырехбитная версия для QLoRA — unsloth/llama-3-8b-bnb-4bit - значительно отстает по оценкам бенчмарка.
Выгорание — личный опыт и пошаговая инструкция по приведению себя в порядок за 24 часа
Меня зовут Слава Усов. В 20 лет я уехал в свою первую экспедицию на Шпицберген, потом в Антарктиду и с тех пор пожил и поработал практически на всех континентах. От ученого до операционного менеджера в Африке и на Ближнем Востоке.
Как IT-специалисту составить резюме: советы рекрутеров
Рекрутеры и HR-специалисты просматривают десятки и сотни откликов на вакансии и тратят на резюме примерно минуту. Поэтому емкое резюме — залог того, что кандидата заметят. Мы спросили нескольких эйчаров, что должно быть в хорошем резюме, а чего лучше избегать.
А еще попробуйте заполнить резюме на Хабр Карьере — там же его можно красиво скачать в пдф, которую часто хвалят специалисты в отзывах.
Установка LLM на скромном VPS
«Я тебя завалю, если ещё раз упомянешь AI», — писал автор нашумевшей статьи. В самом деле, хайп вокруг ИИ всем надоел. Но мы всё-таки рискнём поговорить о том, какую LLM поставить на своём сервере и зачем.
Сразу упомянем, что на серверах RUVDS установлены видеокарты NVIDIA Quadro P4000 (на фото). Карты довольно слабенькие, так что подойдут скорее для проектов в образовательных целях и т. д. Тем более что под VPS выделяется максимум 1 ГБ видеопамяти. Но даже в таких спартанских условиях можно запустить LLM.
Кстати, о VPS с видеокартой. Несколько лет назад мы уже писали о сферах их применения и даже проводили тесты. Всё это можно найти здесь.
Как справиться с нехваткой открытых данных для обучения и тестирования ML-моделей
Привет! Меня зовут Илларион, я аспирант ИТМО и член команды, которая занимается предсказанием временных рядов, порожденных графовыми структурами, и другими исследованиями. Однако в разработке новых методов для прогнозирования есть существенное препятствие — нехватка открытых данных для обучения и тестирования моделей.
Для решения проблемы мы создали открытый инструмент Time Series Generator. Я рассказал о нем на митапе, посвященном open source-разработке для научных задач. Под катом делюсь особенностями разработанного решения и рассматриваю реализуемые им задачи.
Как развивалась технология экстремального сжатия LLM: от QuIP до AQLM с PV-tuning
Мы живём в эпоху LLM — компании применяют на практике всё более крупные модели с миллиардами параметров. Это здорово, потом что большие модели открывают пользователям сервисов новые возможности, но не всё так просто. Размер накладывает ограничения — запускать такие модели очень дорого, а на пользовательских компьютерах — ещё дороже и сложнее. Поэтому часто исследователи и инженеры сначала обучают большую модель, а потом придумывают, как сжать её с минимальными потерями качества, чтобы сделать доступнее.
Модели выкладываются в формате float16, где на один вес выделяется 16 бит. Два года назад человечество научилось хорошо сжимать нейросети до 4 бит с помощью таких методов, как GPTQ. Но на этом исследователи не остановились, и сейчас актуальная задача — сжатие моделей до 2 бит, то есть в 8 раз.
Недавно исследователи Yandex Research совместно с коллегами из IST Austria и KAUST предложили новый способ сжатия моделей в 8 раз с помощью комбинации методов AQLM и PV-tuning, который уже доступен разработчикам и исследователям по всему миру — код опубликован в репозитории GitHub. Специалисты также могут скачать сжатые с помощью наших методов популярные опенсорс-модели. Кроме того, мы выложили обучающие материалы, которые помогут разработчикам дообучить уменьшенные нейросети под свои сценарии.
О том, как исследователи пришли к сегодняшним результатам, мы расскажем на примере двух «конкурирующих» команд и их state-of-the-art алгоритмов сжатия — QuIP и AQLM. Это короткая, но увлекательная история «противостояния» исследователей, в которой каждые пару месяцев случаются новые повороты, появляются оптимизации и оригинальные подходы к решению проблем.
Работаем с PyTorch на CPU
В этой статье мы рассмотрим железо, настройки, подводные камни и неочевидные вещи, которые позволят выжать всё из вашего процессора для как можно более комфортной работы PyTorch на CPU. Даже если у вас есть видеокарта, поддерживаемая PyTorch, вы сможете увеличить продуктивность компа через распараллеливание нагрузки на CPU и видеокарту.
Ускорение генерации токена LLM в два раза для больших контекстов
Самые популярные open source тулы для локального запуска LLM — llama.cpp и vllm (и их многочисленные обертки). У них немного разные ниши, и дальше я буду писать о llama.cpp. Она поддерживает все возможные комбинации железа и ОС — Linux, MacOS, Windows; x86 CPU, Arm, Apple Silicon CPU & GPU, Nvidia, AMD,… Но автор и мейнтейнер — Георгий Герганов использует для разработки Mac Studio. Почему такой выбор железа?
Производительность генерации каждого токена LLM в одном потоке ограничена вычислительной мощностью в процессе построения KV-кэша (анализ промпта до генерации первого токена), и пропускной способностью памяти при генерации последующих токенов. При этом в обоих случаях очень полезно уметь быстро загружать веса из видеопамяти в ALU видеокарты (или CPU).
Как выбрать профессию, если ничего не нравится
Привет, Хабр! Меня зовут Виктория, и я хочу поделиться своей историей о том, как я нашла своё призвание, несмотря на длительные сомнения в выборе профессии. Возможно, мой опыт поможет тем, кто сейчас находится в похожей ситуации.
Еще недавно я была обычной девушкой из Новосибирска, совершенно не представлявшей, чем хочется заниматься в жизни. Школа осталась позади, и впереди был выбор университета и профессии. Ни одна специальность не вызывала у меня энтузиазма. Я листала списки факультетов, читала описания профессий, но ничего не цепляло. "Как выбрать профессию, если ничего не нравится?" – этот вопрос не давал мне покоя.
Казалось, что все вокруг уже определились со своим будущим, а я застряла на перепутье. Родители советовали выбрать что-то "надежное", друзья предлагали идти туда, где проще поступить. Но я понимала, что не хочу проводить большую часть жизни, занимаясь нелюбимым делом только потому, что когда-то не смогла разобраться в себе.
Именно тогда я решила действовать. Ведь если не попробовать разные варианты, как узнать, что может понравиться? Так начался мой путь к профессии мечты, который привел меня к успешной карьере фрилансера в сфере дизайна. Но обо всем по порядку.
Материалы для подготовки к собеседованию на позицию Data Scientist. Часть 4: Дизайн систем машинного обучения
Привет! Меня зовут Артем. Я работаю Data Scientist'ом в компании МегаФон (платформа для безопасной монетизации данных OneFactor). Мы строим скоринговые (credit scoring), лидогенерационные (lead generation) и антифрод (anti-fraud) модели на телеком данных, а также делаем гео-аналитику (geo-analytics).
В предыдущей статье я поделился материалами для подготовки к этапу по специализированному машинному обучению.
В этой статье рассмотрим материалы, которые можно использовать для подготовки к секции по дизайну систем машинного обучения.
Он победил LLM RAG: реализуем BM25+ с самых азов
Привет, меня зовут Борис. Я автор телеграм канала Борис опять. Периодически мне на глаза попадается что-то интересное и я глубоко в этом закапываюсь. В данном случае это алгоритм поиска BM25+, который победил продвинутые методы векторного поиска на LLM.
Разберемся, что это за зверь и почему он так хорошо работает. В этой статье мы реализуем его на Python с нуля. Начнем с самого простого поиска, перейдем к TF-IDF, а затем выведем из него BM25+.
Статья подойдет тем, кто вообще ничего не знает о поиске, а более опытные ребята могут пролистать до реализации алгоритма.
Код доступен в Google Collab.
aiogram bot для вуза и куча всего остального
Краткий обзор изнутри нашего технологичного помощника в студенческих тяжбах. Проект для студентов, в котором мы помогаем им получать расписание ,отправлять жалобы и еще много всего. А также показано как это все реализовано с любимой асинхронностью, а точнее aiogram, aiohttp, asyncpg .
Осознанная ходьба для удаленщика. Часть 2: три года спустя
Около трех лет назад я описывала, как обычная ходьба помогла изменить мне образ жизни. Тогда речь шла о преобразованиях на протяжении полугода. Но к сожалению, из-за настройки организма на нагрузки продержаться на том же режиме не получилось. Что поделать - тело адаптируется к новым условиям. Во второй части хочу рассказать, какие изменения пришли позже - с какими проблемами я столкнулась и как их решала. И куда вообще меня завела эта ходьба.
19:43, еще не завтракал…
Это подпись к посту в ленте одного руководителя крупной российской компании. Была и подходящая фотография, иллюстрирующая, что человек работает на разрыв аорты.
Да, на работе надо работать, но … разве таким способом? У автора статьи тоже был период работы с утра и до победного. Но был ли от этого толк?
В данной статье попробуем разобраться, что может стоять за такой демонстрацией миру себя и причины, почему наш герой так поздно завтракает.
Самые распространённые ошибки на собеседовании у джунов-разработчиков
За последний месяц на hh.ru для джунов без опыта было доступно всего около 6% от общего числа опубликованных вакансий для разработчиков. Такое соотношение обусловливает высокую конкуренцию среди начинающих специалистов: дело доходит до сотен претендентов на одно место. Это приводит к тому, что рекрутеры становятся требовательнее и любая ошибка или оплошность на собеседовании может стать причиной отказа.
Спросили у экспертов, какие требования в условиях жёсткого отбора сейчас предъявляют к джунам и на чём чаще всего «валятся» кандидаты. Узнали у наших выпускников — недавних соискателей, а теперь трудоустроенных специалистов, которые в своё время оставили по несколько сотен откликов на вакансии и прошли через десяток собеседований, — в чём были сложности и как им в итоге удалось получить офер.
Information
- Rating
- Does not participate
- Location
- Дубна, Москва и Московская обл., Россия
- Date of birth
- Registered
- Activity