Pull to refresh
0
0
Дмитрий @VikulinDm

Пользователь

Send message

Управление личными делами в Obsidian (прототип)

Level of difficultyHard
Reading time27 min
Views21K

В статье будет показан прототип системы дел, который реализован в Obsidian. Система в основном будет базироваться на идеях GTD.

Задачи будут создаваться в дневнике/журнале и агрегироваться в отдельных заметках с использованием плагина Tasks.

Система будет адаптирована для телефонов.

Статья написана для продвинутых юзеров Obsidian. Новичкам, конечно, с ней будет тяжеловато разобраться.

Задачи и Obsidian? Звучит интересно!
Total votes 13: ↑11 and ↓2+11
Comments11

Как работать с Git и Gitflow: разбираемся на примерах

Reading time6 min
Views13K

Привет, Хабр!

Меня зовут Николай Пискунов — я руководитель направления Big Data, и в блоге beeline cloud я делюсь практическими советами по программированию. В этой статье погрузимся в увлекательный мир Git и узнаем, как он поможет эффективно управлять версиями наших проектов.

Читать далее
Total votes 21: ↑12 and ↓9+6
Comments8

Эффективный запуск и инференс LLM на своем сервере с нуля (часть 1)

Level of difficultyMedium
Reading time10 min
Views7.1K

Привет, Хабр! На связи CEO команды Compressa AI. Недавно обнаружил для себя крутой базовый курс по эффективному запуску и инференсу LLM моделей от легенды AI мира — Andrew NG и его платформы DeepLearning. Он полностью на английском языке в формате видео, поэтому я осмелился адаптировать его под формат Хабра на русском языке. Знания должны быть доступны всем и в удобной форме, так ведь?

Многие команды (включая и Compressa AI) начинали LLM проекты с использования облачных API. Но по мере развития все больше разработчиков хотят использовать open-source LLM, чтобы экономить на токенах, снижать latency, запускать fine-tuning на собственных данных и в целом меньше зависеть от внешних моделей.

Из этого курса вы узнаете детали эффективного обслуживания и дообучения open-source LLM, включая методы обработки множества запросов от нескольких пользователей. Используя несколько таких методов одновременно, вы можете улучшить как задержку (latency), так и пропускную способность (throughput). Например, благодаря применению последних open-source технологий в своем продукте, мы добились увеличения пропускной способности до 70x на 1 GPU в сравнении с дефолтными Hugging Face & PyTorch.

Курс слишком объемный даже для лонгрида, в нем много практического кода, поэтому сегодня начну с первых уроков и выпущу следующие части, если увижу живой интерес. Это адаптация, а не прямой копипаст, поэтому где-то немного расширю курс информацией от себя, а где-то сокращу. Также хочется отметить, что русифицирование терминов вокруг LLM — дело довольно неблагодарное, поэтому часть из них будет на английском.

Читать далее
Total votes 23: ↑23 and ↓0+27
Comments12

Как ломаются большие системы и как их траблшутить — инсайты из интенсива ШАДа Яндекса

Reading time10 min
Views6.8K

Привет, меня зовут Руслан Савченко, я руководитель службы разработки динамических таблиц в Yandex Infrastructure и преподаватель в Школе анализа данных. Сегодня я поделюсь актуальными инсайтами о том, как ломаются большие системы и как их траблшутить. Думаю, это будет полезно разработчикам и студентам, которые интересуются Site Reliability Engineering. Вообще, мало где сейчас обучают SRE, хотя в индустрии такие задачи очень востребованы.

В основе статьи — материалы SRE Week, открытого интенсива ШАДа по работе с большими нагруженными системами.

Читать далее
Total votes 22: ↑22 and ↓0+28
Comments0

Как я обучил модель, которая понимает русский лучше GPT 3.5 Turbo

Reading time3 min
Views7.5K

В этой статье я расскажу, как я смог обучить модель, которая превзошла GPT 3.5 Turbo на русскоязычной части MT-Bench. Также я рассмотрю новую конфигурацию для обучения на двух графических процессорах параллельно с помощью accelerate и deepspeed.

Особенный интерес представляет мой датасет для обучения. Он получен из сабсета мультиязычных промтов набора lightblue/tagengo-gpt4 на русском, английском и китайском, всего 10 тысяч примеров, сгенерированных с помощью GPT-4o. Это в 8 раз меньше, чем исходный набор Tagengo, но обученная на последнем Suzume, как показали бенчмарки, лишь очень незначительно превосходит мою модель на ru_mt_bench, а на англоязычном бенче и вовсе уступает ей. Это значит, что я в разы сэкономил на GPU за счет более высокого качества данных, полученных с помощью GPT-4o. 

Я использовал скрипт для получения ответов по заданным промптам. Для генерации русскоязычной выборки я изменил часть скрипта, чтобы выбрать все промпты на русском из Tagengo (8K примеров), так как основной фокус при обучении модели был на русском языке. 

В итоге я получил датасет ruslandev/tagengo-rus-gpt-4o и приступил к обучению.

Для этого я создал виртуальную машину с NVIDIA H100, используя сервис immers.cloud. Для достижения наилучших результатов по instruction-following (что проверяется на MT-Bench) я взял в качестве исходной модели meta-llama/Meta-Llama-3-8B-Instruct. Именно на ней обучена модель Suzume, у которой высокая оценка на MT Bench. Предыдущие эксперименты показали, что базовая Llama-3 8B,  а особенно ее четырехбитная версия для QLoRA  unsloth/llama-3-8b-bnb-4bit - значительно отстает по оценкам бенчмарка.

Читать далее
Total votes 25: ↑24 and ↓1+32
Comments19

Выгорание — личный опыт и пошаговая инструкция по приведению себя в порядок за 24 часа

Level of difficultyEasy
Reading time6 min
Views36K

Меня зовут Слава Усов. В 20 лет я уехал в свою первую экспедицию на Шпицберген, потом в Антарктиду и с тех пор пожил и поработал практически на всех континентах. От ученого до операционного менеджера в Африке и на Ближнем Востоке.

Читать далее
Total votes 49: ↑37 and ↓12+33
Comments46

Как IT-специалисту составить резюме: советы рекрутеров

Reading time3 min
Views16K

Рекрутеры и HR-специалисты просматривают десятки и сотни откликов на вакансии и тратят на резюме примерно минуту. Поэтому емкое резюме — залог того, что кандидата заметят. Мы спросили нескольких эйчаров, что должно быть в хорошем резюме, а чего лучше избегать.

А еще попробуйте заполнить резюме на Хабр Карьере — там же его можно красиво скачать в пдф, которую часто хвалят специалисты в отзывах.

Читать далее
Total votes 25: ↑20 and ↓5+34
Comments44

Установка LLM на скромном VPS

Level of difficultyMedium
Reading time6 min
Views9K

«Я тебя завалю, если ещё раз упомянешь AI», — писал автор нашумевшей статьи. В самом деле, хайп вокруг ИИ всем надоел. Но мы всё-таки рискнём поговорить о том, какую LLM поставить на своём сервере и зачем.

Сразу упомянем, что на серверах RUVDS установлены видеокарты NVIDIA Quadro P4000 (на фото). Карты довольно слабенькие, так что подойдут скорее для проектов в образовательных целях и т. д. Тем более что под VPS выделяется максимум 1 ГБ видеопамяти. Но даже в таких спартанских условиях можно запустить LLM.

Кстати, о VPS с видеокартой. Несколько лет назад мы уже писали о сферах их применения и даже проводили тесты. Всё это можно найти здесь.
Читать дальше →
Total votes 32: ↑30 and ↓2+46
Comments17

Как справиться с нехваткой открытых данных для обучения и тестирования ML-моделей

Reading time7 min
Views4.4K


Привет! Меня зовут Илларион, я аспирант ИТМО и член команды, которая занимается предсказанием временных рядов, порожденных графовыми структурами, и другими исследованиями. Однако в разработке новых методов для прогнозирования есть существенное препятствие — нехватка открытых данных для обучения и тестирования моделей.


Для решения проблемы мы создали открытый инструмент Time Series Generator. Я рассказал о нем на митапе, посвященном open source-разработке для научных задач. Под катом делюсь особенностями разработанного решения и рассматриваю реализуемые им задачи.

Читать дальше →
Total votes 30: ↑29 and ↓1+38
Comments5

Как развивалась технология экстремального сжатия LLM: от QuIP до AQLM с PV-tuning

Reading time4 min
Views9.1K

Мы живём в эпоху LLM — компании применяют на практике всё более крупные модели с миллиардами параметров. Это здорово, потом что большие модели открывают пользователям сервисов новые возможности, но не всё так просто. Размер накладывает ограничения — запускать такие модели очень дорого, а на пользовательских компьютерах — ещё дороже и сложнее. Поэтому часто исследователи и инженеры сначала обучают большую модель, а потом придумывают, как сжать её с минимальными потерями качества, чтобы сделать доступнее. 

Модели выкладываются в формате float16, где на один вес выделяется 16 бит. Два года назад человечество научилось хорошо сжимать нейросети до 4 бит с помощью таких методов, как GPTQ. Но на этом исследователи не остановились, и сейчас актуальная задача — сжатие моделей до 2 бит, то есть в 8 раз. 

Недавно исследователи Yandex Research совместно с коллегами из IST Austria и KAUST предложили новый способ сжатия моделей в 8 раз с помощью комбинации методов AQLM и PV-tuning, который уже доступен разработчикам и исследователям по всему миру — код опубликован в репозитории GitHub. Специалисты также могут скачать сжатые с помощью наших методов популярные опенсорс-модели. Кроме того, мы выложили обучающие материалы, которые помогут разработчикам дообучить уменьшенные нейросети под свои сценарии.

О том, как исследователи пришли к сегодняшним результатам, мы расскажем на примере двух «конкурирующих» команд и их state-of-the-art алгоритмов сжатия — QuIP и AQLM. Это короткая, но увлекательная история «противостояния» исследователей, в которой каждые пару месяцев случаются новые повороты, появляются оптимизации и оригинальные подходы к решению проблем.

Читать далее
Total votes 35: ↑35 and ↓0+44
Comments14

Работаем с PyTorch на CPU

Level of difficultyMedium
Reading time10 min
Views5.8K


В этой статье мы рассмотрим железо, настройки, подводные камни и неочевидные вещи, которые позволят выжать всё из вашего процессора для как можно более комфортной работы PyTorch на CPU. Даже если у вас есть видеокарта, поддерживаемая PyTorch, вы сможете увеличить продуктивность компа через распараллеливание нагрузки на CPU и видеокарту.
Поехали!
Total votes 36: ↑36 and ↓0+51
Comments10

Ускорение генерации токена LLM в два раза для больших контекстов

Level of difficultyMedium
Reading time3 min
Views2.5K
Помимо ChatGPT и многочисленных конкурентов в облаке с веб-мордами и/или API, существует огромная экосистема для запуска LLM на собственном железе. На Huggingface на любой бюджет найдется модель для скачивания, которая влезет в видеопамять (или в RAM, можно и на CPU запускать, если пользователь терпеливый). Вчера здесь на Хабре была очень неплохая обзорная статья.

Самые популярные open source тулы для локального запуска LLM — llama.cpp и vllm (и их многочисленные обертки). У них немного разные ниши, и дальше я буду писать о llama.cpp. Она поддерживает все возможные комбинации железа и ОС — Linux, MacOS, Windows; x86 CPU, Arm, Apple Silicon CPU & GPU, Nvidia, AMD,… Но автор и мейнтейнер — Георгий Герганов использует для разработки Mac Studio. Почему такой выбор железа?

Производительность генерации каждого токена LLM в одном потоке ограничена вычислительной мощностью в процессе построения KV-кэша (анализ промпта до генерации первого токена), и пропускной способностью памяти при генерации последующих токенов. При этом в обоих случаях очень полезно уметь быстро загружать веса из видеопамяти в ALU видеокарты (или CPU).
Читать дальше →
Total votes 10: ↑10 and ↓0+17
Comments5

Как выбрать профессию, если ничего не нравится

Level of difficultyEasy
Reading time11 min
Views31K

Привет, Хабр! Меня зовут Виктория, и я хочу поделиться своей историей о том, как я нашла своё призвание, несмотря на длительные сомнения в выборе профессии. Возможно, мой опыт поможет тем, кто сейчас находится в похожей ситуации.

Еще недавно я была обычной девушкой из Новосибирска, совершенно не представлявшей, чем хочется заниматься в жизни. Школа осталась позади, и впереди был выбор университета и профессии. Ни одна специальность не вызывала у меня энтузиазма. Я листала списки факультетов, читала описания профессий, но ничего не цепляло. "Как выбрать профессию, если ничего не нравится?" – этот вопрос не давал мне покоя.

Казалось, что все вокруг уже определились со своим будущим, а я застряла на перепутье. Родители советовали выбрать что-то "надежное", друзья предлагали идти туда, где проще поступить. Но я понимала, что не хочу проводить большую часть жизни, занимаясь нелюбимым делом только потому, что когда-то не смогла разобраться в себе.

Именно тогда я решила действовать. Ведь если не попробовать разные варианты, как узнать, что может понравиться? Так начался мой путь к профессии мечты, который привел меня к успешной карьере фрилансера в сфере дизайна. Но обо всем по порядку.

Читать далее
Total votes 20: ↑14 and ↓6+11
Comments45

Материалы для подготовки к собеседованию на позицию Data Scientist. Часть 4: Дизайн систем машинного обучения

Level of difficultyMedium
Reading time8 min
Views7.2K

Привет! Меня зовут Артем. Я работаю Data Scientist'ом в компании МегаФон (платформа для безопасной монетизации данных OneFactor). Мы строим скоринговые (credit scoring), лидогенерационные (lead generation) и антифрод (anti-fraud) модели на телеком данных, а также делаем гео-аналитику (geo-analytics).

В предыдущей статье я поделился материалами для подготовки к этапу по специализированному машинному обучению.

В этой статье рассмотрим материалы, которые можно использовать для подготовки к секции по дизайну систем машинного обучения.

Читать далее
Total votes 4: ↑4 and ↓0+4
Comments3

Он победил LLM RAG: реализуем BM25+ с самых азов

Level of difficultyEasy
Reading time18 min
Views15K

Привет, меня зовут Борис. Я автор телеграм канала Борис опять. Периодически мне на глаза попадается что-то интересное и я глубоко в этом закапываюсь. В данном случае это алгоритм поиска BM25+, который победил продвинутые методы векторного поиска на LLM.

Разберемся, что это за зверь и почему он так хорошо работает. В этой статье мы реализуем его на Python с нуля. Начнем с самого простого поиска, перейдем к TF-IDF, а затем выведем из него BM25+.

Статья подойдет тем, кто вообще ничего не знает о поиске, а более опытные ребята могут пролистать до реализации алгоритма.

Код доступен в Google Collab.

Читать далее
Total votes 33: ↑32 and ↓1+39
Comments13

aiogram bot для вуза и куча всего остального

Level of difficultyMedium
Reading time9 min
Views4.2K

Краткий обзор изнутри нашего технологичного помощника в студенческих тяжбах. Проект для студентов, в котором мы помогаем им получать расписание ,отправлять жалобы и еще много всего. А также показано как это все реализовано с любимой асинхронностью, а точнее aiogram, aiohttp, asyncpg .

Читать далее
Total votes 8: ↑5 and ↓3+3
Comments5

Осознанная ходьба для удаленщика. Часть 2: три года спустя

Level of difficultyEasy
Reading time6 min
Views21K

Около трех лет назад я описывала, как обычная ходьба помогла изменить мне образ жизни. Тогда речь шла о преобразованиях на протяжении полугода. Но к сожалению, из-за настройки организма на нагрузки продержаться на том же режиме не получилось. Что поделать - тело адаптируется к новым условиям. Во второй части хочу рассказать, какие изменения пришли позже - с какими проблемами я столкнулась и как их решала. И куда вообще меня завела эта ходьба.

Читать далее
Total votes 16: ↑14 and ↓2+14
Comments12

19:43, еще не завтракал…

Reading time9 min
Views16K

Это подпись к посту в ленте одного руководителя крупной российской компании. Была и подходящая фотография, иллюстрирующая, что человек работает на разрыв аорты.

Да, на работе надо работать, но … разве таким способом? У автора статьи тоже был период работы с утра и до победного. Но был ли от этого толк? 

В данной статье попробуем разобраться, что может стоять за такой демонстрацией миру себя и причины, почему наш герой так поздно завтракает. 

Читать далее
Total votes 20: ↑18 and ↓2+18
Comments29

Самые распространённые ошибки на собеседовании у джунов-разработчиков

Reading time22 min
Views18K

За последний месяц на hh.ru для джунов без опыта было доступно всего около 6% от общего числа опубликованных вакансий для разработчиков. Такое соотношение обусловливает высокую конкуренцию среди начинающих специалистов: дело доходит до сотен претендентов на одно место. Это приводит к тому, что рекрутеры становятся требовательнее и любая ошибка или оплошность на собеседовании может стать причиной отказа.

Спросили у экспертов, какие требования в условиях жёсткого отбора сейчас предъявляют к джунам и на чём чаще всего «валятся» кандидаты. Узнали у наших выпускников — недавних соискателей, а теперь трудоустроенных специалистов, которые в своё время оставили по несколько сотен откликов на вакансии и прошли через десяток собеседований, — в чём были сложности и как им в итоге удалось получить офер.

Читать дальше →
Total votes 21: ↑13 and ↓8+5
Comments23

Information

Rating
Does not participate
Location
Дубна, Москва и Московская обл., Россия
Date of birth
Registered
Activity