Последний год я активно работал в проектах, связанных с обучением и использованием больших языковых моделей (LLM). В какие-то темы углублялся сильнее, а какие-то изучал поверхностно для общего развития. По отдельным интересным мне направлениям я написал обзоры или сделал семинары, но потом мне захотелось как-то агрегировать весь накопленный багаж опыта и знаний в одном докладе. Сделать его не супер подробным, зато очень полным и понятным для людей, которые в теме ML и DL, но не сильно вовлечены в область языковых моделей.
Собранный материал, на мой личный взгляд, с этой задачей справляется, и я с удовольствием поделился им с коллегами в МФТИ, Сколтехе, SberDevices и сообществе YNDX Family. Последний рассказ получился самым полным и подробным, его запись я решил презентовать на Хабре. Приятного погружения в мир обучения LLM:)
Заметки на полях:
Доклад был принят в качестве туториала на замечательную конференцию OpenTalks.ai, но она, к всеобщему сожалению, в этом году не состоялась
Презентация доклада доступна по ссылке
Видеоматериал подготовлен на основе совместной онлайн-встречи YNDX Family (неофициального сообщества текущих и бывших сотрудников Яндекса) и UnionVK (сообщества выпускников группы VK). Если ты работал в этих компаниях - вступай в комьюнити)