Это как раз я хочу поднять в следующей статье, чтобы объяснить и помочь разобраться, как работает к примеру банк в cursor, и аналогах, а также особенности работы с памятью, когда нужно вгружать слишком много контекста (так как там есть еще подход для работы)
И таблицы и презентации видел, там достаточно популярные плагины для работы с ним есть (я про obsidian) и сам в шоке, когда увидел и мне показывали, как с этим работать, особенно с презентацией в MD :D
1) Окей 2) автор указал, какую стоимость железа он хотел использовать, а также, что под рукой был вариант удобной домашней тачки которую и обкатывают, а также автор не хотел брать карту и подключать через thunderbolt и возится с настройкой eGPU :)
Да, хорошо, формировали гигантский пул дата сета, чтобы на нем обучать :)
Если бы ты почитал статью R1 на архиве, то понял бы, что там вообще нет место никаким данным от OpenAI - их даже при желании туда засунуть нельзя
Получается, если я создам модель, которая будет строится и обучатся на данных, сгенерированных из DeepSeek-r1 , затем, ею сформирую данные для обучения, к примеру Sipki-r0 модель, то я буду также считать, что она не дистилят, хороший вариант, спасибо :)
Сама механика обучения, сами процедуры и так далее, действительно были разработаны, однако "мыслительный" процесс не совсем относится к дистиляции
Не совсем могу согласится, так как это была одна из крупных причин, почему началось активное давление на DeepSeek, когда ребята из OpenAI начали активно трубить, что у них по API были большие выкачки данных, просто юридически - это не запрещено, что и не привело к продолжению
Это как раз я хочу поднять в следующей статье, чтобы объяснить и помочь разобраться, как работает к примеру банк в cursor, и аналогах, а также особенности работы с памятью, когда нужно вгружать слишком много контекста (так как там есть еще подход для работы)
Спасибо за комментарий, учтем :)
Ровно в 23:59, еле успели залететь в сезон
Нет
Все еще дороже по времени выйдет (в плане, писать что либо свое всегда дольше, чем взять и вызвать cli)
Да, еще и LLM свою через танцы с бубном подключались
Отлично понимаю, если хочешь, можем в ТГ списаться и перекинуться инфой по AFFiNE, если нужно, постараюсь помочь чем смогу
Я про то, что AFFiNE работает локально без докера :)
Подправил, в ночи дописывал и должен был во все названия добавить, но забыл, уже исправил
Если для тебя запуск через докер = локальный запуск, ладно, не трогаю тебя :)
Но AFFiNE может работаь без сервера, надеюсь, не сильно удивит тебя
Упс, я тут облажался, сейчас добавлю
И таблицы и презентации видел, там достаточно популярные плагины для работы с ним есть (я про obsidian) и сам в шоке, когда увидел и мне показывали, как с этим работать, особенно с презентацией в MD :D
Для AFFiNE тоже не нужен отдельный сервер :)
Ты можешь его также исключительно локально держать
1) Окей
2) автор указал, какую стоимость железа он хотел использовать, а также, что под рукой был вариант удобной домашней тачки которую и обкатывают, а также автор не хотел брать карту и подключать через thunderbolt и возится с настройкой eGPU :)
Да, я и не говорил, что это плохо :)
Да, хорошо, формировали гигантский пул дата сета, чтобы на нем обучать :)
Получается, если я создам модель, которая будет строится и обучатся на данных, сгенерированных из DeepSeek-r1 , затем, ею сформирую данные для обучения, к примеру Sipki-r0 модель, то я буду также считать, что она не дистилят, хороший вариант, спасибо :)
Сама механика обучения, сами процедуры и так далее, действительно были разработаны, однако "мыслительный" процесс не совсем относится к дистиляции
Не совсем могу согласится, так как это была одна из крупных причин, почему началось активное давление на DeepSeek, когда ребята из OpenAI начали активно трубить, что у них по API были большие выкачки данных, просто юридически - это не запрещено, что и не привело к продолжению
Можно много спорить на тему способа обучения, но дата сет собран в том числе на базе выкачки из ChatGPT - https://www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-obtained-openai-data
-_-
Так тогда ответишь на вопрос? :)
а, я решил, что в статье моей, так что запутался :D
Он сильно-сильно слабее оказался по качеству