Search
Write a publication
Pull to refresh
34
0
Эдгар @ZergsLaw

User

Send message

Это как раз я хочу поднять в следующей статье, чтобы объяснить и помочь разобраться, как работает к примеру банк в cursor, и аналогах, а также особенности работы с памятью, когда нужно вгружать слишком много контекста (так как там есть еще подход для работы)

Все еще дороже по времени выйдет (в плане, писать что либо свое всегда дольше, чем взять и вызвать cli)

Да, еще и LLM свою через танцы с бубном подключались

Отлично понимаю, если хочешь, можем в ТГ списаться и перекинуться инфой по AFFiNE, если нужно, постараюсь помочь чем смогу

Я про то, что AFFiNE работает локально без докера :)

Подправил, в ночи дописывал и должен был во все названия добавить, но забыл, уже исправил

Если для тебя запуск через докер = локальный запуск, ладно, не трогаю тебя :)

Но AFFiNE может работаь без сервера, надеюсь, не сильно удивит тебя

Упс, я тут облажался, сейчас добавлю

И таблицы и презентации видел, там достаточно популярные плагины для работы с ним есть (я про obsidian) и сам в шоке, когда увидел и мне показывали, как с этим работать, особенно с презентацией в MD :D

Для AFFiNE тоже не нужен отдельный сервер :)

Ты можешь его также исключительно локально держать

1) Окей
2) автор указал, какую стоимость железа он хотел использовать, а также, что под рукой был вариант удобной домашней тачки которую и обкатывают, а также автор не хотел брать карту и подключать через thunderbolt и возится с настройкой eGPU :)

и в этом нет ничего такого

Да, я и не говорил, что это плохо :)

выкачивали

Да, хорошо, формировали гигантский пул дата сета, чтобы на нем обучать :)

Если бы ты почитал статью R1 на архиве, то понял бы, что там вообще нет место никаким данным от OpenAI - их даже при желании туда засунуть нельзя


Получается, если я создам модель, которая будет строится и обучатся на данных, сгенерированных из DeepSeek-r1 , затем, ею сформирую данные для обучения, к примеру Sipki-r0 модель, то я буду также считать, что она не дистилят, хороший вариант, спасибо :)

Сама механика обучения, сами процедуры и так далее, действительно были разработаны, однако "мыслительный" процесс не совсем относится к дистиляции

Не совсем могу согласится, так как это была одна из крупных причин, почему началось активное давление на DeepSeek, когда ребята из OpenAI начали активно трубить, что у них по API были большие выкачки данных, просто юридически - это не запрещено, что и не привело к продолжению

Можно много спорить на тему способа обучения, но дата сет собран в том числе на базе выкачки из ChatGPT - https://www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-obtained-openai-data

Так тогда ответишь на вопрос? :)

а, я решил, что в статье моей, так что запутался :D

Он сильно-сильно слабее оказался по качеству

1

Information

Rating
609-th
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity

Specialization

Backend Developer
Senior