Pull to refresh
62
-3
Send message

Спасибо за столь интересную статью. Твоя дообеденная модель на основе Mistral, по моему личному опыту, значительно превосходит GigaChat. Она решет мои задачи значительно лучше!

С таким не сталкивался, думаю такое должно гуглиться, это не похоже на проблему проекта. Или не гуглится?

А я только начинал писать статью про метод обхода блокировок без всяких прокси и впн. Походу эту статью так и не опубликую уже((

Лама есть и больших размерностей чем 13B, соответственно связей и знаний в ней больше, может анализировать более глубокий смысл. Плюс уже много проектов, которые оптимизировали ламу для запуска на всем подряд. Но да, этот проект тоже очень крутой, оптимизировать бы его еще для запуска на обычных процессорах)

На huggingface думаю можно скачать. По поводу русского, да, дообучить до хорошего понимания русского ее пока очень трудно, понадобится много ресурсов. А сейчас она плохо понимает и пишет на русском, так как в обучающем наборе было мало русских текстов.

Вообще у меня есть планы переобучить llama на русский с изменением ее структуры, чтобы и писала быстрее. может потом этим займусь, буду в телеграме об этом писать

Llama 7B весьма плоховата в понимании русского, так что умного много не напишет, будет понятно, что текст сгенерирован. Можете и не на диалогах вк обучать) можно и из других сервисов достать сообщения для обучения

Если вы хотите узнать как я сжал нейронку которую обучал, то я использовал утилиту ./quantize из проекта llama.cpp, там параметром и уровень сжатия передается.

Фразы я разделял просто новой строкой. Для обучения на стиль диалога не требуется instruction. В input я клал 8 фраз и 3 в output. Грубо говоря и это излишне сложно, так как обучалась она одинаков и на input и на output, можно и просто по несколько фраз в input кидать, если я не ошибаюсь.

Думаю такое реализовать весьма сложно, так как толком не видел нигде описаний протокола по которому общаются часы и приложение

Да, можно или подписаться на события замеров или просто раз в сутки скидывать всю историю замеров, вот тут есть описание апи https://docs.zepp.com/docs/1.0/reference/device-app-api/hmSensor/sensorId/HEART/

Единственно у них фиговоею, весьма, апи для взаимодействия с другими приложениями на телефоне. Точнее его нет. Можно использовать для этого FetchApi, но тогда ваше приложение должно будет постоянно слушать порт. Я не нашел в документации способа создавать системные Intent-ы(

Вообще можно на малинке прослушивать какой-то порт, часы законектить к телефону, cделать приложуху как в статье, и тогда часы смогут кидать на малинку запросы по fetch api через телефон. А так чтобы напрямую, без особых заморочек - хз, только если андроид на малинку поставить)

Добрый вечер, нет, не попадалось. Но я и не искал особо) В теории, думаю, у них должно быть реализовано взаимодействие через какую-то интегрированную либу, но я не пытался понять так ли это. Может еще на гитхабе кто-то выкладывал опенсорс приложения.. вроде есть сильно ограниченные по функционалу, неофициальные приложухи в плей маркете.

Проект приложения на часы залил на GitHub https://github.com/Vadim170/zepp-fetch-ident-me/tree/main там в папке dist скомпилированное приложение. И вот ссылка на перекомпилированный apk https://disk.yandex.ru/d/kwOfa0LPm2N3CQ

Я пока не очень долго ими пользуюсь, как я понял от 2-3 дней до примерно двух недель. Зависит от того какие функции включены. Да, прошлые модели, вроде, дольше держали

Очень рад что вам понравилось)

Information

Rating
Does not participate
Location
Россия
Date of birth
Registered
Activity