Помогите разобраться пож. На https://huggingface.co/models 192тыс опенсорс моделей (+30тыс чекпоинтов), все вариации трансформеров. У вас и др. уважаемых источников их ~100. Это разница в определении?
"...у этого эвристического подхода есть еще ряд недостатков: - не использует сложные свойства данных; - не оптимизирует понятным образом бизнес-метрику; - непредсказуемо себя ведет при любом небольшом изменении
не оч понял из статьи как переход на ML решил эти три недостатка. Особенно про предсказуемость.
Рекомендую фильм ИГРА с Майклом Дугласом, как обрабатывают банкира мультимиллионера которого вроде не развести.
Он прошел тестирование в "секту", как и автор статьи был готов их послать, но вдруг получил звонок "вынуждены вам ОТКАЗАТЬ, вы не прошли". ...а запретный плод он сладок)
Интересно, почему используют GPT а не BERT трансформер который, вроде бы, лучше для специализированных областей. ...GPT в названии = гарантированной маркетинг ?)
Забыли самый интересный факт: Инженеры Apple использовали идеи GUI Xerox Alto который им показали на закрытом туре в 1979, реализовали это в Apple Lisa.
Много слухов что Apple "украл" идею, но инженерам Xerox внутри не давали развивать проект и они перешли в Apple.
так же хочу, как после установки заблокировать ?
Помогите разобраться пож. На https://huggingface.co/models 192тыс опенсорс моделей (+30тыс чекпоинтов), все вариации трансформеров. У вас и др. уважаемых источников их ~100. Это разница в определении?
спс, а есть какие-то количественные сравнения качества обучения?
Или
"что уменьшает размер матриц обновлений на коэффициент до нескольких тысяч." = "в тыс раз меньше"
open source трансформеры уже пару лет в доступе, поясните пож в чем вселенская значимость мартовской утечки
Да, спасибо. Был бы интересен именно такой анализ от типа задачи -> подход к выбору модели
не оч понял из статьи как переход на ML решил эти три недостатка. Особенно про предсказуемость.
Спасибо, вот еще в копилку. Да, основной вывод что "моделей много и будет больше"
Было бы интересно разобраться как сравнивать и выбирать модели для разных целей. Когда нужны трансформеры, когда другие NN или вообще не NN.
Тут есть много пользовательских бенчмарков, но в них еще сложнее разобраться чем в самих моделях)
На "заре GPT" (в январе:) наткнулся на сервис где отвечал человек(и). Понял по ошибкам и явному "гугляжу" между ответами.
Через пару минут он устал, сознался и отключился))).
а как лучше подбирать модели? их десятки или сотни, может есть ресурс где их сравнивают?
"...достаточно 20" для тренировки ckpt или для LoRA?
Спасибо.
Порекомендуйте туториал по нодам, связям и параметрам?
Все что видел в ют без объяснения, скорее всего авторы там сами не в курсе )
C SD 2 так же работает?
Из стандартных заходов - вопрос который вписывается в контекст, на который вы готовы ответить без подозрения
Например в аэропорту
- "Куда летите?"
- "эээ ...в Новосиб"
- "прекрасный город, вам точно понадобится ..."
или на заправке
- "чем заправляетесь?"
- "эээ ...бензином"
-"отличный выбор, вас точно заинтересует ..."
Рекомендую фильм ИГРА с Майклом Дугласом, как обрабатывают банкира мультимиллионера которого вроде не развести.
Он прошел тестирование в "секту", как и автор статьи был готов их послать, но вдруг получил звонок "вынуждены вам ОТКАЗАТЬ, вы не прошли". ...а запретный плод он сладок)
те это как промт на вход который вшит в модель?
Fine tuning создаёт полную копию модели под каждого пользователя? gpt 3 это вроде 700гб
Интересно, почему используют GPT а не BERT трансформер который, вроде бы, лучше для специализированных областей.
...GPT в названии = гарантированной маркетинг ?)
а можете поделиться анализом? многим бы было полезно
кроме стоимости владения, железо быстро устраивает, в облаке постоянно обновляется
Забыли самый интересный факт: Инженеры Apple использовали идеи GUI Xerox Alto который им показали на закрытом туре в 1979, реализовали это в Apple Lisa.
Много слухов что Apple "украл" идею, но инженерам Xerox внутри не давали развивать проект и они перешли в Apple.
ps звучит до боли знакомо