Pull to refresh
1
0
Send message

Как считаете, когда они убьют "свободный" поиск и заставят людей читать только то, что соответствует "политике партии"?

Не сильно понял про "сайты из списка" - этот список пользователем администрИруется?

И я писал в чатик, но там слишком тесно. Есть проблема на андроиде, который "Google TV" - в телевизоре - клиент ставится, но при запуске - чёрный экран и ничего не делает.
Про это будут изменения?

К вопросу об онлайн сервисах.
На deepseek.com реализовали API и "дарят" 1М токенов.
Там модели 67В для чата и 33В для программера

Oscar, здесь "платный трафик" - совсем не то, что вы имеете в виду.

Речь не о байтах и вообще не про ИТ.
Это скорее "сумма денег, которые мы потратили в рекламу, поделенная на число пришедших в итоге клиентов".

Банально в местах, где есть вероятность возникновения такой "аварии" в правильном мире есть "дежурная бригада". Которая имеет ОБЯЗАННОСТЬ приехать и полечить.

Это даже может быть не выделенная команда, а те же самые "дневные" сотрудники, поочередно принимающие эту роль. Но они при этом:

- понимают, что сегодня могут понадобиться в нерабочее время,

- и знают заранее, какова компенсация за эти условия.

При этом вполне могут быть люди, которые скажут "ни за что". И они в этом процессе не должны участвовать.

Тут, конечно, куча других условий, но если "начальник не тупой", то у него не будет людей с уникальными компетенциями, без которых ничего не работает.
Типа одного сварщика на весь завод.

А что такого в штрафе за неправильную парковку? А проходил мимо - есть видеозаписи, где видно. что именно проходил. А участвовал - ну так сам принял решение и риски оценил.

Пора стать взрослыми. Не?

  • Ложь

  • Да нет, "Клади"

  • Ты что, в русской школе учился?

Советским программистам платили оклад.

На FB почему-то слишком тупо встроены фильтры про "Запрещенный контент".
На входе, а не на выходе. Мне не показалось?






Если не хотите ставить себе всяческие automatic1111, то в плане создания изображений есть так же относительно свободный (до 2000 картинок в месяц), основанный на Stable Diffusion, playgroundai.com - доступен вход под гугловской учёткой.

Всё-таки основное отличие у мадам в конце статьи отсутствует - при беге должна быть бОльшая вертикальная амплитуда движения, а при хотьбе - горизонтальная (раскачивания влево-вправо).

Да здесь публикуй - не публикуй, всё равно запустить будет возможность мало у кого.

А для выпуска в массы нужно сделать модели, запускающиеся на бытовом железе.

Ну и сразу снять фильтры про политику и толерантность. Иначе всё равно дообучат. И те, дообученные, модели пойдут в тираж. А родные - отстанут.

Как с моделями Stable Diffusion - "родную" 1.5 использует совсем никто, а новую 2.1, где всё позарезали, вообще все не используют принципиально. А в ходу у всех - модели, которые рисуют всё, что нужно. Да, основанные на 1.5, но другие.

Вся эта затея с заменой купюр уже один раз натыкалась на то, что NCR не обновляли своё ПО в банкоматах и новейшие синенькие и зелёненькие купюры не распознавались.
Почему наши мыши опять решили приколоться с этим кактусом - вообще непонятно.

Совершенно верно, это особенность NUMA архитектуры - чтобы взять данные из куска памяти, который управляется другим процессором, происходит приостановка и обращение к тому процессору. Тот отдаёт, пауза снимается и работа идёт дальше.
И данные между процессорами передаются по шине более медленной, чем сам проц работает со своей личной памятью.

Там всё сильно глубже, но поверхностно - так.

Отличная статья. Спасибо.

Подскажите, а если LLama запускать квантованные, на CPU, там с многоядерностью механизмы запуска дружат?
Больше ядер - будет ли быстрее?

Stable Diffusion + ControlNet + IP Adapter - очень и чётко держит стиль.

Они просто упускают, что "простое общение" - это скорее про творческие задачи, которые не имеют особых условий для чёткой проверки. В этом оно мастер.
В фантастическом рассказе число Пи может меняться. А при решении задач - нет.

А потом окажется, что куча людей, того не зная и не догадываясь, окажутся "распространителями".. Закон же - что дышло.

вчера весь день маялся с запуском локальной ggml модели

Я открыл ссылку Ильи и взял всё прямо там.

Запускается в гугл коллабе великолепно.

Для локального запуска уберите восклицательные знаки в начале каждой строки.

Ну, линукс конечно (а от мало ли).

!sudo apt-get install git-lfs
!pip install llama-cpp-python fire
!wget "https://raw.githubusercontent.com/IlyaGusev/rulm/master/self_instruct/src/interact_llamacpp.py"
!wget "https://huggingface.co/IlyaGusev/saiga2_13b_gguf/resolve/main/ggml-model-q4_K.gguf"
!python3 interact_llamacpp.py ggml-model-q4_K.gguf

опробовал несколько версий модели.

70В отлично знает, что такое манускрипт Войнича, описывает его не хуже меня. У меня есть его полный PDF, и его историю я читал.

13В уже сползает на то, что в нем описана жизнь его героев

7В вообще рассказав в целом всё верно, при просьбе описать его, скатывается в то, что он содержит библейские тексты и написан "в 15 веке в Киеве, столице княжества литовского и руси"

Одна беда - 70В сильно медленна на CPU.. Ну очень.

Я не полез пока разбираться на тему процессоров - имеет ли значение для llama-cpp их количество. Но, что интересно, хотя у Ильи и написано, сколько памяти оно ест, на самом деле при недлинном диалоге больше 2,5 гигабайт ОЗУ не потратилось.

Только хотел, после полугодового погружения в Stable Diffusion, начать погружение в текстовые модели. Изучаю, читаю, и тут такой подарок.
Очень рад и благодарен.

1

Information

Rating
Does not participate
Works in
Registered
Activity

Specialization

Specialist
Lead