Обновить
-3
@defin85read⁠-⁠only

Пользователь

Отправить сообщение

если опираться на ваши слова, что после заполнения контекстного окна в 32к начинается рассинхрон, то все эти LLM по сути непригодны к эксплуатации, так как из практики даже относительно небольшое исследование кода на первой итерации отъедает по 40-50 тысяч токенов

32k контекста это на один вопрос

ГУЛАГ всё ближе

«1. Не думай.2. Если думаешь — не говори.3. Если думаешь и говоришь — не пиши.4. Если думаешь, говоришь, пишешь — не подписывай.5. Если думаешь, говоришь, пишешь и подписываешь — не удивляйся».

даже дистиляты с нормальной скоростью на обычном компе не работают, контекстное окно нужно на размещать на GPU

Какие еще 10 раз?

Достаточно посмотреть на тарифы по API чтобы вопросы отпали

А где вы возьмёте 5000 GPU чтобы запускать открытую модель?

А вы могли бы свой пример про юзеров более подробно расписать? А то звучит как-то странно

Может вам еще ключи от квартиры где деньги лежат? Рассказывать в публичном пространстве про детали преступных схем, это надо быть каким-то одарённым

Только что проверил, норм ответ

Все части doom хороши

А какие прорывы совершила AlphaEvolve?

А пока выводишь на печать, потихонечку себе сохраняешь

Её даже не способен

Было бы неплохо написать статью, в которой показать, как правильно скормить свой проект LLM

Microsoft не привыкать хоронить технологии, самый прикол будет когда новые LLM будут кодить старые LLM

Пользуйся режимом ask, а не агент и руками переноси код

У этого человека был план и он его придерживался, а вообще не надо пытаться объять необъятное - LLM отличный инструмент, если грамотно дробить задачу и сначала заставлять его писать макеты из заглушек, а потом постепенно наполнять. Так-то конечно если за раз 10 файлов полновесных генерить, то шляпа получается

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность