Pull to refresh
4
0.3
Константин@dkeiz

User

Send message

статьями определяется не статус ученого а вероятность получения гранта. И тут будет схема - написал статью нейронкой, получил грант, потратил грант на написание статьи нейронкой. Прекрасная самозанятность нейронок и их провайдеров. И у грантодателей прекрасная отчетность. А наука, ну слово было такое забавное, на том и запомнят.

нейрослоп vs kpi от эффектных бюрократов в науке. Победителей тут не будет.

pcie x16 5.0 уже является ограничением для такого подхода для старших(умных) моделей. а глупые ответы можно и на телефоне в 8gb ram получить.
Если точнее в цифрах - как не старайся, а deepseek 671B работает либо аж не 4 mac ultra в 30 т/с, либо на стаке блэквеллов. И то и другое - дорого для дома. А из альтернатив - только если на процессорах начнут hbm распаивать.

да не насколько. Тут есть инерция разработчиков и старые стили написания кода, а вместе с ними инерция LLM к решению таких проблем. Если предложить LLM запустить 5 тестовых решений с активным дебагом и потом выбрать из них 1 работающий - LLM отлично выбирает тот режим что оказывается лучше.
другое дело что не все LLM это делают автоматически и иногда начинают бегать по кругу отладки, но тут уже индивидуально.
LLM с базой знания 2024 года вполне могут работать с библиотеками 2025. Не особо хотят, и иногда сваливаются в предыдущие версии библиотек, но могут.

Чем отличается от rules внутри агентов? Тем что rules - всего лишь дополнительный entry-prompt от пользователя, и LLM вполне может начать игнорировать его с наполнением рабочего контекста. А вот LLM обученная в skills уже игнорировать их не должна. В конце концов для всех типовых задач нужно то 100-150 скилзов, обучить ллмки и пусть не ломают рабочий workflow. Может перестанут базы ронять когда кодотесты не могут пройти.
С mcp и tool call похожая история была. По началу колили кто во что горазд, эффективность была 30-40% и сжигали кучу апи колов на это, так ещё и ретраить надо было по кругу. Теперь даже мелкомодели делают 90% правильных вызовов. Удобно.
А тут хоп, описал пайплайн (например тестирования), моделька его прочитала и не забыла через 5 сообщений.
Так видится.

Так скинули разнарядку: срочно поднять эффективность экономики, вот и предлагают поднять барщину до 6 дней. Есть предложение - есть KPI - можно премию выписать.

вы слишком хорошо хорошо о них думаете, там планы на 8дневку, барщину, оброк, церковную десятину и право первой ночи.

так там модель годовалой давности, которую при этом можно на телефоне запустить. Вы действительно это указываете в качестве неудачи?

может вы не выбираете LLM провайдера? в Perplexity была отличная возможность почти без ограничений спрашивать GPT5/Sonnet4.5/Gemini3pro. Кто из них оказался тупеньким то?

вы недельный расчет на пк делаете? альтернатив нет?

>Загадочный смысл у этого вопроса, что вы вообще имели в виду?
Хотелось бы реальный список зада где реальной производительности реально не хватает. Убрать все сложновычислительные задачи, которые считаются на кластерах или через видеокарты. Убрать хайлоад в серверах, которые решаются за счет линейного масшатабирования.
Что останется? Очень долгая компиляция сложных проектов на макбуках, потому что мак про слишком дорогой? Так получается проблема не в производительности а в цене.
>Если ударяться в такие степи
Если не ударяться в такие степи то все остальное бессмысленно. Какое контрактное производство будет доступно, на таком и будем делать. А скорее всего не будем, потому что им продавать готовую продукцию нам - выгоднее, при условии грамотной логистики производства.

мне вот ради интереса, можете описать реальный стэк где не хватает? вот прям реально не хватает, а не чтобы оно делает расчет по 8 часов, а хотелось бы за 4.

оу, прошу прощения. Нет никакой проблемы в однопоточной производительности или в режиме трансляции. Есть одна проблема - эльбрус. Его не производит. Никто. И не будет.
Нет необходимости параллелить или оптимизировать код под не производимый процессор. Ничего под него него требуется. Сдох тузик, и не по своей вине.
А с дедами я вас спутал, потому что именно такое же ворчание встречал на форумах лет 10-15 назад. И про что надо просто все взять и перекомпилировать. И про то что x86 мертв. И про то что будущее за параллелизмом команд. И все они оказались правы. Вот только эльбрус до этих счастливых дней не дожил.

И я то вас понял, ещё лет 10 назад понял. а вот вы меня не поняли. Одно изменилось. Эльбрус вышел. Он был не плох. Его можно было допиливать и с ним работать. Но больше эльбруса нет. И не будет. Нечего оптимизировать под процессор которого нет и не будет. И нет никакого рака прикладного ПО. 90% людей пользуется телефонами на 3ггц и 6-8gb одноплатной памяти и все у них хорошо. И у софта все хорошо, когда интернет ловит. Хотя и этого скоро не будет.

Единственный бред - это выстраивать системы и заставлять людей работать под несуществующий продукт. На свои деньги выстраивайте, я на вас посмотрю.
По поводу однопотока - у нас есть прекрасные примеры от apple, которые воткнули другой подход к контроллеру памяти и всем всего хватает. И от amd, которые поставляли процессоры на 1ггц меньше, но с 3D-кэшем, и хрен их купишь теперь.

согласен, для памяти другие обозначения (1β - 1γ), но оно вызовет больше путаницы чем понимания. 4нм это про HBM. Но даже 12нм - это это пол года минимум если все готовое.

люди не предвидели, потому что люди не предвидели 100 млрд денег кэша у одной компании, которая выкупит все открытые контракты на поставку памяти. Ну не каждый день у одной компании без обязательств появляется сто ярдов денег на которые она уже не знает что ещё купить. А смогут ли китайцы закрыть грядущий дефицит для себя - им нечем его закрывать, 2nm на деревьях не растут, а из стареньких 7nm делать жутко не выгодно. Рынок покажет, но возможно на безрыбье и старую память начнут клепать. Но даже в таком случае задержка до выхода продукции 3-6 месяцев.

дед, во давай по честному, где имеет место быть недостаток производительности железа? Вот этот недостаток производительности он с нами в одной комнате?

Проблема эльбруса не в эльбрусе, хотя vliw попробовали все желающие, и все от него отказались. Проблема его - в производстве на литографии. Был бы свой 2nm завод можно было бы хоть в телефон пихать.

>, что задача была что sequence должен начать выдачу с "последнее значение KeyId + 1
Вот так бы дипсику и ответили, и показали что он об этом думает.

Есть подозрение что высокая ценна - это pay wall чтобы конкуренты, особенно откуда-то с азии, не получали высококачественные синтетические данные. А то внезапно через 2 месяца выйдет deepseek r2 по всем тестам догоняющий, но опять условно бесплатный. Второй раз такой ошибки не будет.

ради такого можно и }коду попробовать

токен - базовая единица для языковых моделей и вообще расчета инференса.
Раньше люди информацию измеряли мегабайтами, LLM измеряет токенами.

Information

Rating
2,366-th
Location
Чебоксары, Чувашия, Россия
Date of birth
Registered
Activity