Linearizability (линеаризуемость) — свойство распределённой системы, при котором все операции выглядят так, будто они выполняются в некотором последовательном порядке.
Не совсем понятно, что имеется ввид, отсортировал по таймштампам с достаточной точностью, и получил последовательный порядок в любой системе, вряд ли же таймштампы совпадут с точностью до микросекунды.
мы формализовали допустимые состояния и переходы, исключив из них некорректные
Было бы интересно, если бы рассказали как. Тем более уже формализовали.
Причем тут hf? Вопрос был зачем? - Потому что есть видеокарта. Понятно. А так было бы интереснее посмотреть на тот стейдж и какие там задачи решают ллмки на 3B параметров, если это конечно не фантазии.
А какой контекст у моделей на ревью? Есть что то кроме дифа, и как она его получает, как он ей передается? К слову сейчас агенты могут по дифу найти всю необходимую информацию по проекту. Так что то, какой кодинг агент используется, не менее важно, чем модель. Если это просто послать по апишке модели в облако диф + RAG - это уже пастген,
Любая задача где чату гпт не хватает пермиссий в его песочнице, типа скачать какой-то нетекст и поискать там или дёрнуть какую-нибудь апишку.
Так арендуйте и рассчитывайте, кто же вам запрещает
О сколько нам открытий чудных)
Один ии написал, другой проверил, в чём разница? Ну кроме того что ии...
это так если документ попадает в систему без ревью, которое бы его не пропустило
Вы так удивляетесь, как будто бы никогда не видели тестов написанных людьми на свой же код. И все это в продакшене.
То есть стало лучше в плане затрат? Верификация осталась такой же дорогой зато создание стало бесплатное.
Или вас беспокоит то, что объём неверифицированного контента вырастет?
Непонятно что поменялось с появлением ии
А что же вы будучи активным пользователем на своих собственных задачах не сравнили а синтетику придумываете?
То есть вы решили проблему контекста переходом к большей модели?
А если и её контекста перестанет хватать для ваших спек?
А можно чтобы он ещё цену будущего деплоймента прикидывал?
в реалтайме?
А если из состояния есть несколько валидных переходов, как вы выбираете?
Не совсем понятно, что имеется ввид, отсортировал по таймштампам с достаточной точностью, и получил последовательный порядок в любой системе, вряд ли же таймштампы совпадут с точностью до микросекунды.
Было бы интересно, если бы рассказали как. Тем более уже формализовали.
Хорошо что вам хоть немножко полегчает
Было бы странно не пользоваться с халявными мощностями.
Причем тут hf? Вопрос был зачем? - Потому что есть видеокарта. Понятно.
А так было бы интереснее посмотреть на тот стейдж и какие там задачи решают ллмки на 3B параметров, если это конечно не фантазии.
Не совсем понятно зачем начинать читать что-то в принципе, будучи носителем подлинного знания
10 токенов в секунду для личного использования более чем комфортно. И это всё на каком-нибудь MacBook air. А не системник с гпу.
Как будто бы инферинг ллмки - это не тот случай когда ГПУ маст хэв. А вот всякие диффузионки для генерации медиа, там без гпу действительно тяжко.
Зачем так мучиться с амд гпу если 8 ГБ быстро работают и на проце.
Вы сейчас многих лидов обидели
А какой контекст у моделей на ревью? Есть что то кроме дифа, и как она его получает, как он ей передается?
К слову сейчас агенты могут по дифу найти всю необходимую информацию по проекту. Так что то, какой кодинг агент используется, не менее важно, чем модель.
Если это просто послать по апишке модели в облако диф + RAG - это уже пастген,