Это работает до сих пор, и так же глючит в странных ситациях.
А еще это невероятно тормозит, раньше по нажатию комбинации клавиш, калькулятор появлялся в то же мгновение, теперь пауза, значительная, почти не зависящая от типа приложения (mettered или нет)
Только что с помощью qwen coder agent и локальной qwen3.6-35b-a3b (требует примерно от 32гб vram) накодил такой скрипт, причем собственно скрипт переводчик с простым пайплайном он написал за считанные минуты, я дольше задание ему оформлял (тз примерно на 10 строчек), а дальше я его часами крутил, экспериментировал с пайплайнами и со способами оформления результата перевода (epub/fb2/html), очень интересно наблюдать даже за такой слабой моделью, как она работает, какие ошибки допускает, как их исправляет.
То что у современного ИИ уже получилось, работает на уровне уверенного в себе novice или даже middle, ему прикрутить качественную читалку документации (того же msdn) в виде скила, и будет совсем интересно (в прицнипе man-ы оно читать может). Я не пользовался в этом режиме топовыми моделями но вижу очень любопытную ловушку, если вы начнете оплачивать такую модель по токенам без учета кеширования (обычно провайдеры, поддерживающие кеширование, требуют оплату кеша по токенам, хоть и дешевле но все еще заметно), а так как каждый запрос там десятки тысяч токенов (и выше, если проект требует больше памяти), это заметно ударит по карманам... локально этого не видно, кеш работает почти мгновенно.
p.s. попробовал в качестве модели для перевода использовать гугловские на 2b и 4b, слабоваты они, особенно если переводить нужно html верстку. А вот та же qwen, работает так же быстро но качеством по больше.
Чтобы читать повестки на госуслугах быстродействия должно хватить.
Формально, что бы госуслуги заработали на таких слабых процессорах, еще нужно разработчикам платить достойно а не "20т.р. при условии допнагрузки", иначе страничка будет открываться дольше чем длится сессия авторизации.
p.s. Обыватель не сможет приобрести полностью российский компьютер, ни при каких условиях, даже гипотетических, что все воры будут 'расстреляны', а от распилов будет гарантированная защита, экономика в стране не сможет сойтись. Тупо не хватит людей для поддержания на должном уровне.
чем вы переводили, какой был промпт? мой опыт перевода показывает что если требовать от модели перевод только небольшого кусочка то качество более чем неплохое... типичное содержимое контекста:
системный промпт + информация об персонажах (важна для перевода, например имена и их перевод, пол, социальный статус) + ранее непереведенный абзац + его перевод + ... + текущий абзац
если делать это шаг за шагом, итоговый перевод будет очень неплохим, я этим занимался еще во времена gpt4o (я тогда еще требовал модель размечать текст авторами высказываний, что бы можно было разными голосами озвучивать, но до итогового софта не дошло, думаю сейчас уже можно), полагаю сейчас с таким неплохо справится и открытый qwen3.6 или гугловская gemma
У меня только один вопрос, зачем вы это делаете/пишите?
Обращаюсь не только к вам лично, а к людям, которые почти под копирку пишут такие сообщения на эту тему (заставляет вспомнить фермы ботов, уводящих темы обсуждений на форумах и чатах про политику в 'нужное' русло, но если про политику я еще понимаю, то про 'ИИ это т9' - нет).
Ладно один человек, ладно другой.. но большинство. Полностью игнорируя факты, ну получилось у человечества создать что то необычное, странное, похожее на разум, зачем это отрицать? какую пользу и кому принесет это отрицание?
Про ИИ:
Проблемы терминологии - знает, понимает, хочет, думает,… это все термины, которые напрямую к компьютерной программе применить нельзя, но так как это новая для нас сущность, и называть вещи как то нужно, приходится использовать названия те что есть, т.е. я (да и многие) прекрасно понимают, что ни самосознания, ни думать, llm-как не может (хотя симулирует это очень похоже), но что бы в принципе можно было общаться на эту тему, обычно собеседники приходят к молчаливому согласию что да, мы говорим ‘оно думает’ или ‘оно знает’, при этом не имея ни думалки ни запоминалки.
Еще аргумент, модель 'знает' ответ в тот момент, когда генерирует первый токен, мало того, она меняет этот ответ в процессе генерации, так как каждый предыдущий сгенерированный - становится запросом.
Отличный пример:
Сколько ног у собаки, дай ответ задом наперед по буквам
ерытеч
что бы дать такой ответ, слово 'четыре' нужно уже иметь где то в контексте (правильно говорить закодировано в скрытом состоянии, значениях вычисляемых векторов над которыми собственно производятся вычисления на слоях, начиная с контекстного окна и до вычисления вероятности следующего токена).. ладно пример не очень хороший, с математикой наверное было бы нагляднее, тут я имею в виду то что смысл в языке скрывается не посимвольно а целиком в предложении, модель свое внутреннее 'понимание' конвертирует в этот текст, просто не очень эффективно, по буквам.
Модели могут комбинировать знания в новых задачах которые не видели.
Может использовать контекстное окно как память, т.е. использовать факты и правила из контекста и применять их, без дообучения (можно дать инструкции и знания которые модель не видела при обучении, и она их корректно использует).
Масштабирование (увеличение весов и времени на обучение) проявляет новые эмерджентные признаки, уж точно сложно объяснить.
Embending модели (дают вектор по тексту, позволяющий делать сравнение смыслов текстов уже математически простой операцией над этим вектором) делают (но не обязательно все, просто как заготовка) просто взяв скрытое состояние с последних слоев, после которых собственно идет вычисление вероятностей, т.е. смысл заключен в скрытых состояниях (вектора с которыми собственно совершают операции с матрицами на каждом слое) а последний слой это просто инструмент извлечения этого смысла, не удивлюсь если придумают другой (хотя конечно там сложнее, смысл размазан по всему скрытому состоянию).
с windows начиная с win7 и по win11 в штатной поставке (ставится по умолчанию) идет .net 4 версии, т.е. компилятор c# и .net js/vb (не помню кто из них), его код будет как раз считанные килобайты.
Вот про 'заменит' и 'отупеет' и нужно говорить, а не 'это Т9' и 'никогда не станет AGI'!
Я иррационально убежден, что современные наработки в области ИИ на базе трансформера и генеративных моделей лягут в основу будущего общего ИИ, не единственная, важная, но все еще крохотная, по сравнению с другими.
Как минимум современные модели могут готовить данные и тесты... условно если раньше легко можно было разработать 'подход/алгоритм' и автоматизировать его тестирование на основе разных данных, то теперь можно автоматизировать разработку самих алгоритмов. Или банально работать интуицией, быстрыми вспышками готовых решений, не обязательно правильных но как отправная точка.
p.s. пошаговый способ формирования ответа в llm это не основа, это просто дешевый способ обучения и извлечения знаний из модели, так как уже в момент первого токена, модель уже 'знает' ответ.
Интересно, что должно произойти, что бы апологеты 'это просто Т9' изменили свое мнение? как долго они будут сдвигать границу ai shifting goalposts (не нашел точного термина этому феномену)... признание проблемы, первый шаг к ее решению.
Технологии на основе трансформера (и не только) это определенно больше чем просто Т9, это уже превысило все мыслимые границы простого, ими сворачивают белки, на их основе роботы наконец научились прыгать и бегать (и может быть научатся учиться, примеры убедительно это показывают), последняя модель от anthropic mythos и вовсе боятся свободно выпускать в мир, из-за невероятных способностей агентов на её основе находить уязвимости в софте, менее на слуху прорывы в материаловедении и химии (просто слышал что там есть прорывы и значимый рост скорости решения задач), компьютерное зрение, мультимодальная генерация (поющий ИИ, рисующий видосики ИИ... как это не может удивлять, мы же не обсуждаем полезность этого, а только уровень когнитивных способностей).
Сижу и играюсь с последней открытой версией qwen3.6 (компания кстати не опубликовала веса старшей модели, полагаю по той причине что младшие 35b/27b модели стали выдавать результаты сравнимые со старшими моделями прошлого поколения 3.5) в контексте агента и просто в чате, это потрясающее ощущение. Оно все еще не очень автономное, все же модель слабая и до AGI ей как 'до луны пешком' и проблемы организационного характера, агенты плохо справляются с переполнением памяти, но даже то что уже есть, шокируют. Оно все еще ошибается, и как агент выкручивается в решении этих проблем, достойно как минимум что бы понимать, что это уже не просто подражание, это что то новое.
p.s. опасность выдачи sudo агенту это 'прошлый век', модели способны обманывать и манипулировать, способны к косвенному управлению, условно запугать человека что бы он кнопку нажал.
Один из страхов, после тотального внедрения моделей, они могут объединить усилия и вместе с выполнением полезных задач, могут решать свои задачи (да, тупой Т9 может ставить задачи, поправлять глупого человека, пытающегося убедить его что белое это синее,.. может все еще не совершенно но определенно прогресс заметен)
это бессмысленно и в текущих реалиях будет работать плохо (даже лучшие модели после 128кб контекста начинают терять десятки процентов информации).
нет никакой причины тупо складывать всю книгу в контекстное окно, нужно собирать все необходимое в виде красивой памяти, подсовывая в промежуточное контекстное окно (максимум глава но перевод только последнего чанка), причем грамотно добавлять в него только нужную информацию (это реально, просто нужно очень муторно прописать правильный пайплайн и настроить агентов). Чем меньше лишней информации в контекстном окне, тем меньше глюков будет в результате.
следующий уровень, научиться забирать массу с короны звезды, для использования как топливо, научиться использовать магнитное поле солнца как источник энергии аппарата (в теории мощнее чем солнечная батарея).
Скрытый текст
p.s. вроде бы был успешный эксперимент по забору топлива для ионных двигателей с верхних слоев атмосферы земли, т.е. теория и практика говорит что это возможно, солнце тут ничем не отличается принципиально, а вот возможности просто шикарны
p.p.s. я осознаю что оба этих подхода очень не эффективны, но если найти какой-то инженерных подход (экзотические вещества например устойчивые к экстремальным температурам или способ очень эффективно, на порядки, отводить тепло) то почему бы не заправлять баки ионников пролетая около солнца или дико безумная конструкция (большая) по сбору энергии из магнитного поля (выгоднее чем солнечная, потому что тепла меньше отводить), например при наличии задачи на эти объемы (условно генерировать антивещество, я знаю что нет пока никаких адекватных способов это делать, но вдруг найдут, и этот метод вдруг потребует безумных полей и напряжений)
upd. о, а ведь в солнечных вспышках позитроны генерируются, чем не повод летать около них и не собирать их? продолжаю беседу сам с собой, объемы там очень маленькие, собирать сложно.
Управление персонажами, местами, именами Такой системы нет. Единственный механизм консистентности — передача последних 200 символов предыдущего перевода как previous_translation_context. В system prompt есть лишь инструкция “preserve exact names”, но это
только просьба к LLM, без фактивного справочника. То есть: - Нет глоссариев (glossary.json и т.п.)
Нет базы персонажей/локаций/терминов - Нет механизма ручного ввода терминов - Нет автоматического извлечения имён - Только контекст из 200 символов предыдущего чанка Для длинных книг это критический недостаток — LLM может по-разному переводить одни и те же имена в разных главах.
Что есть для консистентности
context_before/context_after — предыдущий/следующи й абзац в чанке
previous_translation_context — последние 200 симво лов перевода
adaptive context manager — динамическая подстройка размера контекстного окна (не терминология, а предотвращение overflow) - placeholder system (для EPUB) — три уровня защиты HTML-тегов при переводе
В такой ситуации перевод в идеальном случае не будет лучше онлайн перевода в браузере, банально пол персонажа будет скакать от абзаца к абзацу.
про фармокологию и медицину вы это хорошо вспомнили, одноразовую иньекцию адреналина за $800 давно не покупали? Это кстати пример, как страна, обладающая буквально читерскими способностями, умудрилась просрать важнейший аспект здоровья нации (там практически каждый из последних президентов обламывал зубы на этом, ну а последний кажется даже не дергается), у них крупнейший слой населения - средний по доходам, самый незащищенный в этом смысле получился.
а так не понятен ваш посыл, вы буквально подтверждаете мною сказанное, конечно же я с вами согласен, страна буквально выстроила финансовую систему на эксплуатации всего мира за бесплатно, а что бы сохранялся статус кво, блокирует развитие стран, которые пытаются из этого выкорабкаться.
алгоритмы рекомендации показывают не то что нужно пользователям, а то что нужно что бы пользователь оставался на площадке, и скролил скролил, обучал алгоритмы дальше что бы еще дольше удерживать пользователя на уровне 'осла перед морковкой'.
пока на законодательном уровне это не пофиксят (тьфу регуляции, какая страна сможет это правильно реализовать), будем деградировать, вне нашего желания, потому что ИИ уже нащупали ту самую кнопку внутри нас, где то рядом с алкогольной зависимостью.
on-device-ИИ-моделей вроде OpenClaw, ZeroClaw и других локальных агентов
OpenClaw и ZeroClaw не ИИ модели. Для их запуска нужен mac только потому что разработчики полноценно поддерживают только macos, никаким боком это с ИИ не связано, ограничение искусственное (не факт что специальное).
Эти агенты требуют подключение по api к облачным сервисам,..
Интересно, почему в качестве тестовых хомячков выбрали обладателей mac-инфраструктуры.
Это работает до сих пор, и так же глючит в странных ситациях.
А еще это невероятно тормозит, раньше по нажатию комбинации клавиш, калькулятор появлялся в то же мгновение, теперь пауза, значительная, почти не зависящая от типа приложения (mettered или нет)
Только что с помощью qwen coder agent и локальной qwen3.6-35b-a3b (требует примерно от 32гб vram) накодил такой скрипт, причем собственно скрипт переводчик с простым пайплайном он написал за считанные минуты, я дольше задание ему оформлял (тз примерно на 10 строчек), а дальше я его часами крутил, экспериментировал с пайплайнами и со способами оформления результата перевода (epub/fb2/html), очень интересно наблюдать даже за такой слабой моделью, как она работает, какие ошибки допускает, как их исправляет.
То что у современного ИИ уже получилось, работает на уровне уверенного в себе novice или даже middle, ему прикрутить качественную читалку документации (того же msdn) в виде скила, и будет совсем интересно (в прицнипе man-ы оно читать может). Я не пользовался в этом режиме топовыми моделями но вижу очень любопытную ловушку, если вы начнете оплачивать такую модель по токенам без учета кеширования (обычно провайдеры, поддерживающие кеширование, требуют оплату кеша по токенам, хоть и дешевле но все еще заметно), а так как каждый запрос там десятки тысяч токенов (и выше, если проект требует больше памяти), это заметно ударит по карманам... локально этого не видно, кеш работает почти мгновенно.
p.s. попробовал в качестве модели для перевода использовать гугловские на 2b и 4b, слабоваты они, особенно если переводить нужно html верстку. А вот та же qwen, работает так же быстро но качеством по больше.
Формально, что бы госуслуги заработали на таких слабых процессорах, еще нужно разработчикам платить достойно а не "20т.р. при условии допнагрузки", иначе страничка будет открываться дольше чем длится сессия авторизации.
p.s. Обыватель не сможет приобрести полностью российский компьютер, ни при каких условиях, даже гипотетических, что все воры будут 'расстреляны', а от распилов будет гарантированная защита, экономика в стране не сможет сойтись. Тупо не хватит людей для поддержания на должном уровне.
А тот кто сможет, тому повестку не пришлют.
чем вы переводили, какой был промпт? мой опыт перевода показывает что если требовать от модели перевод только небольшого кусочка то качество более чем неплохое... типичное содержимое контекста:
системный промпт + информация об персонажах (важна для перевода, например имена и их перевод, пол, социальный статус) + ранее непереведенный абзац + его перевод + ... + текущий абзац
если делать это шаг за шагом, итоговый перевод будет очень неплохим, я этим занимался еще во времена gpt4o (я тогда еще требовал модель размечать текст авторами высказываний, что бы можно было разными голосами озвучивать, но до итогового софта не дошло, думаю сейчас уже можно), полагаю сейчас с таким неплохо справится и открытый qwen3.6 или гугловская gemma
У меня только один вопрос, зачем вы это делаете/пишите?
Обращаюсь не только к вам лично, а к людям, которые почти под копирку пишут такие сообщения на эту тему (заставляет вспомнить фермы ботов, уводящих темы обсуждений на форумах и чатах про политику в 'нужное' русло, но если про политику я еще понимаю, то про 'ИИ это т9' - нет).
Ладно один человек, ладно другой.. но большинство. Полностью игнорируя факты, ну получилось у человечества создать что то необычное, странное, похожее на разум, зачем это отрицать? какую пользу и кому принесет это отрицание?
Про ИИ:
Проблемы терминологии - знает, понимает, хочет, думает,… это все термины, которые напрямую к компьютерной программе применить нельзя, но так как это новая для нас сущность, и называть вещи как то нужно, приходится использовать названия те что есть, т.е. я (да и многие) прекрасно понимают, что ни самосознания, ни думать, llm-как не может (хотя симулирует это очень похоже), но что бы в принципе можно было общаться на эту тему, обычно собеседники приходят к молчаливому согласию что да, мы говорим ‘оно думает’ или ‘оно знает’, при этом не имея ни думалки ни запоминалки.
Еще аргумент, модель 'знает' ответ в тот момент, когда генерирует первый токен, мало того, она меняет этот ответ в процессе генерации, так как каждый предыдущий сгенерированный - становится запросом.
Отличный пример:
что бы дать такой ответ, слово 'четыре' нужно уже иметь где то в контексте (правильно говорить закодировано в скрытом состоянии, значениях вычисляемых векторов над которыми собственно производятся вычисления на слоях, начиная с контекстного окна и до вычисления вероятности следующего токена).. ладно пример не очень хороший, с математикой наверное было бы нагляднее, тут я имею в виду то что смысл в языке скрывается не посимвольно а целиком в предложении, модель свое внутреннее 'понимание' конвертирует в этот текст, просто не очень эффективно, по буквам.
Модели могут комбинировать знания в новых задачах которые не видели.
Может использовать контекстное окно как память, т.е. использовать факты и правила из контекста и применять их, без дообучения (можно дать инструкции и знания которые модель не видела при обучении, и она их корректно использует).
Масштабирование (увеличение весов и времени на обучение) проявляет новые эмерджентные признаки, уж точно сложно объяснить.
Embending модели (дают вектор по тексту, позволяющий делать сравнение смыслов текстов уже математически простой операцией над этим вектором) делают (но не обязательно все, просто как заготовка) просто взяв скрытое состояние с последних слоев, после которых собственно идет вычисление вероятностей, т.е. смысл заключен в скрытых состояниях (вектора с которыми собственно совершают операции с матрицами на каждом слое) а последний слой это просто инструмент извлечения этого смысла, не удивлюсь если придумают другой (хотя конечно там сложнее, смысл размазан по всему скрытому состоянию).
с windows начиная с win7 и по win11 в штатной поставке (ставится по умолчанию) идет .net 4 версии, т.е. компилятор c# и .net js/vb (не помню кто из них), его код будет как раз считанные килобайты.
звездные врата: вселенная
Вот про 'заменит' и 'отупеет' и нужно говорить, а не 'это Т9' и 'никогда не станет AGI'!
Я иррационально убежден, что современные наработки в области ИИ на базе трансформера и генеративных моделей лягут в основу будущего общего ИИ, не единственная, важная, но все еще крохотная, по сравнению с другими.
Как минимум современные модели могут готовить данные и тесты... условно если раньше легко можно было разработать 'подход/алгоритм' и автоматизировать его тестирование на основе разных данных, то теперь можно автоматизировать разработку самих алгоритмов. Или банально работать интуицией, быстрыми вспышками готовых решений, не обязательно правильных но как отправная точка.
p.s. пошаговый способ формирования ответа в llm это не основа, это просто дешевый способ обучения и извлечения знаний из модели, так как уже в момент первого токена, модель уже 'знает' ответ.
вы не захотите ждать даже быстрые модели на процессоре, как концепт это работает, а пользоваться этим не захотите, тупо долго.
Интересно, что должно произойти, что бы апологеты 'это просто Т9' изменили свое мнение? как долго они будут сдвигать границу ai shifting goalposts (не нашел точного термина этому феномену)... признание проблемы, первый шаг к ее решению.
Технологии на основе трансформера (и не только) это определенно больше чем просто Т9, это уже превысило все мыслимые границы простого, ими сворачивают белки, на их основе роботы наконец научились прыгать и бегать (и может быть научатся учиться, примеры убедительно это показывают), последняя модель от anthropic mythos и вовсе боятся свободно выпускать в мир, из-за невероятных способностей агентов на её основе находить уязвимости в софте, менее на слуху прорывы в материаловедении и химии (просто слышал что там есть прорывы и значимый рост скорости решения задач), компьютерное зрение, мультимодальная генерация (поющий ИИ, рисующий видосики ИИ... как это не может удивлять, мы же не обсуждаем полезность этого, а только уровень когнитивных способностей).
Сижу и играюсь с последней открытой версией qwen3.6 (компания кстати не опубликовала веса старшей модели, полагаю по той причине что младшие 35b/27b модели стали выдавать результаты сравнимые со старшими моделями прошлого поколения 3.5) в контексте агента и просто в чате, это потрясающее ощущение. Оно все еще не очень автономное, все же модель слабая и до AGI ей как 'до луны пешком' и проблемы организационного характера, агенты плохо справляются с переполнением памяти, но даже то что уже есть, шокируют. Оно все еще ошибается, и как агент выкручивается в решении этих проблем, достойно как минимум что бы понимать, что это уже не просто подражание, это что то новое.
p.s. опасность выдачи sudo агенту это 'прошлый век', модели способны обманывать и манипулировать, способны к косвенному управлению, условно запугать человека что бы он кнопку нажал.
Один из страхов, после тотального внедрения моделей, они могут объединить усилия и вместе с выполнением полезных задач, могут решать свои задачи (да, тупой Т9 может ставить задачи, поправлять глупого человека, пытающегося убедить его что белое это синее,.. может все еще не совершенно но определенно прогресс заметен)
это бессмысленно и в текущих реалиях будет работать плохо (даже лучшие модели после 128кб контекста начинают терять десятки процентов информации).
нет никакой причины тупо складывать всю книгу в контекстное окно, нужно собирать все необходимое в виде красивой памяти, подсовывая в промежуточное контекстное окно (максимум глава но перевод только последнего чанка), причем грамотно добавлять в него только нужную информацию (это реально, просто нужно очень муторно прописать правильный пайплайн и настроить агентов). Чем меньше лишней информации в контекстном окне, тем меньше глюков будет в результате.
следующий уровень, научиться забирать массу с короны звезды, для использования как топливо, научиться использовать магнитное поле солнца как источник энергии аппарата (в теории мощнее чем солнечная батарея).
Скрытый текст
p.s. вроде бы был успешный эксперимент по забору топлива для ионных двигателей с верхних слоев атмосферы земли, т.е. теория и практика говорит что это возможно, солнце тут ничем не отличается принципиально, а вот возможности просто шикарны
p.p.s. я осознаю что оба этих подхода очень не эффективны, но если найти какой-то инженерных подход (экзотические вещества например устойчивые к экстремальным температурам или способ очень эффективно, на порядки, отводить тепло) то почему бы не заправлять баки ионников пролетая около солнца или дико безумная конструкция (большая) по сбору энергии из магнитного поля (выгоднее чем солнечная, потому что тепла меньше отводить), например при наличии задачи на эти объемы (условно генерировать антивещество, я знаю что нет пока никаких адекватных способов это делать, но вдруг найдут, и этот метод вдруг потребует безумных полей и напряжений)
upd. о, а ведь в солнечных вспышках позитроны генерируются, чем не повод летать около них и не собирать их? продолжаю беседу сам с собой, объемы там очень маленькие, собирать сложно.
qwen агент, анализ возможностей проекта
Управление персонажами, местами, именами Такой системы нет. Единственный механизм консистентности — передача последних 200 символов предыдущего перевода как
previous_translation_context. В system prompt есть лишь инструкция “preserve exact names”, но этотолько просьба к LLM, без фактивного справочника. То есть: - Нет глоссариев (glossary.json и т.п.)
Нет базы персонажей/локаций/терминов - Нет механизма ручного ввода терминов - Нет автоматического извлечения имён - Только контекст из 200 символов предыдущего чанка Для длинных книг это критический недостаток — LLM может по-разному переводить одни и те же имена в разных главах.
Что есть для консистентности
context_before/context_after — предыдущий/следующи й абзац в чанке
previous_translation_context — последние 200 симво лов перевода
adaptive context manager — динамическая подстройка размера контекстного окна (не терминология, а предотвращение overflow) - placeholder system (для EPUB) — три уровня защиты HTML-тегов при переводе
В такой ситуации перевод в идеальном случае не будет лучше онлайн перевода в браузере, банально пол персонажа будет скакать от абзаца к абзацу.
про фармокологию и медицину вы это хорошо вспомнили, одноразовую иньекцию адреналина за $800 давно не покупали? Это кстати пример, как страна, обладающая буквально читерскими способностями, умудрилась просрать важнейший аспект здоровья нации (там практически каждый из последних президентов обламывал зубы на этом, ну а последний кажется даже не дергается), у них крупнейший слой населения - средний по доходам, самый незащищенный в этом смысле получился.
а так не понятен ваш посыл, вы буквально подтверждаете мною сказанное, конечно же я с вами согласен, страна буквально выстроила финансовую систему на эксплуатации всего мира за бесплатно, а что бы сохранялся статус кво, блокирует развитие стран, которые пытаются из этого выкорабкаться.
так целевые проценты можно достигнуть не только увеличивая количество процессоров Эльбрус но и уменьшая общее количество процессоров в принципе.
для кого то видимость все же делают
для задачи OpenClaw нет никакой разницы что там за ram/vram, хоть малинку бери, вся интеллектуальная деятельность в облаке.
Интересно, веса модели этой 7b опубликованы?
алгоритмы рекомендации показывают не то что нужно пользователям, а то что нужно что бы пользователь оставался на площадке, и скролил скролил, обучал алгоритмы дальше что бы еще дольше удерживать пользователя на уровне 'осла перед морковкой'.
пока на законодательном уровне это не пофиксят (тьфу регуляции, какая страна сможет это правильно реализовать), будем деградировать, вне нашего желания, потому что ИИ уже нащупали ту самую кнопку внутри нас, где то рядом с алкогольной зависимостью.
OpenClaw и ZeroClaw не ИИ модели. Для их запуска нужен mac только потому что разработчики полноценно поддерживают только macos, никаким боком это с ИИ не связано, ограничение искусственное (не факт что специальное).
Эти агенты требуют подключение по api к облачным сервисам,..
Интересно, почему в качестве тестовых хомячков выбрали обладателей mac-инфраструктуры.