В чем проблема то, у меня на ноуте с RTX4060 8Gb вполне запускается Gemma-4-26b Q4_K_XL и дает 9tok/s генерации и 155tok/sec для промпта На RTX3090 и обычном компе дает скорости в 10 раз больше.
Тут я так понимаю все хотят Mac c 48Gb, но по факту вы на нем большие модели не запустите, потому что 48Gb VRAM это конечно круто, но у вас НЕТ к этой VRAM дополнительной обычной памяти которая позволяет запустить большие MOE модели типа Qwen3.5-397B или MiniMax2.5 но который неплохо работают на двух RTX3090 + 256Gb RAM.
Не получится так. Надо брать Pixel и ставить GrapheneOS, там есть многопользовательский режим. При переключении на другого пользователя, все процессы текущего убиваются и загружается другой пользователь из второго контейнера. Программы тестирования RKNHardering и YourVPNDead ничего не находят - проверено в GrapheneOS.
Плюсом я еще нашел правильные параметры для запуска моделей в llama-cpp, чтобы она сама считала, сколько по максимуму можно засунуть в видеокарту и т.д.
И сейчас получаю 20ток/сек для Qwen3.5-122B-A10B Q5_K_S от bartowski, что просто афигенно для одной RTX 3090
Думаю вторую 3090 взять, чтобы с нормальной скоростью запускать Qwen3.5-397B, сейчас получается запускать только IQ3_XXS модель с 8-10ток/сек, что не очень.
Прогонял тест конверсии идеи из С# кода в реализацию на другом фреймворке в Python
Тесты запускал в Roo Code под VS Code, сперва составить план, потом реализовать план.
Образец брал реализацию GPT5.4 и потом так-же с помощью GPT5.4 сравнивал результаты разных моделей. Получилось порядок по качеству. Cортировка по убыванию качества реализации и количеству ошибок в реализации. Ошибка это неправильная реализация алгоритмов расчета.
GPT5.4-Medium - Sonnet 4.6 - качество примерно на одинаковом уровне
GPT5-mini
Qwen3.5-122b Q4-КМ локально 12tok/sec
Qwen3-coder-next Q4-КМ локально 26tok/sec
Haiku 4.5
Qwen3-235b Q3-KS локально 7 tok/sec
gpt-oss-120b - локально 24 tok/sec
MiniMax-M2.5 Q3-KS локально 15tok/sec
Qwen3.6
В общем как-то так получилось, локальная машина i7-265K, 128Gb DDR5, RTX3090-1шт
Суммарно 1день на это потратил, но теперь хоть примерно понятно, что мне пдоходит, как резервный вариант.
Получилось Qwe3.5-122b оптимально, но не очень быстро, зато мультимодальная, либо если надо быстро то Qwen3-coder-next.
Ну или можно GPT5-mini гонять, она пока бесплатная в Github Copilot
Налог 13% платится только при дарении недвижимости, транспорта, акций, долей, паи, ЦФА. Наличные или вещи (сервиз, телефон) от друзей налогом не облагаются.
Как и говорил, что возмущаться будут те, кто в серых или криминальных схемах участвует.)
А потом когда в один прекрасный день вы захотите создать независимый профсоюз, вы вдруг, хопа на и поймете, что легким нажатием на кнопку, ликвидируют зачатки вашего профсоюза, вместе с начальными взносами, вами и вашими цифровыми денежками.
Наверно надо создать новое министерство по контролю внедрения ИИ на предприятиях и организациях, так же неплохо было бы внедрить новые ежеквартальные формы отчетности для предприятий, где они бы ежеквартально отчитывались о внедрении ИИ в текущие рабочие процессы.
Самое главное обязать организации хранить все логи общения с ИИ в течении 3лет, чтобы можно было проводить ОРМ в случае необходимости и выявлять людей использующих ИИ в незаконных целях
И зачем это делать то, есть же приложения Shelter, Island и тп для работы с дополнительным профилем на Android. А на многих телефонах есть родные приложения для дополнительного профиля/песочницы. Установили в песочницу и все, надо включили песочницу, не надо выключили ее со всеми приложениями в ней. Это же как дополнительный телефон в телефоне.
Шапки были в основном из кроликов, шуба из кролика врядли бы понравилась вам или вашей девушке. Хорошими считались шубы из мутона, но они были тяжелые и таки не дешовые. Весь другой мех либо у фарцовщиков, либо покупали/доставали через знакомых шкурки меха и сами или на заказ шили. Да тот же овчиный тулупчик, они разного качества были, так вот хорошенький тулупчик, мужской, приталенный можно было купить, НО по "блату". А если блата нет, то ходить вам в обычном пальто с ватной подкладкой и воротником из искуственного меха или в шубе из искуственного меха.
Это не стиль СССР, это стиль партийной номенклатуры СССР, где бы обычный рабочий человек смог купить такую одежду? Особенно норковый шапку и шубу как на девушке на одной из картинок ?
В чем проблема то, у меня на ноуте с RTX4060 8Gb вполне запускается Gemma-4-26b Q4_K_XL и дает 9tok/s генерации и 155tok/sec для промпта
На RTX3090 и обычном компе дает скорости в 10 раз больше.
Тут я так понимаю все хотят Mac c 48Gb, но по факту вы на нем большие модели не запустите, потому что 48Gb VRAM это конечно круто, но у вас НЕТ к этой VRAM дополнительной обычной памяти которая позволяет запустить большие MOE модели типа Qwen3.5-397B или MiniMax2.5 но который неплохо работают на двух RTX3090 + 256Gb RAM.
Не получится так. Надо брать Pixel и ставить GrapheneOS, там есть многопользовательский режим. При переключении на другого пользователя, все процессы текущего убиваются и загружается другой пользователь из второго контейнера. Программы тестирования RKNHardering и YourVPNDead ничего не находят - проверено в GrapheneOS.
Ну значит надо уже начинать писать жалобы в Goоgle на эти приложения.
Да неплохо она работает, НО это DENSE модель и ей нужно больше ресурсов, поэтому у меня Qwen3.5-122B-A10B работает с такой же скоростью как и Qwen3.5-27B, но с большим контекстным окном. Так то эти модели почти на одном уровне по рейтингам https://www.reddit.com/r/LocalLLaMA/comments/1rlckan/qwen3_vs_qwen35_performance/#lightbox
Плюсом я еще нашел правильные параметры для запуска моделей в llama-cpp, чтобы она сама считала, сколько по максимуму можно засунуть в видеокарту и т.д.
И сейчас получаю 20ток/сек для Qwen3.5-122B-A10B Q5_K_S от bartowski, что просто афигенно для одной RTX 3090
Думаю вторую 3090 взять, чтобы с нормальной скоростью запускать Qwen3.5-397B, сейчас получается запускать только IQ3_XXS модель с 8-10ток/сек, что не очень.
Прогонял тест конверсии идеи из С# кода в реализацию на другом фреймворке в Python
Тесты запускал в Roo Code под VS Code, сперва составить план, потом реализовать план.
Образец брал реализацию GPT5.4 и потом так-же с помощью GPT5.4 сравнивал результаты разных моделей. Получилось порядок по качеству. Cортировка по убыванию качества реализации и количеству ошибок в реализации. Ошибка это неправильная реализация алгоритмов расчета.
GPT5.4-Medium - Sonnet 4.6 - качество примерно на одинаковом уровне
GPT5-mini
Qwen3.5-122b Q4-КМ локально 12tok/sec
Qwen3-coder-next Q4-КМ локально 26tok/sec
Haiku 4.5
Qwen3-235b Q3-KS локально 7 tok/sec
gpt-oss-120b - локально 24 tok/sec
MiniMax-M2.5 Q3-KS локально 15tok/sec
Qwen3.6
В общем как-то так получилось, локальная машина i7-265K, 128Gb DDR5, RTX3090-1шт
Суммарно 1день на это потратил, но теперь хоть примерно понятно, что мне пдоходит, как резервный вариант.
Получилось Qwe3.5-122b оптимально, но не очень быстро, зато мультимодальная, либо если надо быстро то Qwen3-coder-next.
Ну или можно GPT5-mini гонять, она пока бесплатная в Github Copilot
Ну то есть для Гугла ничего не отключат ? И подписки на Android можно будет оплачивать, а страдать будут только айфоно-владельцы ?
Заводите красный трактор и езжайте, раз уже есть инвесторы, иначе придется голодать до 2036года и не факт что потом будет лучше.
Есть же Thunderbird со встроенным PGP, под Android так же есть Thunderbird c PGP.
Под iOS нет Thunderbird, но есть BlueMail с поддержкой PGP и S/MIME
Ставите и пользуетесь с любой почтой.
На фото типичная походка террориста, по правой руке видно что он удерживает в рукаве длинный нож
Конечно лучше в TSLab, чтобы потом платить TSlab за коннектор !
Пусть переименуют в "Плати Куриным Кодом"
Кстати можно и запатентовать такое название
Налог 13% платится только при дарении недвижимости, транспорта, акций, долей, паи, ЦФА. Наличные или вещи (сервиз, телефон) от друзей налогом не облагаются.
А потом когда в один прекрасный день вы захотите создать независимый профсоюз, вы вдруг, хопа на и поймете, что легким нажатием на кнопку, ликвидируют зачатки вашего профсоюза, вместе с начальными взносами, вами и вашими цифровыми денежками.
Наверно надо создать новое министерство по контролю внедрения ИИ на предприятиях и организациях, так же неплохо было бы внедрить новые ежеквартальные формы отчетности для предприятий, где они бы ежеквартально отчитывались о внедрении ИИ в текущие рабочие процессы.
Самое главное обязать организации хранить все логи общения с ИИ в течении 3лет, чтобы можно было проводить ОРМ в случае необходимости и выявлять людей использующих ИИ в незаконных целях
Еще надо каждому курьеру имплантировать чип c GPS трекером и прочими полезными штучками
Дома подключите инет через WiFi, если у вас нет, то зайдите в гости к соседу и попросите воспользоваться его WiFi, заодно с ним познакомитесь.
И зачем это делать то, есть же приложения Shelter, Island и тп для работы с дополнительным профилем на Android. А на многих телефонах есть родные приложения для дополнительного профиля/песочницы. Установили в песочницу и все, надо включили песочницу, не надо выключили ее со всеми приложениями в ней. Это же как дополнительный телефон в телефоне.
Шапки были в основном из кроликов, шуба из кролика врядли бы понравилась вам или вашей девушке. Хорошими считались шубы из мутона, но они были тяжелые и таки не дешовые. Весь другой мех либо у фарцовщиков, либо покупали/доставали через знакомых шкурки меха и сами или на заказ шили. Да тот же овчиный тулупчик, они разного качества были, так вот хорошенький тулупчик, мужской, приталенный можно было купить, НО по "блату". А если блата нет, то ходить вам в обычном пальто с ватной подкладкой и воротником из искуственного меха или в шубе из искуственного меха.
Это не стиль СССР, это стиль партийной номенклатуры СССР, где бы обычный рабочий человек смог купить такую одежду? Особенно норковый шапку и шубу как на девушке на одной из картинок ?
Так это же число Зверя, так что тут все по желанию.