Даже если на расстоянии 50-60 световых лет есть сверхразвитая цивилизация и она уже засекла наши сигналы, сколько ей нужно будет лет, что бы послать исследовательский дрон в нашу сторону - скажем реалистично с 10-20% от скорости света? Думаю лет 300-600 у нас есть в запасе.
Надо конечно указывать пиковые значения RAM и VRAM - вот у меня под рукой машина с 3060ti 8Гб и 16гб памяти, Forge крутится - вот и думай, взлетит или нет Kontext, что бы зря не тянуть десятки гигов моделей. Не у всех же есть 32Гб а тем более 64.
Тут или платить миллион подписок по 5-20$ в месяц или купить нормальный комп и крутить локально любые опенсорс модели - те же SDXL, HiDream, Flux, Flux Kontext и даже AI видео генерировать вполне адекватное в Wan 2.1 или FP Studio. Я выбрал второй путь.
Самый полезный промт для меня в последнее время это дописать в конце такую конструкцию: "Прежде чем дать мне ответ оцени его неопределённость. Если она больше 0.1 — задавай мне уточняющие вопросы до тех пор пока неопределённость будет 0.1 или меньше"
Если ранвей и пика я еще могу понять, то дальше рекламируется полный трэш - клон Luma.AI и другие нонейм сервисы, плюс из "бесплатного" там 2-3 генерации а дальше заноси чемоданы. Спасибо, но лучше я на компе бесплатно Wan и FramePack погоняю.
Я бы уже не называл новыми и интересными решения на N100-150 в 2025 году. Неужели нам опять годы ждать массовый выпуск среднеценовых Ryzen AI и Core 2xx, почему-то производители лепят на них продукты за 1000-1200+ долларов, хотя такой ценовой сегмент явно не массовый и не подходящий для мини-пк.
LM Studio и винда вполне достаточны что бы пощупать, запускал довольно большие но квантованные модели Qwen 14B Q4_K на 3060ti 8Gb и Qwen 32B Q6 на 4080 16Gb - довольно медленно но работают.
После нескольких десятков часов игры начинаешь понимать всю скудность и ограниченность её механик, в ней нет глубины. Причем в начале тебя всегда тащат по квестам и пока ты не построишь на своей базе какую-то ненужную постройку сюжет не продвинется - это немного бесит.
Ну скажем так, 2 года назад (почти) я выбрал 13600KF и немножко его подразогнал, до сих пор стабильно работает, даже не смотря на всплывшие проблемы у интела (микрокод конечно обновил на всякий) в целом покупкой доволен. Cегодня наверное смотрел бы в сторону AMD с 3D кэшем, дождался бы наверное 9ххх3D
По идее модель должна находиться в VRAM для быстрого отклика - даже с сильной квантизацией это откусит 2-3гб видеопамяти, которой сама же Nvidia зажала в 3ххх и 4ххх серии, а игроделы уже спокойно рассчитывают на 12-16гб видеопамяти для ультра настроек. Так что похоже G-Assist будет всем советовать ставить минимальные настройки, что бы хоть как-то поиграть на 8-12 гиговых картах в месте с ним.
Слишком дорого для офисной печатающей машинки и слишком слабо для профессиональных задач (3D, нейросети и т.д.) про современные игры вообще речь не зайдет - даже с внешней картой.
Сейчас AGI идет в сторону конкурирующих мультимодальных агентов, для которых LLM один из инструментов. Но конечно всё это костыль на костыле и костылём погоняет.
Мобильное железо 3-4х летней давности, какой бы ни был вау эффект от корпуса, на нем далеко не уедешь...
Даже если на расстоянии 50-60 световых лет есть сверхразвитая цивилизация и она уже засекла наши сигналы, сколько ей нужно будет лет, что бы послать исследовательский дрон в нашу сторону - скажем реалистично с 10-20% от скорости света?
Думаю лет 300-600 у нас есть в запасе.
Надо конечно указывать пиковые значения RAM и VRAM - вот у меня под рукой машина с 3060ti 8Гб и 16гб памяти, Forge крутится - вот и думай, взлетит или нет Kontext, что бы зря не тянуть десятки гигов моделей. Не у всех же есть 32Гб а тем более 64.
Тут или платить миллион подписок по 5-20$ в месяц или купить нормальный комп и крутить локально любые опенсорс модели - те же SDXL, HiDream, Flux, Flux Kontext и даже AI видео генерировать вполне адекватное в Wan 2.1 или FP Studio. Я выбрал второй путь.
Самый полезный промт для меня в последнее время это дописать в конце такую конструкцию:
"Прежде чем дать мне ответ оцени его неопределённость. Если она больше 0.1 — задавай мне уточняющие вопросы до тех пор пока неопределённость будет 0.1 или меньше"
Если ранвей и пика я еще могу понять, то дальше рекламируется полный трэш - клон Luma.AI и другие нонейм сервисы, плюс из "бесплатного" там 2-3 генерации а дальше заноси чемоданы. Спасибо, но лучше я на компе бесплатно Wan и FramePack погоняю.
"В текущем году ожидается релиз GTA V с трассировкой лучей"
Она уже месяц как вышла если что...
Я бы уже не называл новыми и интересными решения на N100-150 в 2025 году.
Неужели нам опять годы ждать массовый выпуск среднеценовых Ryzen AI и Core 2xx, почему-то производители лепят на них продукты за 1000-1200+ долларов, хотя такой ценовой сегмент явно не массовый и не подходящий для мини-пк.
LM Studio и винда вполне достаточны что бы пощупать, запускал довольно большие но квантованные модели Qwen 14B Q4_K на 3060ti 8Gb и Qwen 32B Q6 на 4080 16Gb - довольно медленно но работают.
Странное позиционирование у девайса, и плюс 329 это если вложиться в краудфандинг, после будет дороже.
После нескольких десятков часов игры начинаешь понимать всю скудность и ограниченность её механик, в ней нет глубины. Причем в начале тебя всегда тащат по квестам и пока ты не построишь на своей базе какую-то ненужную постройку сюжет не продвинется - это немного бесит.
Тест Тьюринга OpenAI тихонечко прошли уже несколько месяцев назад - но результаты неоднозначны.
Ну скажем так, 2 года назад (почти) я выбрал 13600KF и немножко его подразогнал, до сих пор стабильно работает, даже не смотря на всплывшие проблемы у интела (микрокод конечно обновил на всякий) в целом покупкой доволен.
Cегодня наверное смотрел бы в сторону AMD с 3D кэшем, дождался бы наверное 9ххх3D
"Каждое ядро современных высокопроизводительных процессоров для настольных ПК, таких как Intel® Core® i7 6700"
Дальше читать не стал...
Как знал, что без Марии Disco photomode не обойтись в этом вопросе, спасибо за статью )
По идее модель должна находиться в VRAM для быстрого отклика - даже с сильной квантизацией это откусит 2-3гб видеопамяти, которой сама же Nvidia зажала в 3ххх и 4ххх серии, а игроделы уже спокойно рассчитывают на 12-16гб видеопамяти для ультра настроек. Так что похоже G-Assist будет всем советовать ставить минимальные настройки, что бы хоть как-то поиграть на 8-12 гиговых картах в месте с ним.
Похоже зафайнтюненые SDXL модели останутся с нами надолго - такая надежда была на локальный SD3 и такое разочарование...
Слишком дорого для офисной печатающей машинки и слишком слабо для профессиональных задач (3D, нейросети и т.д.) про современные игры вообще речь не зайдет - даже с внешней картой.
Любой VPN и логин через гугл аккаунт.
Сейчас AGI идет в сторону конкурирующих мультимодальных агентов, для которых LLM один из инструментов. Но конечно всё это костыль на костыле и костылём погоняет.