После нескольких десятков часов игры начинаешь понимать всю скудность и ограниченность её механик, в ней нет глубины. Причем в начале тебя всегда тащат по квестам и пока ты не построишь на своей базе какую-то ненужную постройку сюжет не продвинется - это немного бесит.
Ну скажем так, 2 года назад (почти) я выбрал 13600KF и немножко его подразогнал, до сих пор стабильно работает, даже не смотря на всплывшие проблемы у интела (микрокод конечно обновил на всякий) в целом покупкой доволен. Cегодня наверное смотрел бы в сторону AMD с 3D кэшем, дождался бы наверное 9ххх3D
По идее модель должна находиться в VRAM для быстрого отклика - даже с сильной квантизацией это откусит 2-3гб видеопамяти, которой сама же Nvidia зажала в 3ххх и 4ххх серии, а игроделы уже спокойно рассчитывают на 12-16гб видеопамяти для ультра настроек. Так что похоже G-Assist будет всем советовать ставить минимальные настройки, что бы хоть как-то поиграть на 8-12 гиговых картах в месте с ним.
Слишком дорого для офисной печатающей машинки и слишком слабо для профессиональных задач (3D, нейросети и т.д.) про современные игры вообще речь не зайдет - даже с внешней картой.
Сейчас AGI идет в сторону конкурирующих мультимодальных агентов, для которых LLM один из инструментов. Но конечно всё это костыль на костыле и костылём погоняет.
Тем временем у меня на рабочем ПК с 16Гб памяти и 3060Ti спокойно работают Fooocus и Forge - оптимизация не стоит на месте. Да я не могу одновременно с генерацией запустить фотошоп или браузер с десятком вкладок, но это терпимо. В Fooocus потребление памяти примерно 10-12Гб и 6-8Гб видеопамяти всего.
Графика не новая, на старой архитектуре, небольшой буст ей придает быстрая DDR5. Ну и все эти 60fps в Cyberpunk на низких настройках с FSR, плавали, знаем...
Пара замечаний: я бы не называл 3070 мощной видеокартой, в текущих реалиях мощные карты это 4090\4080 и 7900XTX\XT а 3070 теперь скорее крепкий середнячок. И все данные по Киберпанку надо пересматривать, с выходом патча 2.0 требования к процессору и нагрузка выросли почти двухкратно.
После нескольких десятков часов игры начинаешь понимать всю скудность и ограниченность её механик, в ней нет глубины. Причем в начале тебя всегда тащат по квестам и пока ты не построишь на своей базе какую-то ненужную постройку сюжет не продвинется - это немного бесит.
Тест Тьюринга OpenAI тихонечко прошли уже несколько месяцев назад - но результаты неоднозначны.
Dolby Vision такой - ну да, ну да, пошел я...
Между прочим у Xiaomi Mi TV Stick 4K он есть. И AFR там можно поднять без проблем.
Ну скажем так, 2 года назад (почти) я выбрал 13600KF и немножко его подразогнал, до сих пор стабильно работает, даже не смотря на всплывшие проблемы у интела (микрокод конечно обновил на всякий) в целом покупкой доволен.
Cегодня наверное смотрел бы в сторону AMD с 3D кэшем, дождался бы наверное 9ххх3D
"Каждое ядро современных высокопроизводительных процессоров для настольных ПК, таких как Intel® Core® i7 6700"
Дальше читать не стал...
Как знал, что без Марии Disco photomode не обойтись в этом вопросе, спасибо за статью )
По идее модель должна находиться в VRAM для быстрого отклика - даже с сильной квантизацией это откусит 2-3гб видеопамяти, которой сама же Nvidia зажала в 3ххх и 4ххх серии, а игроделы уже спокойно рассчитывают на 12-16гб видеопамяти для ультра настроек. Так что похоже G-Assist будет всем советовать ставить минимальные настройки, что бы хоть как-то поиграть на 8-12 гиговых картах в месте с ним.
Похоже зафайнтюненые SDXL модели останутся с нами надолго - такая надежда была на локальный SD3 и такое разочарование...
Слишком дорого для офисной печатающей машинки и слишком слабо для профессиональных задач (3D, нейросети и т.д.) про современные игры вообще речь не зайдет - даже с внешней картой.
Любой VPN и логин через гугл аккаунт.
Сейчас AGI идет в сторону конкурирующих мультимодальных агентов, для которых LLM один из инструментов. Но конечно всё это костыль на костыле и костылём погоняет.
Тем временем у меня на рабочем ПК с 16Гб памяти и 3060Ti спокойно работают Fooocus и Forge - оптимизация не стоит на месте.
Да я не могу одновременно с генерацией запустить фотошоп или браузер с десятком вкладок, но это терпимо. В Fooocus потребление памяти примерно 10-12Гб и 6-8Гб видеопамяти всего.
В целом нормально, тем более моддеры переделывают DLSS FG на FSR FG в тех играх где он есть - и это продлит вашей карте жизнь.
Для задач рендера или AI объединять карты через NVlink не нужно, а для игр технология уже мертва около 5 лет.
Ну миник это не "нормальный компьютер" увы, а в ноутбуке еще и экран и батарея и прочие плюшки. А стоит почти так же.
Жаль конечно что эти миники стоят как крыло от боинга - с RX780М на DDR5 хотелось бы, но там ценник улетает к 1000$ уже...
Графика не новая, на старой архитектуре, небольшой буст ей придает быстрая DDR5.
Ну и все эти 60fps в Cyberpunk на низких настройках с FSR, плавали, знаем...
В принципе нормально расписали, только вот нет рекомендаций по разрешению рендера, особенно в связке с HiresFix.
Пара замечаний: я бы не называл 3070 мощной видеокартой, в текущих реалиях мощные карты это 4090\4080 и 7900XTX\XT а 3070 теперь скорее крепкий середнячок. И все данные по Киберпанку надо пересматривать, с выходом патча 2.0 требования к процессору и нагрузка выросли почти двухкратно.
Посмотрел на свой ПК с 13600KF и 4080 с подозрением...