12700 нормально охлаждается хорошим воздушным кулером, если поджать ему энергопотребление до 220-240 ватт. Пациент 12700F при настройка по умолчанию при запуске чего-то тяжелого начинал потреблять 280 ватт, перегревался за пару секунд и троттлил до 85 ватт. После выставления нормальных лимитов стал работать нормально.
Брать 13600 не стоит. Если есть деньги на всю систему на 13600, то лучше докинуть и взять 13700.
Т.е. вы сделали какие-то вывода без собственноручного тестирования?
Е-ядра дают бОльшую энергоэффективность. Т.е. условно вместо 2 могучих ядер можно впихнуть 4 маленьких. Да, каждое из них слабее могучего, но если приложение хорошо параллелится, то у него будет прирост производительности. А если плохо, то лучше могучие ядра.
Вся проблема в отводе тепла. Топовые домашние Интелы сейчас выделают до 350 ватт, а это количество тепла уже нужно отводить чем-то вроде чиллера.
Также один из приятных моментов, то фоновая активность переносится на малые ядра. Например, запуская игру можно не закрывать браузер, не закрывать фотошоп и OBS не будет мешать игре.
Про celeron вы не правы. Младшие селероны как раз из сделаны из только энергоэффективных ядер.
Скорее всего, это универсальные драйверы для windows 10 и windows 11, только если производитель специально что-нибудь не сделал чтобы отсечь поддержку десятки.
Нормальный воздушный кулер, не топовый, без проблем рассеивает 220-230 ватт на постоянку. 270 ватт уже не тянет, согласен. Кулеру 10 лет, он никогда топовым не был. Думаю, более современный кулер без проблем вытянет эти 253 ватта. И разница в производительности между 230 ватт и 250 ватт абсолютно незначительная.
Самое долгая операция - это стирание блока флеш-памяти. Если трим не делать, то перед непосредственно записью производится стирание блока, а это долго. Если трим делать, то все блоки, которые ОС считает уже ненужными стираются в свободное время контроллером SSD. И при записи блока происходит только сама запись, а это в несколько раз быстрее.
Почему у вас в описании этого сказано про энергоэффективные и обычные ядра, а также про буст-частоту, а в описании 13900K ничего этого нет?
Объем кэш-памяти — 30 Мб (уровень L2)
L3
Для сравнения: Atomic Heart, например, на ультранастройках графики требует всего 8 ГБ оперативки
А mundfish об этом не знает. У них в системных требованиях 16. А почему?
Процессор: Intel Core i7 11 700 °F 2.5
Это что такое? 700 градусов Фаренгейта?
конфигурация Thunderobot BW IV Max D вытягивает по тестам Cyberpunk 2077 на максимальных настройках графики в 50−60 FPS без особых проблем даже без разгона видеочипа.
Прямо вот с новой улучшенной трассировкой лучей в 4к? Где 4090 не справляется?
обращу внимание на жидкостное охлаждение AIO, которое гораздо эффективнее медных трубок отводит тепло от процессора и остальных компонентов.
Медные трубки с легкоиспаряющейся жидкостью внутри отводят тепло не менее эффективно от процессора, чем AIO системы. Водянку вообще ставят не столько из-за эффективности отвода тепла от процессора, сколько для того чтобы лучше удалять тепло из корпуса, чтобы процессор и видеокарта не грели друг друга. А по эффективности отличный воздушный кулер с тепловыми трубками лучше 80% AIO водянок на рынке. Да и он не протечет прямо на видеокарту.
Модели SSD принципиально не указываете? Зачем в некоторых моделях стоят маленькие жесткие диски? Если уж ставить жесткий диск, то объемом от 8 терабайт и выше.
Почему в топовой сборке SSD всего на терабайт? 5 тысяч разницы пожалели на апгрейд до двух?
Таблица в конце она вообще о чем? Какие там ультра, высокие? Сколько fps будет? Я могу любую игру на своем старом калькуляторе запустить на топовых настройках. Работать будет, но безбожно тормозить.
Огромная разница по качеству картинки. Если человек готов играть без сглаживания, анизотропной фильтрации и лучей, с текстурами минимального размера, то это одно. По большому счету сгодится любая карта. Если человеку подавай самую красивую картинку, то исключительно топовые и предтоповые карты.
Про вычисления в статье вообще ни слова. Если качество картинки не интересует, то есть встройка.
Информация по тактовым частотам неверная. Благодаря технологиям авторазгона каждая конкретная видеокарта бустится по-своему. А еще это зависит от установок в БИОСе от производителя и подсистемы питания.
Нужны лучи или не нужны лучи - это вообще кардинально меняет весь расклад. Фактически только 30 и 40 серия от NVIDIA.
Неправильно построена статья. Нужно начинать с того какая есть система, какой монитор и какое требуется качество картинки. А потом уже для этих условий и советовать конкретные карты. Если там какой-нибудь монитор 1920*1080 60 герц и какой-нибудь легендарный i7-2700K, то нет никакой разницы между GeForce 1080 и GeForce 4090. А у AMD RX6600 будут большие проблемы с pci express шиной.
Может намек на то что каждый wifi роутер мешает соседним в радиусе скольки-то метров. А тут световой передатчик мешает только в пределах комнаты.
В N300 8 ядер Gracemont. Т.е. те самые энергоэффективные.
12700 нормально охлаждается хорошим воздушным кулером, если поджать ему энергопотребление до 220-240 ватт. Пациент 12700F при настройка по умолчанию при запуске чего-то тяжелого начинал потреблять 280 ватт, перегревался за пару секунд и троттлил до 85 ватт. После выставления нормальных лимитов стал работать нормально.
Брать 13600 не стоит. Если есть деньги на всю систему на 13600, то лучше докинуть и взять 13700.
Т.е. вы сделали какие-то вывода без собственноручного тестирования?
Е-ядра дают бОльшую энергоэффективность. Т.е. условно вместо 2 могучих ядер можно впихнуть 4 маленьких. Да, каждое из них слабее могучего, но если приложение хорошо параллелится, то у него будет прирост производительности. А если плохо, то лучше могучие ядра.
Вся проблема в отводе тепла. Топовые домашние Интелы сейчас выделают до 350 ватт, а это количество тепла уже нужно отводить чем-то вроде чиллера.
Также один из приятных моментов, то фоновая активность переносится на малые ядра. Например, запуская игру можно не закрывать браузер, не закрывать фотошоп и OBS не будет мешать игре.
Про celeron вы не правы. Младшие селероны как раз из сделаны из только энергоэффективных ядер.
Скорее всего, это универсальные драйверы для windows 10 и windows 11, только если производитель специально что-нибудь не сделал чтобы отсечь поддержку десятки.
Lan Party на компьютерах с low-end процессором и без видеокарты?
Так и компьютер на windows без аппаратных проблем не виснет. Уже лет 15 не виснет.
У них так-то есть репозиторий https://github.com/JetBrains/swot/ с доменами образовательных учреждений и он регулярно редактируется.
Как раз литиевые батарейки-таблетки.
Для семерки есть официальное дополнение, которое встраивается в дистрибутив и после этого дистрибутив начинает видеть NVMe накопители.
Так и водянка эффективная будет двух- или трехсекционная, а они немаленькие. Односекционная будет уступать нормальному воздушному кулеру.
Нормальный воздушный кулер, не топовый, без проблем рассеивает 220-230 ватт на постоянку. 270 ватт уже не тянет, согласен. Кулеру 10 лет, он никогда топовым не был. Думаю, более современный кулер без проблем вытянет эти 253 ватта. И разница в производительности между 230 ватт и 250 ватт абсолютно незначительная.
Что интересного? Где 104/107 кнопочные клавиатуры со стандартной раскладкой?
Самое долгая операция - это стирание блока флеш-памяти. Если трим не делать, то перед непосредственно записью производится стирание блока, а это долго. Если трим делать, то все блоки, которые ОС считает уже ненужными стираются в свободное время контроллером SSD. И при записи блока происходит только сама запись, а это в несколько раз быстрее.
Это кривые порты, может их когда-нибудь и починят. А вот Киберпанк с улучшенной трассировкой лучей действительно будет давать просадку.
Писал маркетолог ничерта непонимающий в компьютерах?
Вот прямо 24 ядра, работающие на частоте 5,8ГГц? А если там этих частот не окажется вернете деньги в двойном размере?
192 поставить невозможно? Дешевая китайская материнка, биос на которую обновлять не собирается?
Перегрузок чего? Вы вообще в курсе зачем нужен сетевой фильтр?
Коробка с подсветкой на 470 тысяч не выглядит.
Почему у вас в описании этого сказано про энергоэффективные и обычные ядра, а также про буст-частоту, а в описании 13900K ничего этого нет?
L3
А mundfish об этом не знает. У них в системных требованиях 16. А почему?
Это что такое? 700 градусов Фаренгейта?
Прямо вот с новой улучшенной трассировкой лучей в 4к? Где 4090 не справляется?
Медные трубки с легкоиспаряющейся жидкостью внутри отводят тепло не менее эффективно от процессора, чем AIO системы. Водянку вообще ставят не столько из-за эффективности отвода тепла от процессора, сколько для того чтобы лучше удалять тепло из корпуса, чтобы процессор и видеокарта не грели друг друга. А по эффективности отличный воздушный кулер с тепловыми трубками лучше 80% AIO водянок на рынке. Да и он не протечет прямо на видеокарту.
Модели SSD принципиально не указываете? Зачем в некоторых моделях стоят маленькие жесткие диски? Если уж ставить жесткий диск, то объемом от 8 терабайт и выше.
Почему в топовой сборке SSD всего на терабайт? 5 тысяч разницы пожалели на апгрейд до двух?
Таблица в конце она вообще о чем? Какие там ультра, высокие? Сколько fps будет? Я могу любую игру на своем старом калькуляторе запустить на топовых настройках. Работать будет, но безбожно тормозить.
То что с заполнеными 4 слотами RAM можно рассчитывать на частоты 5600-6000 для памяти даже на 6 слойных материнках.
А какие проблемы с z790? Только что он формально ничего нового не несет? Так вот, главное новшество - это поддержка высокочастотной памяти.
Огромная разница по качеству картинки. Если человек готов играть без сглаживания, анизотропной фильтрации и лучей, с текстурами минимального размера, то это одно. По большому счету сгодится любая карта. Если человеку подавай самую красивую картинку, то исключительно топовые и предтоповые карты.
Про вычисления в статье вообще ни слова. Если качество картинки не интересует, то есть встройка.
Информация по тактовым частотам неверная. Благодаря технологиям авторазгона каждая конкретная видеокарта бустится по-своему. А еще это зависит от установок в БИОСе от производителя и подсистемы питания.
Нужны лучи или не нужны лучи - это вообще кардинально меняет весь расклад. Фактически только 30 и 40 серия от NVIDIA.
Неправильно построена статья. Нужно начинать с того какая есть система, какой монитор и какое требуется качество картинки. А потом уже для этих условий и советовать конкретные карты. Если там какой-нибудь монитор 1920*1080 60 герц и какой-нибудь легендарный i7-2700K, то нет никакой разницы между GeForce 1080 и GeForce 4090. А у AMD RX6600 будут большие проблемы с pci express шиной.