Pull to refresh

Comments 64

У новинки есть аппаратная виртуализация, это Arm TrustZone, которая позволяет создавать четырёхсокетные платформы

Комбо-вомбо из 3 несвязанных между собой понятий.

Забавно, что M1 Pro напоминает Pentium Pro не только названием, но и формой

UFO just landed and posted this here

А на каком фото вы увидели сходство? Никак не могу найти.

Вроде выпускают и выпускают, а цены вниз не сильно падают. Хотелось бы уже чтобы наводнили рынок не на «бумаге», а на самом деле. Думаю многие ждут адекватных цен, чтобы обновить свои системы.

UFO just landed and posted this here

А еще $500 - ОЗУ, $300+ мать, $1500+ видеокарта, ну не очень бюджетно выходит.

Модуль памяти на 16 гигов (DDR4 3200 MHz) стоит 5000 рублей. Вы собрались 128 гигов покупать?

Вместо материнки с чипсетом X570 можно взять модель поскромнее на B550. Это будет стоит $100, а разницу вы вряд ли сможете увидеть.

Оперативная память 32Gb 4800MHz Kingston Fury Beast 2x16Gb KIT CL38 DDR5 (KF548C38BBK2-32) стоит 20-26к руров, 64 гб итого будут стоит ~$500. Довольн странная идея на свежие процессоры ставить "старую" DDR4. Судя по тестам, разница в тех же играх - будет заметна.

Дешевую мамку под жирний процессор? У нее питания-то хватит?

В свое время я взял достаточно дорогую связку в виде Gigabyte P55 + i7 860, и спустя годы могу сказать что это было очень разумное вложение, почти всем слотам нашлось применение. Да и довольно странно брать хороший процессор и остальное по остаточному принципу.

Ну да, действительно, экспериментальная ДДР5 память стоит дорого. Кто бы мог подумать.


Чем вас 2666 ДДР4 не устраивает? Если вы играете, то всё равно упрётесь в карту в 99% случаев. А если не играете, то какая там разница? 3%?

Оперативная память 32Gb 4800MHz Kingston Fury Beast 2x16Gb KIT CL38 DDR5

Что меня смущает, так это CL38. Для сравнения: у оверклокерской DDR4 с близкими частотами (4000-4400) задержка будет в районе CL19-CL20.

И нет, это не ошибка, это реальное ухудшение ситуации:
https://dtf.ru/hard/673176-ddr5-pamyat-longsys-primerno-na-53-bystree-ddr4-moduley
Рост задержки с ~55-60 нс до ~110 нс — это охренеть как много.

Судя по тестам, разница в тех же играх - будет заметна.

Если вы внимательно поизучаете тесты, то увидите, что играм важна не столько пропускная способность памяти, сколько задержка доступа к памяти.

Увеличение пропускной способности в полтора раза относительно массовой DDR4 3200 MHz с одновременным увеличением времени доступа в 2 раза, скорее всего, даст ухудшение производительности в играх, причём довольно серьёзное.

Дешевую мамку под жирний процессор? У нее питания-то хватит?

Для ситуации 10-летней давности, когда разгон процессора был нормой, покупка дорогой материнки себя оправдывала. Сейчас же процессоры гнать бессмысленно. И, кстати, чипсет и подсистема питания — разные вещи.

Что меня смущает, так это CL38. Для сравнения: у оверклокерской DDR4 с близкими частотами (4000-4400) задержка будет в районе CL19-CL20.

Ну так память только считайте вышла, DDR4 прямо сейчас будет лучше чем DDR5, но на перспективу - хуже.

Если вы внимательно поизучаете тесты, то увидите, что играм важна не столько пропускная способность памяти, сколько задержка доступа к памяти.

Не претендую на абсолютную точность, но на том же overclockers.ru есть небольшой тест, по сути перевод, где видно что DDR5 уже немного, но быстрее

И, кстати, чипсет и подсистема питания — разные вещи.

Конечно разные. Не знаю точно как дела у AMD, но у Intel под топовые горячие процессоры материнка надо соответствующая, как минимум из-за потребления.

Сейчас же процессоры гнать бессмысленно.

3.6 в стоке или 4.7 дают большую разницу, по крайней мере на моем уже "доисторическом" 8600k.

Про поддержку частоты памяти молчу, на дешевых мбшках не будет работать 4000-4400 память зачастую.

3.6 в стоке или 4.7 дают большую разницу, по крайней мере на моем уже "доисторическом" 8600k.

Не забывайте, что в процессорах есть турбобуст, и если у вас задача задействует только пару потоков, то в стоке будет уже 4.3, что нивелирует разницу. У 10ххх и 11ххх частоты турбобуста уже доходят до 5.0.

Сильное различие же будет только при 100% нагрузке. Да, тут только хорошая материнка и охлаждение потянут разгон до 4.7. Но стоит ли оно того?

Про поддержку частоты памяти молчу, на дешевых мбшках не будет работать 4000-4400 память зачастую.

Вот только контроллер памяти находится в процессоре, а не на материнской плате.

И опять же: я считаю, что покупка памяти 4000-4400 вместо 3200-3600 с низкими таймингами совершенно не оправдана: производительность вырастет максимум на 5%, а вот денежные затраты на память и материнку будут несравнимо выше.

Но стоит ли оно того?

Тут уже на месте надо решать. Для меня стоит. Турбобуст имеет дельту и имеет свойство проседать через 50 с чем то секунд.

Вот только контроллер памяти находится в процессоре, а не на материнской плате.

Это тоже правда, но на дешевой памяти биос просто не заведет высокую частоту памяти. Проверено на 4400 памяти с 9600k на мб которая только 4200 позволяет. 4400 просто не стартует. Сделано почти наверняка специально, но что есть то есть.

UFO just landed and posted this here
Не подскажите, какую видеозаглушку за 10$ можно взять сейчас? Ну, так чтобы 4K видео на YouTube не лагало?
Я себе брал Ryzen G серии (со встроенной), пока нормальную видеокарту не купил. Иначе приходилось выбирать затычку за 100-200$.
UFO just landed and posted this here

А зачем видеозаглушка вообще нужна? Сейчас же везде есть встроенное видео.

UFO just landed and posted this here

Если сервер с линуксом и материнка позволит загрузиться без видеокарты — не проще подключаться к нему по консоли (rs232/usb)?

UFO just landed and posted this here

Проще, чем ставить видеокарту-затычку.

UFO just landed and posted this here

Часть плат умеет такое. Видел такие отзывы про strix b450, например.

8700, 3600, 10400f и 11400f уже много лет выпускаются, если сравнительно задёшево, 8100/9100 на пару с x400g в бюджетном сегменте, про мидлы по 8 и более ядер я вообще молчу - куда уж доступней? Не так уж давно одна материнка под столько ядер стоила как проц+мать сейчас, а производительность этих ядер успела вырасти в 1.5-2 раза. Другое дело, что это нужны задачи под это дело, которые получают от этого ускорение - иначе действительно нет смысла менять

Вроде выпускают и выпускают, а цены вниз не сильно падают.
Это вы просто не знаете или не помните, сколько лет 5 назад стоили процессоры на 12 ядер с 24 потоками, которые сейчас дешевле 500 баксов можно купить.

Цены в обозримом будущем падать не будут, не таково состояние экономики.

Жизнь такова, какова она есть, и больше – никакова

Помимо указанных выше аргументов есть и еще один — инфляция. Они и не должны падать.

Многопоточность поддерживают только большие ядра

Чего??? Может имеется в виду hyperthreading, а не многопоточность? А то делать несколько ядер процессору которые не будут уметь в многопоточость нет никакого смысла. Если первые 8 с хипертредингом, 16 других без, то в итоге как-раз получается 32 потока.

Ни разу не видел в daily life 100% cpu на ryzen 9 5950x. 32 виртуальных ядра круто конечно, но основная масса приложений не умеет их все разом использовать для скорости.

Надо производительность на ядро увеличивать тож. Одним копипастом чиплетов сыт не будешь

но основная масса приложений не умеет их все разом использовать для скорости.

Ну то такое. Бухгалтеру такой процессор не нужен. Но если вы программист и собираете проект, вам все ядра пригодятся. Если вы работаете с видео/аудио — тоже все ядра пригодятся. Художник, конструктор и т.д. — есть масса профессиональных применений, где чем больше ядер, тем лучше. А для бытовых задач, ну так там в линейке есть и процессоры попроще :) Не говоря уже о том, что если даже одно приложение не умеет утилизировать много ядер, ему зачастую помогут в этой нелёгкой задаче другие приложения. У меня вон прямо сейчас около 6000 потоков на компьютере.

Я программист, тоже так думал, не гоже это чтобы техника была ботлнеком, взял 5950х + 128 гб оперативы. Практика показывает что погорячился )

Нет, я конечно не жалуюсь, все летает, а вентиляторы не слышно даже в тишине, моя мысль в том что если мне сейчас добавить хоть еще 100 ядер, я не увижу ровно никакой разницы.

что если мне сейчас добавить хоть еще 100 ядер, я не увижу ровно никакой разницы.

Увидите: производительность упадёт, т.к. чем больше ядер, тем ниже частота каждого из них.

Это скорее запас на будущее: позволяет дольше обычного не думать об апгрейде.

Абсолютно с вами согласен. Лучше сразу купить компьютер для работы без компромиссов, прослужит гораздо дольше и нервы ваши сохранит.

Купил 8 лет назад только вышедший haswell, и 32gb памяти - чтобы потом не бегать и не искать, если не будет хватать, так как в то время на работе мы прямо резко стали наращивать объёмы памяти 4,8,16 и казалось что 32 будет требоваться через год - два, оказалось что нет, но она тогда стоила не очень дорого.

Про удешевление, я имел ввиду все таки топовые процессоры, если бы я купил i7, а не i5, то сейчас было бы терпимо, но вот с i5 уже не хватает 4х ядер

моя мысль в том что если мне сейчас добавить хоть еще 100 ядер, я не увижу ровно никакой разницы.

А виновника вы можете наблюдать в зеркале, однако.

Однопоточная проиводительность упёрлась в потолок ещё лет 20 назад.

Выпосла с тех пор раза в три и ожидать её повышения, увы, не стоит.

Ну может ещё раза в три за очередные 20 лет ускорят (путём увеличения размера ядра раз в сто).

Так что, эта… всё в ваших руках. Думайте как ускорять всё в существующих условиях.

Это ваша задача теперь, не разработчиков железа.

Физику не обманешь.

Однопоточная проиводительность упёрлась в потолок ещё лет 20 назад.

Это в 2002-ом что ли? Мой компьютер из 2004-го уделает какая-нибудь raspberry pi первого поколения. Или вы про частоты?

Мой компьютер из 2004-го уделает какая-нибудь raspberry pi первого поколения.

Знаете, это даже не смешно. Может вы в 2004м работали на отцовской Амиге, купленной в 80е, но у меня был Northwood 3.4Ghz тогда.

А Raspberri Pi первого поколения — это 700Mhz ARM. И даже не суперскаляр.

Никакого сравнения, в принципе. Разница в сокрости раз в пять. И не в пользу Raspberri Pi.

Или вы про частоты?

И про частоты и про количество инструкций за такт. И да, я знаю, что у Pentium 4 были “кукурузные мегагерцы”. Но где-то полторы инструкции за такт он выдавал, одну, если сильно не повезёт, а современные процессоры хорошо, если, в устоявшемся режиме, три делают. Обычно меньше.

Так что всё, лафа кончилась, “кина не будет”.

Однопоток достиг, фактически, предела. Не будет он уже ускоряться существенно, как бы этого кому-то ни хотелось.

Это в 2002-ом что ли?

Конец прошлого века. Архтектурно последний “большой рывок” — это Pentium Pro, 1995й, окончание “гонки гигагерц” — это Pentium 4, 2000й.

После этого однопоточная производительность растёт настолько черепашьими темпами, что рассчитаывать на неё не стоит от слова вообще. В три раза за два десятилетия, плюс-минус.

Всё, пора программистам просыпаться. Давно пора.

Однопоток достиг, фактически, предела. Не будет он уже ускоряться существенно, как бы этого кому-то ни хотелось.
Надо добавить — на существующих решениях. Может завтра прорыв прорвут и случится счастье.

Всё, пора программистам просыпаться. Давно пора.
Там где производительность реально нужна они и не засыпали.

А браузерные приложения и ко. так это не про производительность.

Плюс для многих приложений встраивают сопроцессоры — поддержка видеокодеков или нейропроцессоры на м1, сразу начинается приемлемая производительность с минимум энергопотребления.

После этого однопоточная производительность растёт настолько черепашьими темпами, что рассчитаывать на неё не стоит от слова вообще. В три раза за два десятилетия, плюс-минус.
Посмотрел на passmark текущий лидер Intel Core i9-12900KF — 4223, самый быстрый Pentium 4 — 666 (это звоночек!) или в шесть раз. Это конечно не много, но если использовать несколько ядер — то общая производительность системы для пользователя будет сильно выше.

Надо добавить — на существующих решениях.

Не нужно. 5Ghz — это частота, на которой свет, в вакууме, проходит жалкие 6 сантиметров. Никаких предпосылок ожидать чего-то, движущегося быстрее света в ближайшем будущем ожидать не приходится и в субатомные структуры мы тоже не полезем.

Так что нет, никакие новые решения ничего не изменят. Вот сделать параллельно запускаемыми 100, 1000, 10000 потоков — это мы, теоретически, можем. А радикально ускорить однопоток — нет.

Там где производительность реально нужна они и не засыпали.

Серьёзно? Расскажите это программистам, у которых однострочное изменение по полчаса при использовании C++ и Rust компилируется.

Сапожник без сапог, блин.

А браузерные приложения и ко. так это не про производительность.

А про что это? Про испытание терпения пользователя?

Посмотрел на passmark текущий лидер Intel Core i9-12900KF — 4223, самый быстрый Pentium 4 — 666 (это звоночек!) или в шесть раз.

Там существенная часть ускорения — это не ускорение однопотока, как такового, а SSE и AVX. Да, это дало разовое ускорение (Pentium 4 в SSE2 уже умеет, в AVX ещё нет), но там тоже упёрлись: AVX512, может, к десятилетию с момента презентации, и пойдёт в массы, но уже гипотетический AVX1024 — под вопросом.

При этом разрыв между тем что могло бы быть, если бы программисты не прятали голову в песок и тем, что мы имеем в реальности всё растёт и растёт: количество ALU в GPU уже тысячами измеряется, то есть если бы архитектура приложений позволяла, то можно было бы уже спокойно выпускать CPU с тысячами же [низкосоростных] ядер.

Вместо этого оказывается, что 16 ядер загрузить работой нечем. Вместо этого нужно разгонять 2-4-8 до космических скоростей (так что яичницу жарить можно).

Для одного длинноконвейерного (35+ стадий) ядра с HT, реальным, а не маркетинговым размером литографии около 20 нм (в качестве прототипа я предполагаю Tejas, который имел 65 нм) и с более-менее пропорционально разнице площадей (6 кв. мм вместо 120) поднятой частотой ("минимально максимальная" КМК в районе 12-16 ГГц) такой хотспот, конечно, будет греться как печка, но для определённых целей может оказаться выгодным, особенно, если это чиплет.

с реальным, а не маркетинговым размером литографии около 20 нм

А ничего, что там у вас элементы размером меньше одного атомного слоя начнут появляться?

"минимально максимальная" КМК в районе 12-16 ГГц

А тут у нас начинают сигналы распространяться быстрее скорости света…

в качестве прототипа я предполагаю Tejas, который имел 65 нм

Вот только не работал этот Tejas нифига. Когда его отменяли, то было уже понятно, что частоты у него будут ещё более “кукурузными” и что ничего хорошего из этого не выйдет.

такой хотспот, конечно, будет греться как печка, но для определённых целей может оказаться выгодным, особенно, если это чиплет.

В принципе что-то подобное можно сотворить, если перейти в 3D и не ограничиваться одним слоем. В этом случае субатомарные конструкции не нужны. Вот только:

  1. Это тупик. Этот трюк вы можете проделать один раз. 4го измерения у меня для вас нету.

  2. Вы получите этого монстра взамен примерно сотни ядер, подобных современным

Да, возможно для каких-то целей оно и подойдёт. Но тратить все эти ресурсы для компенсации того, что кто-то наворотил 100500 уровней индирекции в JavaScript-библиотеке… глупо.

А ничего, что там у вас элементы размером меньше одного атомного слоя начнут появляться?

Мне казалось, это как раз и есть примерный размер того, что называют процессом Интел 7.

начинают сигналы распространяться быстрее скорости света

С чего бы вдруг? 16 ГГц это, ЕМНИМС примерно 9 мм в кремнии, при размерах кристаллика 2.4х2.5 сойдёт.

Вот только не работал этот Tejas нифига

Из-за диких утечек в подложку и прочих косяков, которые в нынешних процессах исправлены. Почти 2 десятка лет прошло. Тогда с площади 120 кв мм пытались отвести по ватту с миллиметра.

тратить все эти ресурсы для компенсации того, что кто-то наворотил 100500 уровней индирекции в JavaScript-библиотеке

Всё равно придётся - пока не появится "оптимизирующий транслятор" для всех тех слоёв абс(т)ракции.

Мне казалось, это как раз и есть примерный размер того, что называют процессом Интел 7.

Нет. Была же статья на Хабре. Со снимками. 7нм отличаются от 90нм, условно, тем, что транзисторы “поставили на попа”. Да, это позволилось их больше напихать в кристалл и немного повысить скорость (проводники короче), но ни о каких 10GHz (не говоря уже о 15-16GHz) речи не идёт.

С чего бы вдруг? 16 ГГц это, ЕМНИМС примерно 9 мм в кремнии, при размерах кристаллика 2.4х2.5 сойдёт.

Сойдёт для чего? Чтобы от одного конца кристалла до другого дошло? Возможно.

Но вы что-то там говорили про всякие Tejas'ы? То есть про суперскаляры? Там для этого сигнал должен пройти далеко не через один транзистор. Вот суммарная их длина и играет роль.

От того, то вы эти транзисторы “на попа” поставили расстояние, проходимое сигналом не сильно уменьшилось. Вы не в курсе, что первый процессор на 5GHz появился больше 10 лет назад? Ну так просветитесь.

Тогда с площади 120 кв мм пытались отвести по ватту с миллиметра.

Я вам умный вещь скажу, только вы не обижайтесь. Отвести со 120 кв. мм пусть даже и 200 ватт куда проще, чем жалкие 20-30 ватт с вашего кристаллика 2.4x2.5

Всё равно придётся - пока не появится "оптимизирующий транслятор" для всех тех слоёв абс(т)ракции.

Нет. Достаточно произойти какой-нибудь заварушке между Тайванем и Китаем — и всё. Весь мир оказывает перед фактом: телефоны теперь будут служить лет по 5, а главное — чипы для них, в наличии, только китайские. Мегагерц на 500, от силы на гигагерц. Получите — распишитесь.

И ведь, что характерно, и получат и распишутся.

Подавляющее большинство современного софта потребляет раз в 100 больше ресурсов чем ему нужно, на самом деле, для решения той бизнес-задачи, для которой оно создано.

Появится необходимость — ужмутся.

Да, будет тормозить. Но это не от процессора зависит. И ваш процессор на 15-16Ghz будет так же прекрасно тормозить, как сегодняший проц на 5GHz, если его удастся сделать

Софт “летал” когда разработку WIndows 95 начинали на 486DX на 66MHz в 1992м, а пользовали её на Pentium II на 200Mhz в 1997м.

То есть когда машина разработчика была тормознее, гораздо тормознее, чем машина пользователя.

Вот так — да. Обеспечьте это (неважно как) — и тормоза исчезнут. Не обеспечите? Будет тормозить.

В принципе что-то подобное можно сотворить, если перейти в 3D и не ограничиваться одним слоем.

Может и тупик, но если все вычисления засунуть в один кубический сантиметр, то в теории можно будет достигнуть ускорения частоты в разы, что тоже неплохо.

Не нужно. 5Ghz — это частота, на которой свет, в вакууме, проходит жалкие 6 сантиметров. Никаких предпосылок ожидать чего-то, движущегося быстрее света в ближайшем будущем ожидать не приходится и в субатомные структуры мы тоже не полезем.

Дело не только в скорости света, но в самих принципах вычислений. Условные аналоговые вычисления в несколько раз быстрее цифровых, квантовые тоже. Но не факт что получится их использовать для универсальных вычислений в ближайшее время.

Но не факт что получится их использовать для универсальных вычислений в ближайшее время.

Совершенно неважно — получится или нет.

Важно, что вы там Windows не запустите. Ну никак.

А это, в сущности, единственная причина по которой мы имеем… то, что имеем. Ну не одна WIndows, конечно, а вот все эти Angular'ы и Vue.js… весь массив накопленного де софта.

Просто почти весь XX век ничего, кроме однопотока, у большинства разработчиков и пользователей, не было.

Соотвественно, когда появилась альтернатива, оказалось, что запускать на ней решительно нечего.

Потому на однопотоке ехали пока была возможность ехать. Выжимая из него всё, что можно и чего нельзя.

По кругу: более тяжёлый софт требует более быстрого однопотока, более быстрый однопоток позволяет не думать о том, чтобы менять парадигму работы софта.

А когда упёрлось, то оказалось, что выбраться из этой колеи не так-то просто: ядра-то в стоядерном процессоре будут куда проще и медленнее, чем в таком же по цене 4-8 ядернике! А софта, по прежнему, нету… потому “оно” и не продаётся.

Переход на аналоговые или, там, квантовые, вычисления — тоже ведь Windows не ускорит, ведь так?

Ну а с нуля можно и под сто ядер написать код и под квантовый компьютер… но там не будет быстрого однопотока. Потому что условный Windows там не запустится, а без запуска Windows вам и однопоток не нужен суперскоростной.

По кругу: более тяжёлый софт требует более быстрого однопотока, более быстрый однопоток позволяет не думать о том, чтобы менять парадигму работы софта.

А какая, по-вашему, должна быть парадигма работы софта? Лично я особых перспектив здесь не вижу на текущем железе: переключение потоков и синхронизация дорого обходятся.

А какая, по-вашему, должна быть парадигма работы софта?

Гибкой. Банально создайте 100500 асинхронных задач, отдайте executor'у (как это по русски?), он либо запустит 100500 потоков (если у вас 100500 ядер), либо будет из по очереди запускать на тех 2-4-8, что у вас есть.

Лично я особых перспектив здесь не вижу на текущем железе: переключение потоков и синхронизация дорого обходятся.

Для этого, собственно, и придумали пресловутый async/await.

Только разработчикам не объяснисли, нафиг они нужны, в результате они всё пихают в одну, типа асинхронную, функцию, а потом удивляются, почему нифига не параллелится.

Проблема не распараллелить. Проблема в накладных расходах при создании мелких задач.

Ну дык для этого асинхронные функции и завезли во все языки, которые рядом с производительностью валялись (C, C++, C#, Java, Rust).

Если не заводить для каждой мелкой задачи поток, то что у вас там будет из накладных расходов? Выделение памяти да пара атомарных обращений к памяти на задачу?

Если раскидать задачи хотя бы по 4м ядрам (а это есть уже даже на самых бюджетных бюджетниках), то уже будет выигрыш, а если ядер будет больше — выигрыш будет больше.

Не нужно. 5Ghz — это частота, на которой свет, в вакууме, проходит жалкие 6 сантиметров.
Про частоту понятно. Я имел в виду что-то сильно поновее, например подобие аналогового сигнала, когда мы сможем уйти с двоичной логики. Понятно что звучит неправдоподобно, но нету фундаметальных перпятствий как со скоростью света. Это как с сингулярностью, пока за горизонт не зайдёшь, даже сложно представить что возможно и как дело повернётся.

Сапожник без сапог, блин.
Согласен, но есть всякие числодробилки и дата анализаторы которые вполне себе оптимизированны.
Там существенная часть ускорения — это не ускорение однопотока, как такового, а SSE и AVX.
Ну не сильно важно как. Паралельность внутри одного CPU это возможное направление движения.
А про что это? Про испытание терпения пользователя?
Про орды программистов красящие губной помадой свинью. Веб стандарты например даже rich text editor не поддерживают или функциональность меню. Приходится изобретать и получается как получается.

В конце концов выкинут легаси, придут к стандартизации и реализуют на уровне браузера набор более высокоуровневых компонентов, тогда всем полегчает. И производительность сразу взлетит. Ну и например оптимизацию JS сильно улучшили за последние 20 лет. Пройдёт ещё 20 лет, может быть и не надо будет делать 90% того что сейчас делает браузерописатель.
При этом разрыв между тем что могло бы быть, если бы программисты не прятали голову в песок и тем, что мы имеем в реальности всё растёт и растёт
Всё случится. Со времени более менее реального появления многоядерности в массах, наверное лет пятнадцать всего прошло. Пройдёт еще 20 и какой-нибудь новый гугл выстрелит и все скажут — «а что так можно было?»

У меня и многих коллег дома такие и 64гб оперативки (я бы даже сказал что это минимум - часто свопит, комфортно становится только на 128), и NVME диски, например. Работаем с графикой, причем все задачи - именно CPU: рендер в Arnold, симуляции в Houdini, симуляции во всяких Marvelous Designer, реконструкции в Reality Capture, композ в Nuke, итд.

Забиваются все ядра под завязку и просят ещё. Один коллега купил домой тредрипер, другой - вообще эпик.

Потому что удаленка и работать через тимвьювер на офисных компах некомфортно.

А вот видеокарты у нас - дело последнее, для работы они особо не нужны. Можно сидеть хоть на какой заглушке лишь бы она dx12 поддерживала.

а офисные на дом не выдают ? :)

Выдавали, но они огромные, почти фуллтауэры. А если учесть что работаем вдвоем с женой, то вся комната была заставлена компами и мониторами (у меня три монитора, у жены — два и огромный Wacom Cintiq), как в киберпанковых аниме.
Ну и жили тогда в квартире в 40м2, было очень тесно с таким сетапом. В общем, отдали назад компании их после первого месяца мучений.

Потом переехали в 75м2 и я собрал в корпусе Ncase M1 — маленький, удобный, живет в икеевской стойке.

Как-то так это выглядит







Ну и плюс иметь дома мощную технику тоже не помешает — использую на всю катушку: от обработки фоток и 3д работ для личного портфолио до экспериментов с нейросетями и всякими идеями для стартапов (которые тоже связаны с 3д).
«Как-то так это выглядит»
Кажется, такая чашка называется «сиротская».
Фуллтауэр, кстати, можно было раздвоить-растроить, под Windows например Астер весьма удобна, Linux сам умеет вроде бы.
Кажется, такая чашка называется «сиротская».

Не знал, спасибо!

Фуллтауэр, кстати, можно было раздвоить-растроить

А вот раздваивать компьютер не нужно, ресурсов и на одного человека часто впритык или хотелось бы больше чем есть. Запустил рендеринг/симуляцию/реконструкцию — так параллельно браузер и музыка лагают (на i9-7980XE) а оперативка свопит, какое там второму человеку нормально работать.

Linux сам умеет вроде бы

Линукс — вообще не вариант и не рассматривается. У нас много программ для графики которые лучше всего работают под виндой или вообще есть только под нее (Zbrush, например) плюс много внутреннего софта который тоже win-only.

Есть, конечно, версии под линукс для некоторых вещей (Maya, Houdini, Nuke, например) — но это того не стоит тк графический стек в линуксе до сих пор ужас и треш плюс проблемы с дровами нвидии (использовать не нвидию — тоже не вариант). 20 лет прошло, а воз и ныне там.

Плюс еще в проектах часто присутствуют внутренние сетевые пути, которые, понятно, тоже вида x:\\projects\hueta и их надо будет процедурно переписывать на локальные юниксовые а при сохранении — переписывать назад.

Спрашивается, нафига такое счастье — лицензии-то все от компании на весь софт, все лицензионное.

Так что вот так. 😄

Издание notebookcheck опубликовало статью о новом китайском ноутбуке - "Huawei Qingyun L420 with 5 nm Kirin 9006C SoC turns up as the incoming successor to the ARM-based L410 laptop". Информации на целую страницу. Желающие могут ознакомится.

Звучит как-то совсем подозрительно шикарно. Видимо в следующем году узнаем, так ли это

А что толку от всех этих процессоров, Word и AutoCAD как тормозили 20 лет назад так и будет тормозить в будущем.

Sign up to leave a comment.