Comments 81
По словам Паттерсона, результат такой, что с 2015 года рост производительности процессоров упал до ничтожных 3% в год. Удвоение по закону Мура теперь происходит на за 1,5 и даже не за 3,5 года. Теперь это двадцать лет.
Вообще-то закон Мура был не про производительность per se (и вообще интересно в чем именно измерялась «производительность» на графике), а про количество транзисторов на чипе.
Хотя кому какая разница…
То есть и не производительность, и не плотность упаковки, а минимальная цена на транзистор.
и вообще интересно в чем именно измерялась «производительность» на графике
думаю, сырые MIPSы относительно VAX11
Маркетологи не знают, собственно говоря для чего его поддерживать. Где те задачи, для которых необходимы огромнейшие затраты в научно исследовательские разработки?
Собственно нету сейчас спросу на этот закон. :))
Где те задачи, для которых необходимы огромнейшие затраты в научно исследовательские разработки?
Собственно нету сейчас спросу на этот закон. :))
Ну конечно нету. А миллионы видосов с 4К котиками показать каждую секунду обывателям? VR в 240 градусов, 120 fps, 8K, всякие вычисления для ИИ и neural networks, моделирование процессов в научных целях. И это я подумал всего 10 секунд. Можно найти ещё 1000 и 1 способ и потребность в новых, более мощных процессорах. Ваш коммент звучит как знаменитая фраза Гейтса об кол-ве необходимой оперативки.
У меня на работе в ЛВС еще работает сервер 2005 года и тянет свои задачи.
И собственно оставшуюся сотню компов в ближайшее время смысл менять только лишь для экономии электроэнергии.
В ИТ с 1989 года может поэтому так думаю?
У меня в подвале небольшая рендерферма из около десяти машин на разогнанных core i7-920 и xeon x5570. Они не первой свежести, но по цене грязи и фермочка не уступает паре последних i9 по цене сотен нефти.
А обслуживает ее кластер-менеджер на моем старющем компе с p4 2.4 northwood и 1 гигом оперативки. А гейтом в интернет, шейпером, и фаерволом (Mikrotik RouterOS) является старый celeron 1.7, который еще древнее пня 4. Ну и сделан NAS на p4 3.0, прекрасно справляющийся со всеми своими задачами (бекапы и архив порева с порнолаба).
В общем, прогресс по процам реально встал и меня это радует. Пока хомячки бегут за последними i7 в магазины, я могу на ту же сумму накупить древнейших i7 и получить в несколько раз большую производительность (распределенную).
Единственный минус/плюс — энергопотребление. Вся эта байда жрет около 2-3 киловатт под нагрузкой.
ЗЫ.
Пашу на японцев, делаю им для рекламы вот такое.
ЗЫЗЫ.
Гпу-рендеринг не подходит — используются взрослые продакшен-рендеры (Arnold), гпу-рендеры еще многое не умеют из критичного. Так что только хардкор, только цпу.
А сколько по времени эта картинка рендерилась на десятке i7?
А по времени расклад такой обычно:
технически тяжелый плакат (около 500м полигонов и около 100гб текстур) в продакшен-качестве 6000х9000 считается ночь.
Кадр видео 1080p такой же сложности считается часа за 2.
Если что-то простое (без рассеиваний кожи, объемов, итд) — то минут 5-20 на кадр.
Если всякая архитектура/уличные шоты/мультяшные/продуктовые шоты (например, для рекламы автомобиля, кофемолки, телефона, итд)/что-то еще — то пожалуйста, там почти реалтайм будет.
А вот как только нужна кожа с правильными рассеиваниями, очень большие сцены с сотнями миллионов полигонов, сцены с процедурниками во время исполнения, сцены с кастомными шейдерами — то все, упс, только цпу и не иначе.
Вот, например. Я использую продакшен-рендер Arnold, который уже стал стандартом индустрии (как раньше был Renderman) и используется в почти всех топовых фильмах как основной — и он пока цпу-онли (опять же, из-за фич, которые пока еще не реализованы на гпу). Уже который год ведутся разговоры о его переводе на гпу (а для него это самый лучший вариант — это брутфорс-рендер, в отличие от всех остальных), но пока там ранняя альфа, судя по презентациям.
Из гпу-рендеров я бы рассматривал Redshift как хорошую альтернативу (он интерполяционный, поэтому все плюсы-минусы классических биасед рендеров), но он не умеет делать рейтрейс кожу (и не просто рейтрейс кожу, а методом Randomwalk) — только аппроксимацией через облака точек, еще очень нестабилен, и отсутствуют многие плюшки, которые кажутся критичными во взрослых рендерах.
Как-то так. Если в течение пары лет RS научится делать правильно кожу — буду его рассматривать. Если раньше этого срока Arnold перейдет на гпу, то можно и не переучиваться, а просто заменить все это железо на одну видяху. А пока — вариантов нет.
Еще есть один популярный гпу-рендер — Octane. У него тоже свои плюсы-минусы, но основной — он не умеет делать нормальные дисплейсы. А без них ни кожа, ни горные массивы не получатся в желаемом качестве.
И еще один плюс арнольда (и почему он используется в индустрии) — невероятная, сказочная эффективность по памяти. Он легко укладывает сотни миллионов полигонов в несколько гб когда считает. Ни один другой рендер этого не умеет, а в случае гпу — неэффективность по памяти выйдет еще дороже.
Ну а на счет ксеонов — тогда понятно. Правда к ним нужны еще и материнки и бп и память… Всё это хозяйство поддерживать (когда много компов посоянно что-то глючит или не так работает). Ну, вопрос экономии на электричестве у вас, видимо, не актуален, в силу не постоянной загрузки и большого выхлопа в деньгах за потраченный машино-час.
Если архитектура/продуктовые презентации (а это 99% всех фриланс заказов в РФ), то уже давно все перешли на гпу и счастливы.
А вот фотореалистичные персонажи, или что-то другое с киношным уровнем сложности и требований — тут пока тухло в плане гпу. Опять же, из претендентов на промышленный гпу-рендер — только Redshift, ему в основном только рассеиваний, стабильности, и некоторых мелких доработок для полного счастья не хватает.
Прикол в том, что если смотреть по фриланс-заказам на фоторил персонажей (когда берут фотку человека и рендер и сравнивают, после чего отправляют доделывать), либо сложных сцен, то это исчезающе малое количество заказов, их почти нет. Даже по миру их очень мало (работал пару лет через Upwork — там и выцепил сегодняшних работодателей). Нет смысла заказывать такие проекты фрилансерам, этим занимаются в основном в студиях.
Что до opencl — не знаю, везде только cuda. Я уже давно не рассматриваю амд карты как вообще хоть сколько-то пригодные для работы в графике, т.к. любые симуляции (вот здесь я не спец, имел дела мало) — это cuda. Если карта для работы с графикой (даже не для рендера) — то только nvidia, вообще без вариантов.
Ну а электричество — оно относительно халявное. Я пару лет назад переехал во Владивосток (жена хочет пожить некоторое время на малой родине, плюс ближе к работодателю по часовым поясам) — я просто присосался к промышленному цеху тестя и поставил там в подсобке стойку с серваками.
Ну а насчет ксеонов — достаточно посмотреть алиэкспресс: они там по 1200 новые.
Имхо сейчас китайцы прошарили, дёшево даже для LGA775/771 не купишь: либо всего 2 ядра, либо низкая частота. Иногда смешно, что четырёхядерник для LGA1366 дешевле аналогичного для LGA775.
В LGA1366 другая проблема — хрен найдёшь материнку, и они дорогие и плоховатые. Если есть материнка, тогда всё хорошо.
Моя рабочая машина — серверная мать, dual x5570, 48 гб ддр3 ецц, видеокарта — gt520, пара hdd (причем на матери есть только сата2, даже саты3 нет). Работать с тяжелой графикой комфортно.
Недавно был в командировке у заказчиков, пару дней посидел на последнем i9 с двумя nvme в рейде 0 и двумя нвидия титанами — разницы по скорости и комфорту работы с моим компом из древнего говна и палок не заметил. Вот вообще.
Да, ядер дофига, можно прогрессив рендер раза в три быстрее гонять, но на этом все. Остальное — по ощущениям так же.
Мои рабочие инструменты, например, даже топовый i9 уже не реализуют. То есть у 7940 производительность в программе больше, чем у 7980XE. При этом у i7-8700 — меньше. Значит, для максимальной производительности все же нужно покупать i9, хотя за его цену и можно собрать ферму. Я же не спорю, что ее можно собрать. Просто не всем нужно.
Уважаемый, скажите пожалуйста как это хотя бы гуглить? Как можно сделать такую распределенную систему вычислений?
Да просто обычные серваки под линуксом, грузящиеся по pxe, монтирующие сетевые шары и запускающие проприетарный рендер-движок скриптом. Ничего экстраординарного, обычные веб-серваки и те устроены сложнее.
Так как на всех машинах процы одного поколения, то собран один образ генты, самый минимальный, чтобы меньше жрал памяти — около 30 мб оперативки, там только ssh, smb, nfs. Все ноды бездисковые, грузят образ с nas по pxe (tftp+nfsroot), после чего монтируют виндовые шары с моего рабочего компа (файлы проекта + папка для готовых изображений), получают задание скриптом, и считают.
Как-то так. Каждый нод независимый, это не распределенный рендер: арнольд не умеет считать распределенно, тк это неэффективно — он используется большей частью в голливуде для фильмов, а там каждый нод считает свой кадр. Поэтому у меня тоже в случае видео каждый нод считает по своему кадру, а в случае статики (например, большой плакат) изображение распиливается на куски скриптом, они считаются независимо как отдельные кадры, после чего склеиваются в финальную картинку либо скриптом, либо в нюке, если нужна постобработка/композ.
Та картинка, что я привел, состояла из 25 кусков.
Поделитесь, пожалуйста, опытом: насколько 10 машин считают быстрее чем одна?
А вот если бы это был распределенный рендер, приросты были бы сильно меньше — синхронизация нод и прочий оверхед. До арнольда использовал mentay ray (с vray дела не имел, не знаю как там) — там был именно распределенный (все ноды совместно считают один кадр) и я в итоге пришел к той же схеме — раздельной. Распределенка сжирает до половины производительности.
А, забыл добавить. А тени, отражения, и прочее — там брутфорс рейтрейсер (path tracer, если точнее — есть различия), так что сцена всегда строится целиком — даже если считаем небольшой кусок. Принцип работы просто такой — нужна вся сцена.
И построение не больше 1% занимает, фигня.
В общем, прогресс по процам реально встал и меня это радует.
Пытаюсь придумать какой-то необидный ответ, и не получается. Вы же взрослый человек, в арифметику умеете? Понимаете, что если бы прогресс в развитии ЦП шёл быстрее, ваша ферма, собранная по цене той же грязи, считала ваш кадр не за 2 часа, а за 30 минут, например?
Это-то да, не спорю. Но в данном случае имеем, что имеем, и поэтому соотношение цена/мощность для старых процов сейчас очень вкусное. Я брал x5570 по 500 рублей с рук, хотя они всего на 30% медленнее потребительских скайлейков — разница компенсируется разгоном.
Утрируя, покупать каждый год новенький дорогущий топ-комп, и выкидывать его через год — врагу не пожелаешь. Вот если бы они раз лет в 5 весь накопленный прогресс выпускали, и потом его совместимость поддерживали…
Любопытство жадно требует подробностей.
На вашей фермочке бы лица на порнуху накладывать под заказ… ;-)
Пока хомячки бегут за последними i7 в магазины, я могу на ту же сумму накупить древнейших i7 и получить в несколько раз большую производительность (распределенную).А если бы прогресс не встал, Вы бы могли то же самое купить за 100$. Как минимум, на электричестве Вы сэкономили бы в разы больше. Но не забывайте, что кроме Вас есть ещё и много других людей, которые аналогичную мощность вынуждены покупать по ценам в 100 раз больше (даже покупая б/у). И мощность эта ограничена.
И кстати, если бы процы сейчас были в 100 раз мощнее, то те старые процы Вы бы могли купить ещё в 100 раз дешевле. Ну либо за такую же цену купили бы более новые процы и получили бы в 100 раз больше мощности и рендерили бы кадр не целую ночь, а 6 минут.
Зато когда Вам понадобится покупать новый процессор, Вы можете вместо 10000 $ потратить 100$. Мало кто откажется от такого. Я бы даже сказал так: большинство просто не смогут позволить себе потратить 10000 $ на процессор.
- У рендеров есть конкуренция, поэтому оверхэды на неоптимальности у них вряд ли велики.
- Говорить о том, что может хватить 32 КБ глупо, т. к. сейчас только содержимое экрана занимает 32 МБ (в разрешении 4К), и уменьшить эту память невозможно технически. Та программа, которая использовала 7 КБ, не сможет добиться таких же результатов, как современные программы.
- В случае с рендерингом, наверняка есть минимальный порог вычислительной мощности, который потребуется для рендеринга изображения. Если у тебя нет этой мощности, тебе придётся отказаться от рендеринга или рендерить в более низком качестве.
- Ну и нужно понимать, что в целом есть определённый экономический баланс: до какого-то момента выгоднее оплачивать труд программиста, а с какого-то труд производителя железа.
Конечно же это не значит, что ресурсы используются всегда оптимально. Например, JS достаточно оптимален, но DOM и рендеры браузеров — нет. Но опять же: нужно понимать, что даже тут хоть они и не оптимальны, зато позволяют намного удобнее вести разработку, что способствует технологическому прогрессу. Также без них некоторых хороших вещей бы вообще не было, т. к. они бы экономически не окупились. Либо были, но обладали значительно более низким качеством.
Программы, которые Вы устанавливаете на компьютер — не бесплатны. Даже если они поставляются бесплатно, Вы платите вычислительными ресурсами, стоимость которых добавляется к базовой стоимости программы. И Вы сами решаете, готовы ли Вы заплатить за программу определённую сумму или выберете другую программу.
Если Вы считаете, что программа по вычислительным ресурсам дорога, то Вы можете купить другую программу с более высокой базовой стоимостью, но с более низкой ресурсной стоимостью. А если от этого стоимость только увеличилась, или пострадал функционал, то можно сделать для себя вывод.
Вы говорите, что много лет назад хватало 32 КБ. Ну тогда в чём проблема пользоваться именно теми же самыми программами? Или они всё-таки уже не те же самые?
Говорить о том, что может хватить 32 КБ глупо,
Цитату в студию! Где я говорил что 32кБ хватит? Я говорил что
И было в этом компьютере аж целых 32 кБ ОЗУ!Это таки раз.
И говорил о том, что скорость работы программы на 90% зависит от алгоритма и его реализации. Тогда каждый байт экономили и старались по максимуму оптимизировать программы. Сейчас же большинство программ написано либо с бодуна левой ногой, либо задницей по клаве. Причем некоторые проги делают то, что они вообще делать не должны ни при каких условиях. Это я про выдачу паролей, «уязвимости», и прочую лабуду. Поясню на простом примере — нормально сделанный молок никогда не будет пилой! А «уязвимости» программ говорят только о криворукости прогеров их создавших.
- Алгоритм уже итак может быть выбран самый лучший.
- Рендеры тоже стараются по максимуму оптимизировать. А даже если бы это было не так, от высокоуровневости мы бы потеряли максимум несколько раз. А вот от от прекращения роста мощностей железа мы можем потерять и 100, и 1000 и сколько угодно раз.
Для этого компьютера была написана программа синтезатор речи с неограниченным словарем. И занимала она аж целых 7.5 кБ ОЗУ! Страшное дело!
дело действительно страшное, видел я те синтезаторы, и на БК, и на 286, и на speccy — страх и ненависть, речь там различить можно при довольно хорошей фантазии, примерно как в звуках, издаваемых кошками и собаками
Рядом трудится комп с двумя 12-ти ядерными процами.
И вот… есть задачка — там надо шустренько вычислить 200+ штук эллиптических интегралов. (И делать это постоянно в процессе отладки). Maple задумывается на полминуты. На i5. Нервирует однако.
Но смысл что-то менять, если сервер 2005 года всё ещё тянет свои задачи?
Спрос рождает предложение.
То, что необходимы еще более быстрые процессоры я не опровергал.
Но, например факт того, что никто не перешел на 400 мм кремниевые пластины и то, что стоимость новых фабрик растет в геометрической прогрессии говорит о многом.
Это пока какой-нибудь очередной новомодный фреймворк JavaScript не выйдет, позволяющий вставлять котиков и видео в веб-страницы посредством нечёткой логики и зависимых типов.
Пашу на японцев, делаю им для рекламы
Ммм это фото или рендер с ноля (имею в виду цифровая модель)?
Очень много применений, но в моем случае жто японская специфика.
Обычно в фильмах это делают чтобы в случае факапов можно было не переснимать сцену, а просто перерендерить актера. Либо для невозможных шотов со спецэфыектами и всяким бешеным, что идкт в кинотеатрах. Или актер уже давно умер, а он нужен молодым (звёздные войны 7, бегущий 2049), итд. Примеров масса.
А у японцев своя атмосфера. Их айдолы — почти небожители и дергать звезду ради съемок в рекламе как-то неприлично. Поэтому им проще заказать модельку (и оплатить команду 3дшников), чтобы потом с ней делать рекламу, плакаты, итд.
То что интел не хочет их отдавать простым смертным по адекватной цене, уже совсем другая история.
Аргументацию про котиков вообще не понимаю, котики и няшечки тапают на планшетиках и телефончиках, ибо мобильно, модно, молодёжно.
Альтернатива итаниуму была, эльбрусу — нет.
Закупки и производство эльбруса распланировано на много лет вперед.
Можете, пожалуйста, подробнее про исходные данные? Для меня как рядового пользователя процессора что там vliw, что там vliw… Хотелось бы более аргументировано отстаивать Эльбрусы в спорах.
1. Эльбрус это гос.заказ для обеспечения безопасности. Что означает, вне зависимости от отставания от мировых аналогов на критичные по ИБ точки армии, фсб, мвд и тд будут ставить именно сервера на базе эльбрусов.
2. Практически не рекламируется особая функция компов на базе эльбрусов — двоичный транслятор. Вещь настолько крутая, что минимум по одному Эльбрусу должно быть в каждой компании разрабатывающей серьёзный софт.
3. Это бонус из-за наличия п.2. Совместимость с ПО x86(IA32) которого огромное кол-во. Причем причем эмуляция аппаратная, не видиммая для софта.
Насколько я знаю серийного аналога просто нет, максимум это использование софтовой виртуальной машины.
geektimes.com/post/290037
Да, он сложный и медленный, но он работает и компилятор более-менее нормальный есть.
Во VLIW нет ничего плохого, если он используется на своём месте. Просто заточка под определённую микроархитектуру мешает её усовершенствованию и расширению.
У разработчиков был всего год, чтобы выпустить чип, поэтому им выделили всего три недели на разработку ISA.
Всего три недели на разработку архитектуры! )
50 (или 60) лет разработки процессоров… ради этого?