Как стать автором
Обновить

Комментарии 81

По словам Паттерсона, результат такой, что с 2015 года рост производительности процессоров упал до ничтожных 3% в год. Удвоение по закону Мура теперь происходит на за 1,5 и даже не за 3,5 года. Теперь это двадцать лет.

Вообще-то закон Мура был не про производительность per se (и вообще интересно в чем именно измерялась «производительность» на графике), а про количество транзисторов на чипе.
Хотя кому какая разница…
Moore, 1965: «The complexity for minimum component costs has increased at a rate of roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not to increase.»

То есть и не производительность, и не плотность упаковки, а минимальная цена на транзистор.
и вообще интересно в чем именно измерялась «производительность» на графике

думаю, сырые MIPSы относительно VAX11
Скомпилировал мысль по теперешнему состоянию «закона Мура»:
Маркетологи не знают, собственно говоря для чего его поддерживать. Где те задачи, для которых необходимы огромнейшие затраты в научно исследовательские разработки?
Собственно нету сейчас спросу на этот закон. :))
Где те задачи, для которых необходимы огромнейшие затраты в научно исследовательские разработки?
Собственно нету сейчас спросу на этот закон. :))

Ну конечно нету. А миллионы видосов с 4К котиками показать каждую секунду обывателям? VR в 240 градусов, 120 fps, 8K, всякие вычисления для ИИ и neural networks, моделирование процессов в научных целях. И это я подумал всего 10 секунд. Можно найти ещё 1000 и 1 способ и потребность в новых, более мощных процессорах. Ваш коммент звучит как знаменитая фраза Гейтса об кол-ве необходимой оперативки.
Для Вас лично может быть, а для остальных миллиардов пользователей?
У меня на работе в ЛВС еще работает сервер 2005 года и тянет свои задачи.
И собственно оставшуюся сотню компов в ближайшее время смысл менять только лишь для экономии электроэнергии.
В ИТ с 1989 года может поэтому так думаю?
Да пригождается вообще все до последнего. Как в том советском анекдоте про «настолько много остается, что приходится доедать и аж не наедаемся».

У меня в подвале небольшая рендерферма из около десяти машин на разогнанных core i7-920 и xeon x5570. Они не первой свежести, но по цене грязи и фермочка не уступает паре последних i9 по цене сотен нефти.

А обслуживает ее кластер-менеджер на моем старющем компе с p4 2.4 northwood и 1 гигом оперативки. А гейтом в интернет, шейпером, и фаерволом (Mikrotik RouterOS) является старый celeron 1.7, который еще древнее пня 4. Ну и сделан NAS на p4 3.0, прекрасно справляющийся со всеми своими задачами (бекапы и архив порева с порнолаба).

В общем, прогресс по процам реально встал и меня это радует. Пока хомячки бегут за последними i7 в магазины, я могу на ту же сумму накупить древнейших i7 и получить в несколько раз большую производительность (распределенную).

Единственный минус/плюс — энергопотребление. Вся эта байда жрет около 2-3 киловатт под нагрузкой.

ЗЫ.
Пашу на японцев, делаю им для рекламы вот такое.

ЗЫЗЫ.
Гпу-рендеринг не подходит — используются взрослые продакшен-рендеры (Arnold), гпу-рендеры еще многое не умеют из критичного. Так что только хардкор, только цпу.
Класс!
А сколько по времени эта картинка рендерилась на десятке i7?
Ну, эта картинка считалась около 2 часов.
А по времени расклад такой обычно:
технически тяжелый плакат (около 500м полигонов и около 100гб текстур) в продакшен-качестве 6000х9000 считается ночь.
Кадр видео 1080p такой же сложности считается часа за 2.

Если что-то простое (без рассеиваний кожи, объемов, итд) — то минут 5-20 на кадр.
Рендерить на gpu не быстрее чем на древних интелах? Это я чисто для общего развития интересуюсь. Что-то по моим прикидкам пара бэушных топовых GTX должны будут как минимум не медленнее всей вязанки ваших компов, но жрать будут меньше. Не знаю на счет цены — если брать на вторичке, то цены могут быть сильно разными… Если вам ксеоны и i7 лопатой насыпают за полторашку пива, то они, конечно, вне конкуренции…
Намного быстрее (на пару порядков), но зависит от области применения. Тут вообще реально тема для отдельной большой статьи с тоннами теории. Но попробую объяснить кратко.

Если всякая архитектура/уличные шоты/мультяшные/продуктовые шоты (например, для рекламы автомобиля, кофемолки, телефона, итд)/что-то еще — то пожалуйста, там почти реалтайм будет.

А вот как только нужна кожа с правильными рассеиваниями, очень большие сцены с сотнями миллионов полигонов, сцены с процедурниками во время исполнения, сцены с кастомными шейдерами — то все, упс, только цпу и не иначе.

Вот, например. Я использую продакшен-рендер Arnold, который уже стал стандартом индустрии (как раньше был Renderman) и используется в почти всех топовых фильмах как основной — и он пока цпу-онли (опять же, из-за фич, которые пока еще не реализованы на гпу). Уже который год ведутся разговоры о его переводе на гпу (а для него это самый лучший вариант — это брутфорс-рендер, в отличие от всех остальных), но пока там ранняя альфа, судя по презентациям.

Из гпу-рендеров я бы рассматривал Redshift как хорошую альтернативу (он интерполяционный, поэтому все плюсы-минусы классических биасед рендеров), но он не умеет делать рейтрейс кожу (и не просто рейтрейс кожу, а методом Randomwalk) — только аппроксимацией через облака точек, еще очень нестабилен, и отсутствуют многие плюшки, которые кажутся критичными во взрослых рендерах.

Как-то так. Если в течение пары лет RS научится делать правильно кожу — буду его рассматривать. Если раньше этого срока Arnold перейдет на гпу, то можно и не переучиваться, а просто заменить все это железо на одну видяху. А пока — вариантов нет.

Еще есть один популярный гпу-рендер — Octane. У него тоже свои плюсы-минусы, но основной — он не умеет делать нормальные дисплейсы. А без них ни кожа, ни горные массивы не получатся в желаемом качестве.

И еще один плюс арнольда (и почему он используется в индустрии) — невероятная, сказочная эффективность по памяти. Он легко укладывает сотни миллионов полигонов в несколько гб когда считает. Ни один другой рендер этого не умеет, а в случае гпу — неэффективность по памяти выйдет еще дороже.
Ну а насчет ксеонов — достаточно посмотреть алиэкспресс: они там по 1200 новые. Я брал тупо по объявлению с рук (распродажа старья от одного из местных хостеров) — взял 6 штук по 500р.
Вот на счет рендеров вы для меня прояснили. Я не связан с 3д -дизайном практически никак. Ну, т.е. для себя кое-какие модельки для 3д печати делаю, но это, конечно, совсем другая опера, а в основном я занимаюсь фото и немного видео-обработкой. Все мои познания в создании 3д «контента» ограничиваются словами «майя, блендер, 3д студио». Вы мне назвали слова, которые я вообще первый раз в жизни вижу. Просто следя за различными новостями у меня создалось впечатление, что переход на GPGPU уже состоявшийся факт. Нвидиа уже пиарилась тем, что специальный sdk выпустила для рейтрейсинга на своих видяшках. Амд-шники те на opencl всё нажимают… Вроде как рендеринг 3д — самая что ни на есть родная стихия для видях, конечно же понимаю разницу между растеризацией в играх и трассировкой в серьёзных программах рендеринга, но возможность общих вычислений на гпу и массовый паралеллизм должны быть крайне востребованы в вашем деле. Поэтому я удивлен, что поддержка гпу только в зачаточном состоянии.
Ну а на счет ксеонов — тогда понятно. Правда к ним нужны еще и материнки и бп и память… Всё это хозяйство поддерживать (когда много компов посоянно что-то глючит или не так работает). Ну, вопрос экономии на электричестве у вас, видимо, не актуален, в силу не постоянной загрузки и большого выхлопа в деньгах за потраченный машино-час.
Ну, здесь как сказать. Опять же, смотря в каких областях.
Если архитектура/продуктовые презентации (а это 99% всех фриланс заказов в РФ), то уже давно все перешли на гпу и счастливы.

А вот фотореалистичные персонажи, или что-то другое с киношным уровнем сложности и требований — тут пока тухло в плане гпу. Опять же, из претендентов на промышленный гпу-рендер — только Redshift, ему в основном только рассеиваний, стабильности, и некоторых мелких доработок для полного счастья не хватает.

Прикол в том, что если смотреть по фриланс-заказам на фоторил персонажей (когда берут фотку человека и рендер и сравнивают, после чего отправляют доделывать), либо сложных сцен, то это исчезающе малое количество заказов, их почти нет. Даже по миру их очень мало (работал пару лет через Upwork — там и выцепил сегодняшних работодателей). Нет смысла заказывать такие проекты фрилансерам, этим занимаются в основном в студиях.

Что до opencl — не знаю, везде только cuda. Я уже давно не рассматриваю амд карты как вообще хоть сколько-то пригодные для работы в графике, т.к. любые симуляции (вот здесь я не спец, имел дела мало) — это cuda. Если карта для работы с графикой (даже не для рендера) — то только nvidia, вообще без вариантов.

Ну а электричество — оно относительно халявное. Я пару лет назад переехал во Владивосток (жена хочет пожить некоторое время на малой родине, плюс ближе к работодателю по часовым поясам) — я просто присосался к промышленному цеху тестя и поставил там в подсобке стойку с серваками.

image
Очень интересные вещи рассказываете. Спасибо за расширение кругозора!
Ну а насчет ксеонов — достаточно посмотреть алиэкспресс: они там по 1200 новые.

Имхо сейчас китайцы прошарили, дёшево даже для LGA775/771 не купишь: либо всего 2 ядра, либо низкая частота. Иногда смешно, что четырёхядерник для LGA1366 дешевле аналогичного для LGA775.
В LGA1366 другая проблема — хрен найдёшь материнку, и они дорогие и плоховатые. Если есть материнка, тогда всё хорошо.
Ну это вам повезло — ваша задача параллелится на много ядер и процессоров. Не всем они помогут — кому-то приходится покупать i9. Хомячки тут не при чем.
Ну как сказать.
Моя рабочая машина — серверная мать, dual x5570, 48 гб ддр3 ецц, видеокарта — gt520, пара hdd (причем на матери есть только сата2, даже саты3 нет). Работать с тяжелой графикой комфортно.

Недавно был в командировке у заказчиков, пару дней посидел на последнем i9 с двумя nvme в рейде 0 и двумя нвидия титанами — разницы по скорости и комфорту работы с моим компом из древнего говна и палок не заметил. Вот вообще.
Да, ядер дофига, можно прогрессив рендер раза в три быстрее гонять, но на этом все. Остальное — по ощущениям так же.
Честно говоря, у меня язык не повернется сказать, что «рендера в три раза быстрее» недостаточно.
Мои рабочие инструменты, например, даже топовый i9 уже не реализуют. То есть у 7940 производительность в программе больше, чем у 7980XE. При этом у i7-8700 — меньше. Значит, для максимальной производительности все же нужно покупать i9, хотя за его цену и можно собрать ферму. Я же не спорю, что ее можно собрать. Просто не всем нужно.

Уважаемый, скажите пожалуйста как это хотя бы гуглить? Как можно сделать такую распределенную систему вычислений?

Да просто обычные серваки под линуксом, грузящиеся по pxe, монтирующие сетевые шары и запускающие проприетарный рендер-движок скриптом. Ничего экстраординарного, обычные веб-серваки и те устроены сложнее.


Так как на всех машинах процы одного поколения, то собран один образ генты, самый минимальный, чтобы меньше жрал памяти — около 30 мб оперативки, там только ssh, smb, nfs. Все ноды бездисковые, грузят образ с nas по pxe (tftp+nfsroot), после чего монтируют виндовые шары с моего рабочего компа (файлы проекта + папка для готовых изображений), получают задание скриптом, и считают.


Как-то так. Каждый нод независимый, это не распределенный рендер: арнольд не умеет считать распределенно, тк это неэффективно — он используется большей частью в голливуде для фильмов, а там каждый нод считает свой кадр. Поэтому у меня тоже в случае видео каждый нод считает по своему кадру, а в случае статики (например, большой плакат) изображение распиливается на куски скриптом, они считаются независимо как отдельные кадры, после чего склеиваются в финальную картинку либо скриптом, либо в нюке, если нужна постобработка/композ.


Та картинка, что я привел, состояла из 25 кусков.

А какая мать используется в этих машинах?

Где какая. Что было с рук доступно за разумные деньги, то и стоит.


Asus p6t se
Gigabyte ga-ex58-ud5, ud3
Dell xps 9xxx motherboard
Безымянные китайцы двухсокетовые
Tyan что-то там
Aglaia что-то там двухсокетовая


Что вспомнил-написал, я с телефона сейчас.

Был уверен, что такое распараллеливание крайне неэффективно для реалистичного рендеринга, ведь для каждого фрагмента всё равно сцена чуть ли не целиком должна обсчитываться, чтобы учесть тени, рефлексы и т.д.
Поделитесь, пожалуйста, опытом: насколько 10 машин считают быстрее чем одна?
Практически линейно — оверхед на построение сцены заново для каждого куска не больше 1% в арнольде, движок пишет всю статистику в логи. Единственное что — при каждом построении сцены геометрия и текстуры читаются по сети, гигабит забивается только так.

А вот если бы это был распределенный рендер, приросты были бы сильно меньше — синхронизация нод и прочий оверхед. До арнольда использовал mentay ray (с vray дела не имел, не знаю как там) — там был именно распределенный (все ноды совместно считают один кадр) и я в итоге пришел к той же схеме — раздельной. Распределенка сжирает до половины производительности.

А, забыл добавить. А тени, отражения, и прочее — там брутфорс рейтрейсер (path tracer, если точнее — есть различия), так что сцена всегда строится целиком — даже если считаем небольшой кусок. Принцип работы просто такой — нужна вся сцена.
И построение не больше 1% занимает, фигня.
А может всё это в статейку оформите?
Думаю это будет интересно, не только десятку заметивших интересное в каментах.
Я уже столько раз это обещал по разным темам, что и не упомню. Как видите, не до этого.))) Когда-нибудь, возможно.
Ну хоть картинок напости :D
сделайте статью на пикабу, с картинками и фотографиями обзором небольшим, я так понимаю что по всем вашим комментариям (ответы на вопросы) на статью и наберется.
В общем, прогресс по процам реально встал и меня это радует.

Пытаюсь придумать какой-то необидный ответ, и не получается. Вы же взрослый человек, в арифметику умеете? Понимаете, что если бы прогресс в развитии ЦП шёл быстрее, ваша ферма, собранная по цене той же грязи, считала ваш кадр не за 2 часа, а за 30 минут, например?

Это-то да, не спорю. Но в данном случае имеем, что имеем, и поэтому соотношение цена/мощность для старых процов сейчас очень вкусное. Я брал x5570 по 500 рублей с рук, хотя они всего на 30% медленнее потребительских скайлейков — разница компенсируется разгоном.

Проблема не столько в быстром прогрессе, как таковом, сколько в его мелкоступенчатости. Особенно если на каждом маленьком шажке добавляют несовместимости.

Утрируя, покупать каждый год новенький дорогущий топ-комп, и выкидывать его через год — врагу не пожелаешь. Вот если бы они раз лет в 5 весь накопленный прогресс выпускали, и потом его совместимость поддерживали…
Ого, вот это уровень! Крутотень.
Любопытство жадно требует подробностей.
Присоеденюсь, Класс!
На вашей фермочке бы лица на порнуху накладывать под заказ… ;-)
Ультрапередовой хайтек и спецы с глубочайшими знаниями в технологиях, обслуживающие вкусы онанистов, вот оно человечество будущего, вот она космическая эра, хах!
НЛО прилетело и опубликовало эту надпись здесь
К сожалению, да. Недавнее произведение Пелевина «iPhuck» указывает на этот тренд. Половые отношения сместятся в виртуальность, а рискнуших «по старинке» будут презрительно называть свинюками. Правда, подаётся это как результат эпидемий вирусов, но после «обители зла» уже никакой сценарий не выглядит фантастическим.
А напишите статью про это, крайне интересно!
Пока хомячки бегут за последними i7 в магазины, я могу на ту же сумму накупить древнейших i7 и получить в несколько раз большую производительность (распределенную).
А если бы прогресс не встал, Вы бы могли то же самое купить за 100$. Как минимум, на электричестве Вы сэкономили бы в разы больше. Но не забывайте, что кроме Вас есть ещё и много других людей, которые аналогичную мощность вынуждены покупать по ценам в 100 раз больше (даже покупая б/у). И мощность эта ограничена.

И кстати, если бы процы сейчас были в 100 раз мощнее, то те старые процы Вы бы могли купить ещё в 100 раз дешевле. Ну либо за такую же цену купили бы более новые процы и получили бы в 100 раз больше мощности и рендерили бы кадр не целую ночь, а 6 минут.
Ну и вообще, без разницы, какая была бы мощность новых процессоров — у Вас никто никогда не отнимет ту мощность, которую Вы уже купили. Т. е. Вы никогда ничего не потеряете.

Зато когда Вам понадобится покупать новый процессор, Вы можете вместо 10000 $ потратить 100$. Мало кто откажется от такого. Я бы даже сказал так: большинство просто не смогут позволить себе потратить 10000 $ на процессор.
Дело скорее не в абсолютной мощности, а в относительной, на данном этапе, moooV имеет, вполне конкурентную ферму при небольших вложениях и незначительном увеличении сложности системы. В случае процессорной «гонки вооружений» ему пришлось бы постоянно «не отставать», что, очевидно, более затратно и утомительно.
Думаю, чтобы отрендерить лицо, нужна больше всё-таки абсолютная мощность. Разница мб только в том, что кто-то может отрендерить лицо лучше (хотя куда уж лучше). Ну так может и не зря тогда будет есть свой хлеб.
Господа! Я, таки дико извиняюсь, но… как лично мне кааацца дело тут не в вычислительной мощности, а в громоздкости и не оптимальности самих программ… Приведу простой пример из времен моей молодости — в те стародавние времена 286 процессор считался практически верхом совершенства)))) Так вот были и другие процессоры… например скопированный с PDP11 1801ВМ1. И построенный на его базе компьютер БК-0010-01. И было в этом компьютере аж целых 32 кБ ОЗУ! 32 килобайта!!! Причем 16 из них непосредственно само ОЗУ, а 16 экранная область, ну говоря современным языком интегрированная видеокарта))) Так вот… Для этого компьютера была написана программа синтезатор речи с неограниченным словарем. И занимала она аж целых 7.5 кБ ОЗУ! Страшное дело! Спустя какое-то время я столкнулся с аналогичной программой для 286 процессора, но она занимала уже 32 кБ! То есть то, что наши программисты смогли уместить в 7.5 кБ, другие программисты уместили в 32 кБ… Ну и собственно говоря «Внимание! Правильный вопрос!» — А не зависит ли скорость обработки информации в первую очередь от алгоритма и способа его реализации??? И только потом уже от мощности процессора? Сдается мне, что таки да…
А я думаю, что:

  1. У рендеров есть конкуренция, поэтому оверхэды на неоптимальности у них вряд ли велики.
  2. Говорить о том, что может хватить 32 КБ глупо, т. к. сейчас только содержимое экрана занимает 32 МБ (в разрешении 4К), и уменьшить эту память невозможно технически. Та программа, которая использовала 7 КБ, не сможет добиться таких же результатов, как современные программы.
  3. В случае с рендерингом, наверняка есть минимальный порог вычислительной мощности, который потребуется для рендеринга изображения. Если у тебя нет этой мощности, тебе придётся отказаться от рендеринга или рендерить в более низком качестве.
  4. Ну и нужно понимать, что в целом есть определённый экономический баланс: до какого-то момента выгоднее оплачивать труд программиста, а с какого-то труд производителя железа.

Конечно же это не значит, что ресурсы используются всегда оптимально. Например, JS достаточно оптимален, но DOM и рендеры браузеров — нет. Но опять же: нужно понимать, что даже тут хоть они и не оптимальны, зато позволяют намного удобнее вести разработку, что способствует технологическому прогрессу. Также без них некоторых хороших вещей бы вообще не было, т. к. они бы экономически не окупились. Либо были, но обладали значительно более низким качеством.

Программы, которые Вы устанавливаете на компьютер — не бесплатны. Даже если они поставляются бесплатно, Вы платите вычислительными ресурсами, стоимость которых добавляется к базовой стоимости программы. И Вы сами решаете, готовы ли Вы заплатить за программу определённую сумму или выберете другую программу.

Если Вы считаете, что программа по вычислительным ресурсам дорога, то Вы можете купить другую программу с более высокой базовой стоимостью, но с более низкой ресурсной стоимостью. А если от этого стоимость только увеличилась, или пострадал функционал, то можно сделать для себя вывод.

Вы говорите, что много лет назад хватало 32 КБ. Ну тогда в чём проблема пользоваться именно теми же самыми программами? Или они всё-таки уже не те же самые?
Говорить о том, что может хватить 32 КБ глупо,

Цитату в студию! Где я говорил что 32кБ хватит? Я говорил что
И было в этом компьютере аж целых 32 кБ ОЗУ!
Это таки раз.
И говорил о том, что скорость работы программы на 90% зависит от алгоритма и его реализации. Тогда каждый байт экономили и старались по максимуму оптимизировать программы. Сейчас же большинство программ написано либо с бодуна левой ногой, либо задницей по клаве. Причем некоторые проги делают то, что они вообще делать не должны ни при каких условиях. Это я про выдачу паролей, «уязвимости», и прочую лабуду. Поясню на простом примере — нормально сделанный молок никогда не будет пилой! А «уязвимости» программ говорят только о криворукости прогеров их создавших.
  1. Алгоритм уже итак может быть выбран самый лучший.
  2. Рендеры тоже стараются по максимуму оптимизировать. А даже если бы это было не так, от высокоуровневости мы бы потеряли максимум несколько раз. А вот от от прекращения роста мощностей железа мы можем потерять и 100, и 1000 и сколько угодно раз.

НЛО прилетело и опубликовало эту надпись здесь
И программы стоили как крыло от боинга.
Ссылку в студию!
Написал достаточно, как для себя)) А «ошибки» и «уязвимости» это как говорят в Одессе две большие разницы.
В моих прогах были ошибки, но! была и отладка, в результате которой эти ошибки устранялись.
Для этого компьютера была написана программа синтезатор речи с неограниченным словарем. И занимала она аж целых 7.5 кБ ОЗУ! Страшное дело!

дело действительно страшное, видел я те синтезаторы, и на БК, и на 286, и на speccy — страх и ненависть, речь там различить можно при довольно хорошей фантазии, примерно как в звуках, издаваемых кошками и собаками
Я немного не понял — это разве не фотка? Что там обсчитывается часами на таком монстре-то?
Не фотка, вот скрин из софта (полный размер, fullhd — если правой кнопкой и «открыть изображение»).
А обсчитывается в основном рассеивание и прочие плюшки.

НЛО прилетело и опубликовало эту надпись здесь
Истина она… везде. На работе до последнего времени жил P166MMX — ради шины ISA, разыскали в хламе на даче P3 -600- сменили.
Рядом трудится комп с двумя 12-ти ядерными процами.
И вот… есть задачка — там надо шустренько вычислить 200+ штук эллиптических интегралов. (И делать это постоянно в процессе отладки). Maple задумывается на полминуты. На i5. Нервирует однако.
А вы пробовали запускать системы проактивного обнаружения отказов в инфраструктуре? Собирать все логи на центральный сервер, тренировать нейронную сеть на сбоях и спокойной работы для обнаружения аномалий?

Но смысл что-то менять, если сервер 2005 года всё ещё тянет свои задачи?
По количеству минусов я понял, что главную мысль я так и не донес.
Спрос рождает предложение.
То, что необходимы еще более быстрые процессоры я не опровергал.
Но, например факт того, что никто не перешел на 400 мм кремниевые пластины и то, что стоимость новых фабрик растет в геометрической прогрессии говорит о многом.
Справедливости ради, доподлинно не известно: действительно ли эта фраза про 640 кБ принадлежала Гейтсу.

Это пока какой-нибудь очередной новомодный фреймворк JavaScript не выйдет, позволяющий вставлять котиков и видео в веб-страницы посредством нечёткой логики и зависимых типов.

Пашу на японцев, делаю им для рекламы

Ммм это фото или рендер с ноля (имею в виду цифровая модель)?
Это рендер.
Но зачем? Я ещё понимаю, отрендерить какую-нибудь пандорианку, но это? Неужели не проще/дешевле найти подходящую модель и сфотографировать её?

Очень много применений, но в моем случае жто японская специфика.
Обычно в фильмах это делают чтобы в случае факапов можно было не переснимать сцену, а просто перерендерить актера. Либо для невозможных шотов со спецэфыектами и всяким бешеным, что идкт в кинотеатрах. Или актер уже давно умер, а он нужен молодым (звёздные войны 7, бегущий 2049), итд. Примеров масса.


А у японцев своя атмосфера. Их айдолы — почти небожители и дергать звезду ради съемок в рекламе как-то неприлично. Поэтому им проще заказать модельку (и оплатить команду 3дшников), чтобы потом с ней делать рекламу, плакаты, итд.

Интересно, спасибо. Да уж, правильно говорят, что в каждой избушке свои погремушки.
Это уже вовсю наступило будущее как в фильме «Симона», где режиссёр радовался, что виртуальные актрисы не капризничают, играют в точности как задумал режиссёр, безумных гонораров не требуют…
Закон мура вполне себе живет, если посмотреть на серверные процы интел.
То что интел не хочет их отдавать простым смертным по адекватной цене, уже совсем другая история.

Аргументацию про котиков вообще не понимаю, котики и няшечки тапают на планшетиках и телефончиках, ибо мобильно, модно, молодёжно.
Интересно, если Intel осознала недостатки архитектуры VLIW и перестала выпускать Itanium, то перестанет ли МЦСТ выпускать Эльбрусы?
МЦСТ не перестанет. Все исходные данные другие.
Альтернатива итаниуму была, эльбрусу — нет.
Закупки и производство эльбруса распланировано на много лет вперед.

Можете, пожалуйста, подробнее про исходные данные? Для меня как рядового пользователя процессора что там vliw, что там vliw… Хотелось бы более аргументировано отстаивать Эльбрусы в спорах.

Не очень понятен вопрос, уточните, если ответ не тот.
1. Эльбрус это гос.заказ для обеспечения безопасности. Что означает, вне зависимости от отставания от мировых аналогов на критичные по ИБ точки армии, фсб, мвд и тд будут ставить именно сервера на базе эльбрусов.

2. Практически не рекламируется особая функция компов на базе эльбрусов — двоичный транслятор. Вещь настолько крутая, что минимум по одному Эльбрусу должно быть в каждой компании разрабатывающей серьёзный софт.

3. Это бонус из-за наличия п.2. Совместимость с ПО x86(IA32) которого огромное кол-во. Причем причем эмуляция аппаратная, не видиммая для софта.
Насколько я знаю серийного аналога просто нет, максимум это использование софтовой виртуальной машины.
Какбы понятно, почему нет и почему не рекламируют:
geektimes.com/post/290037
Эльбрус III (основа современных Эльбрусов) проектировался в 80х годах, задолго до Merced (как Itanium называли в конце 90х).
Да, он сложный и медленный, но он работает и компилятор более-менее нормальный есть.
Во VLIW нет ничего плохого, если он используется на своём месте. Просто заточка под определённую микроархитектуру мешает её усовершенствованию и расширению.
Читал на одном дыхании, не отрываясь. Вспомнились старые деньки в университете. Интересно, почему не была упомянута ARM архитектура? Я понимаю, что ARM — производная RISC, но все же заслуживает отдельного внимания, особенно в свете большой распространенности.
Отдельное спасибо за «Розенкранц и Гильденстерн». Обожаю эту пьесу.
У разработчиков был всего год, чтобы выпустить чип, поэтому им выделили всего три недели на разработку ISA.

Всего три недели на разработку архитектуры! )
НЛО прилетело и опубликовало эту надпись здесь
В том-то и дело.
Мне кажется, если добавить к процессорам графические ускорители, то график выпрямится.
Ускорители всё же не очень честно — они не являются процессорами общего назначения (те самые DSA).
Но зато можно туда пририсовать например Intel Xeon Phi и рост ещё немного продолжится.
Тот самый случай, когда каменты круче статьи :)
Очень интересная статья. Странно (может я проглядел), что кроме использования DSA и специализированных Google TPU в качестве решения не упоминается использование логики ПЛИС на одном кристалле с процессорными ядрами, как сделано у Intel-Altera Stratix или Xilinx Zynq (ссылка на stratix: www.altera.com/products/fpga/stratix-series/stratix-10/overview.html, ссылка на zynq: www.xilinx.com/products/silicon-devices/soc/zynq-7000.html). В результате можно избавиться от статической специализации, которая присуща DSA, за счет реконфигурируемости под данную задачу и даже динамической реконфигурации на лету.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории