Когда дефицита GPU ещё не было

Автор оригинала: Andrew Egan
  • Перевод


Большую часть времени GPU были не важны


Как, наверно, понимает большинство людей, компьютеры считают числа. Обычно «интуитивным» способом работы с компьютерами является взаимодействие с какой-нибудь графикой. Или, что более важно, с более красивым отображением чисел.


Реклама Tektronix Interactive Graphics, предполагаемого предшественника технологий GPU. Но так ли это на самом деле?

Пока Windows и Apple приучали публику к своим заточенным под мышь интерфейсам, хардкорным пользователям компьютеров, то есть геймерам, нужно было, чтобы действия мыши регистрировались намного быстрее. А ещё они хотели, чтобы графика была более реалистичной. Затем они стали просить такие функции, как онлайн-мультиплеер, мгновенный обмен сообщениями и множество других возможностей, которые сегодня воспринимаются как должное, но в первой половине 90-х казались чем-то значительным.

Можно было бы заявить, что технически сложному геймплею мы обязаны классическому Doom 1993 года, а также его потомку Quake, вызвавшему интерес пользователей к специализированным графическим картам. Однако пообщавшись со специалистом, наблюдавшим за развитием этой отрасли с самого начала, можно прийти к выводу, что история GPU не была такой уж простой.

Доктор Джон Педди впервые занялся компьютерной графикой в 1960-х. Он находился в составе команды, создававшей топографические 3D-карты по снимкам аэрофотографии, что в дальнейшем привело к созданию его собственной компании Data Graphics. К началу 1980-х он задумался об уходе на пенсию и карьере писателя научной фантастики, но заметил в этой отрасли бум, который сложно было игнорировать. Практическое применение высокопроизводительной графики изначально развивали компании, занимавшиеся CAD и GIS, однако взрывной рост популярности видеоигр в 80-х изменил эту ситуацию.

«Игры были (и остаются) локомотивом отрасли благодаря количеству потребителей», — сообщил мне Педди в электронном письме. «Среди пользователей 3D и GPU были инженерные компании (CAD и молекулярное моделирование), а также киноиндустрия. Но в 80-х и 90-х на этом рынке было примерно 100 тысяч покупателей. А рынок потребительского 3D исчислялся миллионами пользователей. Однако рынок профессионалов платил больше — тысячи или десятки тысяч долларов, в то время как потребители платили всего несколько сотен. То есть задача заключалась в том, чтобы встроить достаточную мощь в чип, который в готовом продукте продавался бы за сотни долларов».

На этом этапе истории компьютеров в техническом лексиконе появилась аббревиатура GPU. В статье в журнале Computerworld за 1983 год подробно описывается линейка графических терминалов Tektronix. Но если приглядеться, GPU пока расшифровывается не как «graphic processing unit», а как «graphic processor unit». Есть ли какая-то разница? На самом деле, GPU не существовало до 1997 года, пусть даже и использовалась похожая аббревиатура. Оказывается, для настоящего GPU обязателен движок трансформации и освещения (transform and lighting, T&L).

«Почему термином GPU нельзя называть графический чип или плату, разработанную до 1997 года? Он отрисовывает графику (хоть и только в 2D-пространстве). Обрабатывает ли он графику? Да, в каком-то смысле. Он отрисовывает отрезки и окружности — это и есть обработка (processing). Важное отличие заключается в том, что GPU должен быть способен на истинное 3D (а для этого требуется T&L)».


Графический 3D-чип Glint компании 3Dlabs, по мнению некоторых, первой создавшей истинный GPU. Он был выпущен в ноябре 1994 года и активно применялся в "мощных 3D-приложениях CAD" (по-прежнему не первый «настоящий» GPU, но всё равно интересный графический чип). Несмотря на то, что 3Dlabs первой появилась на рынке, она не смогла воспользоваться экономическими масштабами, доступными для её конкурентов, например, Nvidia.

Право первопроходца забирают себе победители


Давайте для начала разберём распространённую ошибку. Оборудование первой PlayStation не было первым GPU на массовом рынке. Такое мнение возникло благодаря мощному маркетингу Sony и Toshiba. Как говорит Педди, «У первой PlayStation был движок трансформации геометрии (geometry transformation engine, GTE), являвшийся сопроцессором 2D-чипа, и ошибочно названый (маркетологами) GPU».

Маркетинг был важным элементом той эпохи, то есть незадолго до того, как GPU впервые начали появляться. Создание истинного GPU для 3D было далёким горизонтом, и многие компании хотели добраться до него первыми. Однако эту честь первой получила небольшая контора из Великобритании под названием 3Dlabs. Инновацией, давшей продукту 3Dlabs титул первого настоящего GPU, стала разработка графического процессора из двух чипов, содержавшего обработчик геометрии, называемый движком трансформации и освещения (T&L). В отличие от своих конкурентов, 3Dlabs делала упор на рынок CAD, хоть и пыталась вторгнуться на крупный потребительский рынок, заключив партнёрское соглашение с Creative Labs.


Технологическое демо с показом возможностей чипсета 3Dlabs Glint.

Малый размер 3Dlabs и её специализация на профессиональном рынке означали, что на рынке потребительских GPU появится множество «первопроходцев».

Сектор графических карт в тот период был невероятно активен, за благосклонность игроков в Quake сражались такие крупные компании, как Matrox, S3 и 3Dfx.

Но историю пишут победители, и в этот период возник лидер рынка. К концу 1999 года Nvidia была готова выпустить свой первый массовый потребительский GPU с интегрированным T&L, называвшийся GeForce 256.

«Так, по мифологии Nvidia, появился GPU, и компания утверждает, что именно она изобрела его», — говорит Педди. «То есть историю можно перекраивать, как тебе угодно. Nvidia стоит 10 миллиардов долларов и на пути к 50 миллиардам, а о 3Dlabs никто не помнит».

Примечание: название Nvidia всегда было и является существительным, а не сокращением, несмотря на распространённое заблуждение.

Довольно скоро рынок заполнился конкурирующими GPU, каждый из которых стремился занять собственную рыночную нишу. Канадский производитель ATI Technologies, которого позже приобрёл крупнейший конкурент Nvidia — компания AMD, попытался обособить свою продукцию на рынке, назвав свои GPU аббревиатурой VPU (video processor unit), хотя на практике они ничем не различались. Но это название не прижилось.

«ATI сдалась, она не могла противостоять превосходящим маркетинговым навыкам, масштабам, привлекательности и безжалостному напору Nvidia», — рассказывает Педди.

К началу 2000-х на потребительском рынке начали доминировать крупные игроки наподобие Nvidia, быстро ставшие злодеями в глазах геймеров всего мира. Любопытно, что именно эта консолидация рынка позволяет объяснить, почему сегодня так трудно найти и купить мощные графические карты.


Узрите! Один из самых желанных продуктов в мире. И это ведь даже не самая мощная карта в линейке.

Так кого же винить в этом дефиците GPU?


Если вы так далеко углубились в статью об истории и названиях GPU, то вам наверняка интересно, когда я доберусь до Великого дефицита GPU 2020 года (который, вероятно, будет длиться и дальше).

Вкратце для тех, кто не понимает, о чём я говорю: за последние месяцы цена мощных GPU взлетела до небес и их даже невозможно найти в продаже.

Например, у Nvidia есть три модели графических карт, которые обычно стремятся приобрести геймеры:

  • RTX 3090: рекомендуемая производителем розничная цена — 1499 долларов
  • RTX 3080: рекомендуемая цена — 699 долларов
  • RTX 3070: рекомендуемая цена — 499 долларов

Можно спорить о соотношении цены и производительности этих моделей. Однако дефицит вызвал рост стоимости этих GPU на рынке перепродажи. На данный момент цена средней по мощности из трёх карт RTX 3080 равна 1499 долларов, в то время как 3090 и 3070 практически невозможно найти. Один из лотов 3090 продаётся на eBay за более чем 3000 долларов.

Здесь также стоит упомянуть линейку графических карт AMD. Несмотря на не столь высокий спрос, поскольку традиционно они были не такими мощными, на карты AMD тоже повлияли ограничения цепочки поставок производства GPU. Как и в случае с линейкой Nvidia, модели AMD RX 6700, 6800 и 6900 тоже выросли в цене на вторичном рынке в два с лишним раза.

Немного забавного контекста — в моём старом Xeon установлена refurbished-версия AMD RX 570, за которую я в середине 2019 года заплатил чуть больше 100 долларов. Та же самая карта, которая, по сути, является бюджетной моделью и уже слегка устарела на момент моей покупки, сейчас продаётся за 599 долларов.

Очевидно, что существует огромный спрос, и капитализм обычно неплохо справляется с устранением таких пробелов. Как и за многие другие проблемы 2020 года, большую часть вины можно возложить на COVID-19. Производственные хабы в Китае и Тайване, как и почти весь остальной мир, были вынужденно закрыты. Хотя многие операции в производстве оборудования можно автоматизировать, тонкая природа GPU требует определённой степени вмешательства человека.


График, описывающий текущее состояние отрасли GPU. (Автор — Джон Педди)

Тем не менее, такое объяснение слишком упрощает тенденции процессов, начавшихся в отрасли графических карт ещё задолго до COVID-19. Послушаем доктора Педди:

Примерно пятнадцать лет назад сложился конвейер производства GPU: разрезание кремниевых пластин, тестирование, упаковка в корпуса, повторное тестирование и доставка заказчику. Все компании в этом конвейере, а также ниже по потоку (OEM-клиенты, имевшие похожий конвейер), искали способы более быстрого реагирования и в то же время минимизации своих материально-технических ресурсов. Так была разработана модель производства JIT (just in time, «точно в срок»). Она предполагала, что все в цепочке поставок дают точные прогнозы, а значит, и делают точные заказы. Если сломается одно звено цепи, то пострадают и все последующие… Когда правительства объявили карантин в своих странах, всё производство остановилось, перестали поставляться детали, конвейер был сломан. И когда (если) производство восстановится, то для полной синхронизации потребуется ещё несколько месяцев.

В то же время людей отправили работать из дома, а у них не оказалось необходимых для этого инструментов. Так возник спрос на PC, и в особенности на ноутбуки. В 30-40% PC установлено два GPU, то есть спрос на GPU увеличился ещё сильнее.

А затем начался рост стоимости криптовалют… Теперь майнеры (люди, использующие GPU для зарабатывания крипто) стремились скупить каждый доступный им GPU. Это вызвало спекуляции — люди покупали все графические карты и продавали их по как можно более высокой цене.

То есть по цепочке поставок ударил спрос, а предложение не увеличивалось.

И такова краткая история. Изготавливающие GPU компании работали с очень малым допуском на погрешность, не имея возможности предсказывать будущее. Это относится и к рынку GPU в целом, но частично касается крупных заказчиков.

Ещё одним фактором разочарования стало время появления в 2020 году нового поколения видеоигровых консолей, а значит, и нового поколения видеоигр. Долгожданная PlayStation 5 вместе с Cyberpunk 2077 встретились в момент выпуска со множеством технических проблем и проблем с поставками. Игроки в Cyberpunk жаловались на то, что производительность игры сильно зависела от оборудования, на котором она была запущена. О различиях игрового процесса на PS4 и на PS5 один ютубер сказал так: «По крайней мере, на PS5 она играбельна».

Хотя доктор Педди ожидает, что проблема дефицита разрешится к первому кварталу 2022 года (ура…), он не особо оптимистичен относительно того, будет ли отрасль избегать подобных накладок в будущем.

«Ещё одной проблемой будет происходящее сейчас удвоение заказов, которое в перспективе приведёт к огромному падению спроса на рынке полупроводников из-за избыточного предложения», — заключает он.

Многому научиться можно даже у относительно новой истории. Хотя можно обвинить в неудовлетворении спроса ошибки рынка, очевидно, в целом ситуация намного сложнее. Несмотря на то, что GPU внезапно стали необходимы миллиардам людей для повседневной работы, высокопроизводительные устройства нужны только малой их доле, обладающей нишевыми интересами.

Тем не менее, рынок в целом должен уделить внимание разочарованным геймерам. Именно их потребности толкают отрасль к инновациям, которые становятся стандартом в более широко распространённых устройствах. С каждой итерацией устройства получают всё больше расширенных графических возможностей, которые постепенно достигают людей, не знавших о них, а теперь считающих их обязательными.

В конце концов, сегодня устройство, не обладающее реалистичной 3D-графикой, и телефоном-то мало кто назовёт.



На правах рекламы


VDSina предлагает эпичные серверы — это виртуальные серверы с новейшими CPU AMD EPYC. Огромный выбор операционных систем для автоматической установки, есть возможность установить любую ОС с собственного образа. Обязательно попробуйте!

VDSina.ru
Серверы в Москве и Амстердаме

Комментарии 28

    +3
    Т.е. S3 ViRGE вышедший в 1995 году и поддерживавший OpenGL/DirectX не является GPU в вашем понимании?
      +4
      Не является, и не только в понимании автора. «Граница» между GPU и 3D-акселераторами лежит в наличии блока трансформации и освещения. Если девайс умеет сам геометрию считать, то это GPU. Если просчёт сцены делает центральный процессор, а видяха — только функции вроде фильтрации, текстурирования и отсечения невидимых граней, то это акселератор.
        +2
        А можно ссылку?
        В WIKI информации про T&L нету:
        A graphics processing unit (GPU) is a specialized electronic circuit designed to rapidly manipulate and alter memory to accelerate the creation of images in a frame buffer intended for output to a display device.
        Я почему-то считал что 3D accelerator и GPU почти синонимы. Т.е. GPU это общее для любого 3D или 2D accelerator
        +1
        там огл в виде mcd и безумно медленный — читай его там нет.
        +2
        > Хотя доктор Педди ожидает, что проблема дефицита разрешится к первому кварталу 2022 года (ура…), он не особо оптимистичен относительно того, будет ли отрасль избегать подобных накладок в будущем.

        Я читал, что в эфире в апреле запланирован форк, после которого вознаграждение за блок упадет до 50 процентов. EIP-2565 кажется. Возможно спрос на дорогие графические карты для майнинга упадет. Причем наверное уже сейчас должны самые пугливые начать скидывать.
          +3
          Боюсь, что если вознаграждение упадет, майнеры просто будут пытаться нивелировать это падение обратно пропорциональным наращиванием мощностей, что опять же приведет к ещё большему дефициту. Либо цена эфира в фиате вырастет, либо майнеры переключатся на другие токены. Вариантов много. Одна неделя до хардфорка, будем посмотреть.
            +1

            Нельзя просто взять и увеличить мощности. Оттого вырастает сложность майнинга и если цена монеток не вырастет, майнинг станет неприбыльным.

              +1
              Пока насколько я понимаю оно выгодно даже если вы в два раза усложните майнинг.
                +1
                Если в 2 раза усложнить майнинг, то с текущими ценами на видеокарты будет не выгодным.
                  +3
                  А если при этом увеличить курс Эфира в 2 раза — то всё ещё выгодным :)
              +3
              майнеры просто будут пытаться нивелировать это падение обратно пропорциональным наращиванием мощностей
              Можно подумать, они сейчас не наращивают мощности только от того, что деньги некуда складывать)
                +4
                Вы абсолютно не понимаете, что такое майнинг. Майнинг не создаёт деньги. Он их распределяет. Если вы купили себе вторую видеокарту и теперь майните на двух вы получаете примерно в два раза больше, но не потому, что вторая карта создаёт монеты, а потому что вы "перетянули одеяло на себя" увеличив свою мощность. Сумма распределяемая между майнерами зависит от вознаграждения за блок, от суммы комиссий в блоке и от курса(если доход считается в фиатной валюте). При этом система корректирует сложность нахождения блока, что бы время между нахождением блоков было более-менее постоянно. Таким образом если все майнеры внезапно увеличат свои мощности в два раза они не получат в два раза больше прибыли, они получат только в два раза больше расходы на электричество, на помещение, на обслуживание карт и т.д.
                  0
                  Позволю поправить.
                  «если все майнеры внезапно увеличат свои мощности в два раза они не получат в два раза больше прибыли» — вообще-то получат. За счёт того, что блоки начнут генерироваться в 2 раза быстрее. Но только в течение периода пересчёта сложности. У Биткоина — 2016 блоков (примерно 2 недели), у Эфира — 2048, если мне память не изменяет. По истечение этого времени сложность будет перерасчитана с учётом возросшей мощности сети.

                    +1
                    Это технические детали. Если пересчитывать сложность при меньшем количестве блоков, сложность будет более волатильна.
                    Ну и если уже теорию(одномоментно увеличить производительность в два раза не реально) переносить в реальную жизнь, то больше блоков — меньше заполнение транзакциями, меньше комиссии. Ну и больше наград за блок — больше монет — цена падает(если продают конечно, а не держат).
                    +3
                    Начало вашего поста так похоже на известную копипасту, что
                    я не удержался
                    Ты СОВЕРШЕННО не понимаешь в чем суть майнинга. Майнинг это не геймдев «о, привет чуваки, зацените прикольную игрушку я написал, гыгы». Майнинг это не псевдоинтеллектуальные предсказания курсов на TradingView. Майнинг это не стейкинг, трейдинг или холдинг. Майнинг это занятие, где люди могут побыть капиталистами — ужасными, бесчувственными, безразличными чудовищами, которыми они на самом деле и являются.

                    Страны закрывают границы из-за пандемии, а мы майним. Полиция задерживает люднй на несанкционированных митингах, а мы майним.

                    Геймеры не могут обновить компьютеры чтобы пройти киберпанк, а мы майнми и покупаем видеокарты по оверпрайсу. Самоубийства, убийства, геноцид — мы майним. Расизм, сексизм, дискриминация, ксенофобия, изнасилования, беспричинная ненависть — мы майним. Путин травит Навального — мы майним. Мы бездушно будем майнить что угодно, наши предпочтения не основаны на здравом смысле, бесполезные шиткоины — наша стихия, мы — истинное лицо децентрализованного интернета.
                  0
                  «Берлинский» хардфорк и EIP-2565 снизят стоимость выполнения некоторых транзакций, но поскольку блок в Эфире как был, так и будет заполнен полностью (12,5 млн. газа), то на вознаграждение этот форк не повлияет практически никак.
                  Ждите «Лондонского» хардфорка с EIP-1559 в июле месяце. В нём комиссия за перевод будет просто сжигаться вместо передачи майнерам. Вот тогда теоретически доходы майнеров упадут примерно на треть. Теоретически — потому что если за это время курс Эфира вырастет на ту же треть (до ~2700 долларов), то в долларах доходность сохранится.
                    +1
                    Когда там PoS вместо PoW введут и для майнинга нужно будет иметь монеты, а не мощности?
                      0
                      ETH 2.0? Пока неизвестно. Ориентировочно — конец 2021-начало 2022. Но его вводят такими темпами уже года три :)
                        0

                        Вот бы все перешли на PoS, а то BTC/LTC/ETH/BCH/XMR довольно сильно бьют по экологии и энергетической безопасности (даже сильнее чем крупные аварии на АЭС).

                          +1
                          A как этот самый PoS вообще работает? С PoW всё просто — у какой цепочки сложность выше — та и главная. Проверить всё легко. Что бы поменять какую-то транзакцию которая была ранее нужно пересчитать всю цепочку, при этом её итоговая сложность должна быть выше сложности текущей цепочки. А это практически не реально учитывая какие мощности заняты в майнинге. А если для PoS мощностей не нужно, что защищает систему от трюка подмены цепочки? Как определяется какая цепочка главная?
                            0

                            При PoS транзакции сети контролируются валидаторами. Каждый валидатор должен положить на депозит 32 ETH. В случае нарушения правил сумма не возвращается

                              0
                              Для PoS мощностей не нужно, но нужны средства замороженные. Например, на пальцах это можно представить так: вы должны купить виртуальную видюху и платить за виртуальное электричество, система будет видеть сколько вы вложили и выдаст вам награду. Т.е. в принципе всё то же самое, но виртуально.

                              У простого PoS есть куча минусов, ведущих к централизации, так как кто первый встал, того и все тапки. Минусы пытаются исправить в более свежих алгоритмах, ограничивая стейки, добавляя случайность, прикручивая разные алгоритмические ограничения и.т.д.
                            0
                            PoS уже не модно, теперь в тренде DPoS (Delegated Proof of Stake) и желательно не простой, а дополненный PoA (Proof of Authority) и другими новшествами. Кому интересно где это уже работает, пишите в личку. Боюсь за эту рекламу забанят, как происходит везде.
                        +1
                        название Nvidia всегда было и является существительным, а не сокращением, несмотря на распространённое заблуждение.

                        При этом название пишется как NVIDIA, но каждый пишет как хочет — Nvidia, NVidia, nvidia, nVidia...

                        –1
                        T&L был анахронизмом времён dx7, с прихдом вертексных шэйдеров надобность в нём плностью отпала. Так что да, девайсы с software или DSP трансформацией вершин таки GPU. Не давайте ввести себя в заблуждение маркетологами microsoft и nvidia.

                        Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                        Самое читаемое