Comments 84
Чтобы предотвратить такой мрачный сценарий, уже через 10 лет производители будут вынуждены резко замедлить разработку новых технологических процессов и снизить финансирование, что ещё больше замедлит прогресс в универсальных CPU, считают исследователи.
Имхо, всё не так мрачно, свет клином не сошёлся на CPU, уже давно народ серьезно развивает GPU и FPGA. Гляньте на современные SoC, которые ставят в те же телефоны и прочее, сколько там всего на одном кристалле. Гляньте на системы с HBM. Я к тому, что и без прогресса в CPU можно поставлять увеличенную производительность смартфонов и компов, а как следствие их и дальше будут разметать как горячие пирожки и финансировать новый цикл технологических инноваций.
По мнению учёных Нейла Томпсона (MIT) и Свеньи Спануты (ETH Zurich), сейчас подобное происходит с универсальными компьютерами, см. статью «The Decline of Computers as a General Purpose Technology» (Communications of the ACM, March 2021, Vol. 64 No. 3, Pages 64-72, doi: 10.1145/3430936).
К слову, статья классная, но она не 2021, а 2018 года, с тех пор многое уже изменилось.
А всем остальным-то минус.
Вот с этим я и не согласен. Во-первых, специализированный ускоритель может быть обычным IP-ядрышком на кристалле с CPU (т.е. не будет стоить 80млн в разработке, а будет стоить 50К за лицензию разработчику процессора). Во-вторых, у нас тут уже времена тёмного кремния, так что такие ядрышки — это то, что доктор прописал, а большие процессорные ядра на их месте всё равно пришлось бы гасить и извращаться с энергопотреблением. В-третьих, ядрышки могут быть не фиксированными, а представлять собой логику ПЛИС (заметили, что два крупнейших процессорных вендора Intel и AMD купили двух крупнейших производителей FPGA?), в этом случае будет иметься возможность программировать в широких пределах ускорители под ваши редкие, кастомные задачи узкого профиля. В-четвёртых, у нас тут новые варианты оперативной памяти уже давно есть (HBM) с пропускной способностью в сотни гигабайт/с, которые процессоры внезапно никак не используют. В-пятых, про финансирование цикла инноваций, ажиотаж по видеокартам заметили? Это я к тому, что финансирование подтягивается, откуда не ждали.
Резюмируя, по-моему страхи надуманные, системы, в которых CPU обеспечивал всю производительность, уходят в прошлое, но их есть чем заменить, так что туда им и дорога, это развитие.
Тоже самое и по Архитектуре процессоров — пора Выходить за рамки и Переходить к чему-то похожему на Экзоядра(как основа взаимодействия) + IP блоки на базе ПЛИС
про HBM/HMC память — в текущей архитектуре её даже не внедрить, тк Архитектура сильно ограничена и абсолютно не рассчитана на работу с такой памятью.
Там время на реконфигурацию будет больше, чем квант времени, выделяемый отдельному потоку.
Да, динамическая реконфигурация пока больная тема, хотя Xilinx роет в этом направлении (в том же Versal-e обещали гораздо живее всё). Но эти вещи можно делать ведь и в статике или в медленной динамике, т.е. продается унифицированное железо (SoC CPU+FPGA), а пользователь во время установки ОС или установки дровишек уже кастомизирует под свои цели, выбирает какие ядрышки поставить, какие убрать и т.д. + имеет возможность написать свои ядрышки и кастомизировать уж совсем под себя.
Вот не уверен что ПЛИС что-то даст на десктопе, где куча разных задач. Там время на реконфигурацию будет больше, чем квант времени, выделяемый отдельному потоку.
тут скорее будет как ускорители для задачи — при загрузке OS или приложения Генерируется набор ускорителей которые ему нужны… те по сути совмещение ядра общего назначения и ПЛИС которая разошьет узкие места о полной реконфигурации речи еще долго не будеn…
А так сильно ли они нужны? ИМХО, чаще упор идёт в задержки, и они относительно производительности ЦПУ только растут.
Если не ограничиваться CPU, то нужны очень. В CPU есть бутылочное горлышко кэша-оперативы, это его существенное ограничение. Для CPU в нынешней форме HBM и правда не пришей кобыле хвост. Но прочие молотилки, типа GPU, ПЛИС и др., не ограничены кэшем, и возможность поставки данных со скоростями сотни гигабайт в секунду позволяет накормить их вычислительные аппетиты. В результате, для распараллеливаемых задач производительность будет гораздо лучше чем у CPU, ещё и кушать будет меньше электричества. Представьте, что у вас на кристалле есть десятки, если не сотни портов оперативной памяти, у каждого из которых может быть свой мелкий кэш, и тысячи вычислителей, которые взаимодействуют с этими портами.
Кроме того VR — довольно узкая ниша, которой самой бы неплохо взбодриться, иначе она уедет к 3D телевизорам и блюреям.
Окулус вполне так взбодрил эту нишу, теперь нужен прорыв из этой ниши в AR, ибо беда VR в долгом переключении из VR в реальность и обратно — найти достаточно места, надеть, настроить шлем, потыкаться по меню, запуская игру...
Сама VR реальность уже вполне на уровне лучших игр из мира ПК
Давно не цена проблема в VR.
а за 2000 долларов вы получаете нормальную готовую к игре VR консоль, в которой не тошнит 95%
Поэтому когда достаточно качественного уровня ВР будет стоить хотя бы 1000, а лучше 800$ — тогда и поговорим. Вполне возможно что это произойдет совсем скоро, но для массового перехода, нужно именно снижение цены еще раза в два-три.
Автономные игры работают на нём прекрасно, ни о какой тошниловке речь не может идти.
И за 10 баксов он превращается в полноценный PC шлем.
Собственно поэтому он и взорвал VR рынок.
Но речь была о доступности.
Останавливает в основном цена
Я например легко могу себе позволить понакупать говношлемов на всю семью. Но не хочу покупать говношлемы.
А купить несколько Valve Pro — пока что кажется неразумной тратой денег.
А вот если бы они стоили по 300-400, то это не только было бы дешевле, но еще и их могло бы купить гораздо больше людей. А больше людей — больше рынок софта, и по кругу.
Подключаемые к компьютеру гарнитуры VR-3 и XR-3 от Varjo способны формировать очень чёткую картинку. В гарнитурах используется по два дисплея для каждого глаза. Разработчики разместили небольшой дисплей с разрешением 1920 × 1080 пикселей в центре поля зрения, а также дополнительный более крупный дисплей с разрешением 2880 × 2720 пикселей в периферийной области.
Такой подход позволяет обеспечить чрезвычайно чёткое изображение, когда пользователь смотрит перед собой, и более стандартное для периферийного зрения. В гарнитурах Varjo прошлого поколения использовался аналогичный подход, но были задействованы дисплеи с более низким разрешением. Обновлённая система дисплеев Bionic Display обеспечивает угол обзора по горизонтали в 115°, что значительно больше возможностей большинства потребительских гарнитур более низкого уровня. Обе представленные гарнитуры используют одинаковые дисплеи с частотой обновления 90 Гц.
(цена — вопрос отдельный)
А в более доступных железках — есть программная поддержка Fixed Foveated Rendering — именно что не рендерить в хайрез на периферии https://developer.oculus.com/documentation/unreal/unreal-ffr/
Надеюсь, это наконец заставит создателей операционных систем оптимизировать своё программное обеспечение. А то получается странность: вычислительные мощности растут экспоненциальной, а 5-летние компьютеры тормозят как 10 лет назад, так и сейчас.
На мой взгляд, современные топовые мощности требуются только для профессиональной работы, да для игр (но там мощности во все времена не хватало).
Я подразумеваю даже не прикладной софт, а хотя бы операционную систему. Как будет чувствовать себя этот компьютер, если поставить на него свежую Windows 10?
Но если вы конечно пойдете купитие сейчас какой нибудь модный офисный ноутубк за 15000р т окак бы логично что там даже ssd не моможет и браузер будет тормозить в принципе сразу.
Ну и еще для сравнения в пользу операцоинных систем и железа — посмотрите смартфоны, как сейчас п оклику все открывается и приятно и его возможности раньше. Просто оптимизируют там где это нужно, а не везде.
Всё от задач.
Просто как уже говорилось выше, для всего свои инструменты.
ВОт у меня есть старый смартфон FLy, он и при жизни то был полное г...., а сейчас на нем все лишние приложения затерты ADB, и телефон (очень маленький) используется как переносный WIFI роутер.
Дедушка. Ему в очках на 15 дюймовом мониторе, хоть 360 хоть 1080, вообще нет разницы.
Всё идёт от задач
У меня ноут hp c core2duo. Брал в 2005 где-то. Петли уже сломались (метал), на "заплатки" посадил. Экран тускловатый стал. Однако, я туда воткнул ssd, памяти по максимуму, сколько поддерживает. И до сих пор норм работает. Отец всякие одноклассники смотрит. Win 7 стоит. На 8 винде шустрее даже работает, но она падает, из-за того что драйверов уже на неё нет, только на семерку. Сам на нем кодил до 13-го года, пока десктоп не собрал.
Athlon x2 3600 (Windsor, 90нм), 2 x 2Gb DDR2, GeForce GTS 450, самсунговский HDD на 1.5 Tb, Windows 7.
Самое узкое горло тут — процессор, ну и медленный диск. С браузерами проблем нет вообще. С софтом тоже. Фотошоп нормально работает, идешки тем более. Для офисных задач такой «мощности» выше крыши.
Вообще я на нём даже Ведьмака 3 прошёл. Но тормозит сильно, пришлось даже фикс для процессора юзать. WOT без проблем, на разрешении… QHD.
С видео проблемы. В 30 фпс нормально идёт до 1080, в 60 начинает тормозить уже на 720. И это процессор. 10-летний i5-2520M без проблем пережёвывает 1440px/60f. Хотя о чём это я… 10 летний i5 через виртуализацию позволяет работать в макоси (Каталина).
Предлагаемая мощность домашних ПК очень сильно преувеличена. Даже для игровых конфигураций.
Да и FullHD тогда только начинали входить в бюджетный сегмент.
Говорю как пользователь девайса из 2010 года. i7-860, ОЗУ 8 ГГц, Win 7.
Не тормозят разве что Notepad, FAR, WinRAR и Office 2010.
Уже давно отказался от идеи обновлять Cubase (стоит 5), пакет от Adobe (стоит CS5).
Ладно, допустим, это специфичный софт.
Как и Visual Studio, но последний уже приходится регулярно обновлять, если хочешь последние плюшки языка, и с этим ничего не поделаешь. Не скажу, насколько каждый тормозит по сравнению с предыдущим.
Но интернеты… Это просто фейспалм.
Я иногда с тоской вспоминаю начало нового тысячелетия, когда IE vs Netscape Navigator (а особо прошаренные начали ставть Оперу), и не было вот это вашего вебдваноль с его соцсетями, б-гомерзким JS из каждой дырки и браузерами, которые только при запуске с пустой страницей жрут столько, сколько раньше не отнимали даже с несколькими рабочими вкладками. И все это тянули машинки на третьем пне.
Так что увы. И мой старенький конь мне регулярно об этом напоминает, когда я забываюсь в процессе серфинга, и два окна Vivaldi с примерно 15 вкладками могут заставить выбросить на экран системное окошко с требованием немедленно закрыть приложение, ибо недостаточно памяти. При этом в систрее из запущенных в фоне приложений лишь CIS.
У меня куча старых компов, большинству проведена такая операция. Результат — фантастический. Даже Dual Core 1.7 вполне можно пользоваться для простых дел. Вообще, для интернетов 8Гб хватает вполне, достаточно заменить только HDD.
(Правда, YMA уже поправился, что, оказывается, не 8, а 16 Гб. Это, конечно, во многом снимет вопросы по количеству одновременно открытых вкладок.).
А SSD уже несколько лет стоит. Естественно, что он — не слабое место, и шустрости в запуске программ добавил ощутимо.
З.Ы. С CPU, к сожалению, по нынешним временам тоже не все гладко. Когда для запуска скрипта PROMETHEUS для перепрошивки роутера понадобилась установка VMware Workstation Player, внезапно выяснилось, что мой проц устарел и перестал поддерживаться. Пришлось идти другим путем, без VMware, и запускать Debian на еще более старой машинке.
И да, кодирование видео (1080p) по нынешним временам происходит несколько медленно. Впрочем, это тоже не повседневная задача обычного пользователя.
А на 4200u работается вполне комфортно, конечно, там стоит SSD и 16 ГБ оперативки, тут я ошибся. Но процессор ровно такой же по производительности…
PS: Стоит посмотреть на сравнение — за 5 лет при сопоставимой производительности потребление упало почти в 5 раз…
Представляю, как оно на чем-нить древнем в современных браузерах тужиться будет…
«По времени разработки.»
Как всегда — в разных задачах по-разному, немного подробностей:
habr.com/ru/post/421931
habr.com/ru/news/t/452014
Но как я понял, в самой «неудачной» задаче к середине 2019 осталась примерно половина производительности от начала 2018.
Как считал:
— просадка от исправления Spectre+Meltdown: 0-20%
— просадка от исправления ZombieLoad: до 40%
— итого остается 0.8 * 0.6 = 0.48
Увы, бенчмарки на разных процессорах и задачах до и после всех этих исправлений не видел, а у самого нет технической возможности.
Наоборот, если раньше во все девайсы(не ПК) ставили какие-то специализированные процессоры, то сейчас практически везде универсальные (ARM,MIPS,RISC-V). И все из-за софта. Возьмем таких китов «спец процессоров» как TI или AD. Всеми их спец процессорами «руководят» универсальные. Специализированные на подхвате. Во всех SoC базовый процессор универсальный и куча помошников. Универсальный процессор обеспечивает хороший софт, ОС. хорошую отладку. А попробуй сейчас попытаться всунуть куда-то свой проприетарный специализированный процессор — до пенсии будешь писать только компилятор :)
Похоже, просто тормозящий прогресс, и тянущий за собой чемоданы говна, x86 наконец-то должен умереть и дать жить и развиваться другим, возможно, похоронив при этом интел (туда им и дорога). Лично мне это стало понятно ещё несколько лет назад, увидев скорость, с которой js бенчмарки проходит iPhone Х, в котором проц был уже несколько летней давности к моменту выхода.
А сейчас дело доводят до конца Apple с М1 и AWS со своими гравитонами.
А так то с процессорами общего назначения все хорошо. Linux скоро будет работать в каждой стиральной машине, ибо тупо проще взять low-end arm, чем что-то выдумывать. Подозреваю, что и в той же тесле их тоже достаточно. Врядли управляющий софт работает на чем-то экзотическом.
Например, Intel за последнее десятилетие потратила $183 млрд на НИОКР и новые производственные мощности. Это принесло огромные дивиденды: по некоторым оценкам, производительность процессоров с 1971 года увеличилась примерно в 400 000 раз.
Пример некорректного сравнения. За последнее десятилетие как раз производительность увеличилась вообще не революционно. Ну в 5 раз, может быть от силы, если считать вычислительную производительность хорошего десктопа по процессору. А денег вбухано, скорее всего больше, чем в предыдущие десятилетия.
При этом по производительности CPU он раза в 2 быстрее предыдущего ноутбука 5-летней давности на i5-6200u (HP430G3), плюс за счет того, что стоит m.2 SSD вместо SATA — скорость еще приросла.
Но в обычной работе это не ощущается — производительность избыточна, вижу эффект только в тяжелых числомолотилках (есть задачки на 4 потока и 10-12GB оперативки).
Хотя в фундаментальном смысле эти рынки по-прежнему контролируют музыкальные лейблы и книжные издательства, а не IT-компании, поскольку музыка, книги — всё это слишком мелкие, нишевые рынки по сравнению с IT.
Нет. Лейблы были значительно подвинуты тем же iTunes, а сейчас и другими цифровыми издателями, которые позволяют продавать не альбомы (которые появились чтобы продавать не пустующую пластинку или кассету, а хотя бы на 2/3 заполненную), а отдельные треки.
Большие лейблы в первую очередь предоставляли логистику музыки — издание пластинок, запись дисков, кассет и их продажу в розничных сетях. Сейчас эта вся логистика уже не нужна, и лейблы со своими заводами и розничными сетями остались максимум контролировать студии звукозаписи, которые не так уж сложно чуть ли не создать в гараже, опять таки благодаря цифровым технологиям, современным микшерам и возможности монтажа на компьютерах.
Тип Модель Параллельных вычислений
CPU Intel Xeon E5-2690v4 28
Хм, а почему не AMD EPYC 7002? 64 ядра, 128 потоков
Разве следующий шаг — не увеличение количества ядер в процессоре? Пусть, возможно, с ограниченной функциональностью…
Потом ещё совсем не раскрыта тема скорости передачи между процессором и памятью, в том числе их интеграцией (память в процессор или наоборот).
Впрочем наконец-то заняться оптимизацией было бы тоже интересно.
Чем сложнее программа — тем проще для нее может быть процессор.
Отсюда вывод: бесконечно сложная программа может работать вообще без процессора ))
Отсюда вывод: бесконечно сложная программа может работать вообще без процессора ))
Всё-таки самый (бесконечно) простой процессор это не значит вообще без процессора. У него может быть минимальный алфавит, минимальное число состояний, минимальное число операций ниже которых опуститься уже нельзя. Прототип — машина Тьюринга.
Благо их всего 4, почти как машкоманд в простых процессорах )
А процессор там какой-то другой, химический.
И судя по тому, что биологи до сих пор не определись с тем, какой именно там процессор…
Может его и нет вовсе. Программа работает сама )
Хотя кто ее знает, может она осуществима на практике
Всё это интересно, но пока правит миром капитал он будет диктавать, что нам важно и что полезно, не обращая на самих нас никакого внимания.
1) совокупный доход онлайн-платформ, скорее всего, всё же превзойдёт доход от бумажных книг
2) Судя по графикам, средняя посещаемость author.today, ресурса, организованного «по-ITшному» всё же превзойдёт «классический» Литрес, опирающийся на издательства и выпуск готового продукта.
Софт пожирает мир. Закат универсальных CPU