Pull to refresh
-4

User

0,6
Rating
Send message

Я далёк от проектирования процессоров. Но мне кажется, что без какого то раздела или курса по архитектуре вычислительных устройств изучение одной конкретной архитектуры студентами будет ограничивать её развитие в дальнейшем из за сужения кругозора.

Ну это как изучать аппаратуру на примере только архитектуры PC, язык С программированием на чём нить типа Visual C окошек под виндоуз и тепе.

Я вот в своё время вроде много знал про разные решения для построения систем обработки - и читал, и проектировал, а сменил работу и бац - 4 процессорная плата (все разные) с ip коммуникациями частично через mii, частично через программное fifo в разделяемой памяти и сопроцессор на pci. Другие требования, особенности использования - совсем другая архитектура, причём определяющая аспекты программирования и интеграции таких плат в группу. И чтобы такое придумать надо иметь определённое образование - знать кубики, топологии, технологии интеграции и программирования взаимодействия.

Вы, в принципе, тоже про это писали в начале, что отдельные технические новации важно помнить. Просто изучать архитектуру по их истории как то проще, имхо

А как быть с dsp процессорами? Там вот эта инструкция умножить сложить и косвенно-индексно адресовать с инкрементом до сих пор вроде актуальна) и конвееры там до сих пор не очень большие, вроде. Или всё должно быть на risc-v?

Насчёт прямых дорожек поддерживаю - человек, даже трезвый, прямо без принуждения редко ходит)

Если Вы защищаете intel, то я совсем не против) Я про особенности архитектуры процессоров, которые могут заставлять переписывать давно известные алгоритмы

Если я правильно понимаю, то запрограммированный fpga от излучения трансформииуются во что то новое при каждом изменении конфигурационной ячейки памяти. Asic и чипы - нет, структура связей их ячеек остаётся той же. Или что тогда означает низкая и высокая, соотв, радиационная стойкость для этих типов микросхем?

Насчёт инициализации - чем плох 1149? Он же и контроль текущий может обеспечивать.

Кеш dsp и контроллеров - он внутрикристальный, для реалтайма, мне кажется он менее подвержен излучению по сравнению с конф. ячейками памяти fpga.

Первый чип ddc gc4016 уже имел полосу более 10 МГц, корпус 10 мм и потребление порядка ватта. Мне кажется сейчас эти чипсеты способны на большее. Вот там, где не хватает там да - только fpga, особенно для мелкосерийной аппаратуры.

Я просто представил - летит самолёт, бац - частица прилетела и радар замер на неск секунд пока fpga перезагрузится

Мне интересно, за что поставлен минус. По мне так применять fpga, которые не отличаются стойкостью по сравнению с asic и чипами требует серьёзных оснований - только для тех элементов системы, для которых отсутствуют специализированные чипы, контроллеры и dsp. Если же в модуль ставят немелкий fpga и туда засовывают обычный контроллер или делают sdr на полосу порядка 10 МГц, а потом городят огород чтобы добиться стабильной работы, это достаточно спорное решение

Сама статья безусловно интересная, но вот аргументация применения таких подходов мне не понятна, поэтому и спросил зачем так делать

Вы, мне кажется, не поняли смысла поста на который отвечаете - при сохранении такого вектора развития нашего интернета эти бпла лет через 10-15 будет нечем сбивать, не дай бог конечно

Отлично сформулировано. Тоже хотел с подобными рассуждениями высказаться, пару раз начинал, но со второго предложения скатывался на "идиоты" и "кретинизм"

А не проще минимизировать применение fpga в космических применениях?)

Не, intel в 90 не мог в dsp)

А проигрыш классических алгоритмов был из за изменения весов инструкций в алгоритме, на коротких бпф оказывалось, что стоимость настройки адресов в каждом цикле перевешивала выигрыш от экономии операций умножения. В частности оказывалось, что переход с радикса 2 на 4 мог давать большую скорость вычислений при опрпделенрых длинах преобразования.

В принципе Ваш пример тоже про это - если попытаться переписать бпф для многоядерного интела, от классического варианта тоже вряд ли что останется

Ну да, всё верно, именно эту книжку я наверное и читал тогда)

Я думаю что скоро угандошат весь интернет и наступит тишина. И лет через несколько кто то, возможно, одумается. Или нет

Его и сейчас сделать проблема для людей с невысокими доходами и/или живущими не в крупных городах.

Я не говорил хорошо или плохо, я писал про эффективность использования аппаратно програмной платформы.

Вот gimp возьмите - там на виндовсе уже поддерживается многоядерность? Я тут фотки старые отсканированные разрезал, так и не смог в винде ничего с ними сделать, зато под линуксом почти без тормозов. Так это только ос разные, не аппаратура.

Конечно разработчики сапров больше задумываются о производительности, пока в клауд не уходят... Но тем не менее, они много оптимизированных под неск поколений процессоров вариантов библиотек поставляют? Ну к примеру под размеры кешей или количество ядер? Насколько они заморачиваются на автоконфигурировании своих пакетов под конфигурацию железа и насколько эффективно у них это получается? Тоже проще требования к железу поднять

Есть давняя проблема в том, что программисты разрабатывают и пишут алгоритмы, сложность которых растёт быстрее, чем эффективность использования существующего железа. Я забыл цифры, но условно возможности 286 процессора использовались процентов на 60 при появлении 386, в котором стало использоваться только 30 процентов. Не успели достичь 60 процентов на 386, как появился 486. Не думаю, что сейчас ситуация другая.

Или другой пример - в 70-80 существовали мат библиотеки ещё на фортране, оптимизированные для машин, где, условно, умножение было медленнее сложения в 10-20 раз. Когда появились сигнальные процессоры, у которых операция умножения со сложением и инкрементами адресов выполнялись за один цикл, эффективность этих алгоритмов существенно изменилась и, к примеру, бпф на 64 работало с такой же скоростью, как и дпф в лоб, а на 32 и меньше даже медленее.

То что происходит, плата за сложность и переносимость. Возьмите какую нить сапр с жизненным циклом лет 20 - под каждый новый чип и платформу выпускать аппаратно зависимый рантайм? То есть на старой платформе он работает с ммх и sse2, на текущей уже авх или как там его, а через 2 года появится порт на супер5дматрикс экстеншен в облаке, и все эти 10 портов надо фиксить, расширять, тестировать ещё 15 лет? Потому что то что эффективно сейчас при портировании может перестать таковым быть.

В общим да, купить ещё один сервак это ответ современной индустрии. Ну или жёсткий лимит ресурсов

У них просто бюджет на следующую трёхлетку спадает, вот и..

Парикхмахеры почти в зеленой зоне. Что то анекдот вспомнил

Изобрели брадобрейный автомат

  • но как, у людей же лица у всех разные, у вспх есть особенности..

  • да, но только первый раз!

ТАк что табличка корректна только для существующих подходов, которые можно и поменять

Конференция в техническом плане это ресурс, который складывает стримы участников, давит шумы, переключает громкость и требует внимания к загрузке системы - условно если на коле 100 участников, и все слушают одного, то всё легко, а если это 5-8 человек которые ведут диалог, то это может оказаться жопой для системы. Поэттму да, конференции вредны)

Ну как бы да, на собеседованиях фреймворки аргумент. Но с фреймвоками без грёбаного энтерпрайза тоже придёшь джуниором - парадокс)

1
23 ...

Information

Rating
2,324-th
Registered
Activity

Specialization

Бэкенд разработчик, Инженер встраиваемых систем
Средний
Linux
Java
Английский язык
C++
C
Программирование микроконтроллеров
Linux kernel