Я далёк от проектирования процессоров. Но мне кажется, что без какого то раздела или курса по архитектуре вычислительных устройств изучение одной конкретной архитектуры студентами будет ограничивать её развитие в дальнейшем из за сужения кругозора.
Ну это как изучать аппаратуру на примере только архитектуры PC, язык С программированием на чём нить типа Visual C окошек под виндоуз и тепе.
Я вот в своё время вроде много знал про разные решения для построения систем обработки - и читал, и проектировал, а сменил работу и бац - 4 процессорная плата (все разные) с ip коммуникациями частично через mii, частично через программное fifo в разделяемой памяти и сопроцессор на pci. Другие требования, особенности использования - совсем другая архитектура, причём определяющая аспекты программирования и интеграции таких плат в группу. И чтобы такое придумать надо иметь определённое образование - знать кубики, топологии, технологии интеграции и программирования взаимодействия.
Вы, в принципе, тоже про это писали в начале, что отдельные технические новации важно помнить. Просто изучать архитектуру по их истории как то проще, имхо
А как быть с dsp процессорами? Там вот эта инструкция умножить сложить и косвенно-индексно адресовать с инкрементом до сих пор вроде актуальна) и конвееры там до сих пор не очень большие, вроде. Или всё должно быть на risc-v?
Если Вы защищаете intel, то я совсем не против) Я про особенности архитектуры процессоров, которые могут заставлять переписывать давно известные алгоритмы
Если я правильно понимаю, то запрограммированный fpga от излучения трансформииуются во что то новое при каждом изменении конфигурационной ячейки памяти. Asic и чипы - нет, структура связей их ячеек остаётся той же. Или что тогда означает низкая и высокая, соотв, радиационная стойкость для этих типов микросхем?
Насчёт инициализации - чем плох 1149? Он же и контроль текущий может обеспечивать.
Кеш dsp и контроллеров - он внутрикристальный, для реалтайма, мне кажется он менее подвержен излучению по сравнению с конф. ячейками памяти fpga.
Первый чип ddc gc4016 уже имел полосу более 10 МГц, корпус 10 мм и потребление порядка ватта. Мне кажется сейчас эти чипсеты способны на большее. Вот там, где не хватает там да - только fpga, особенно для мелкосерийной аппаратуры.
Я просто представил - летит самолёт, бац - частица прилетела и радар замер на неск секунд пока fpga перезагрузится
Мне интересно, за что поставлен минус. По мне так применять fpga, которые не отличаются стойкостью по сравнению с asic и чипами требует серьёзных оснований - только для тех элементов системы, для которых отсутствуют специализированные чипы, контроллеры и dsp. Если же в модуль ставят немелкий fpga и туда засовывают обычный контроллер или делают sdr на полосу порядка 10 МГц, а потом городят огород чтобы добиться стабильной работы, это достаточно спорное решение
Сама статья безусловно интересная, но вот аргументация применения таких подходов мне не понятна, поэтому и спросил зачем так делать
Вы, мне кажется, не поняли смысла поста на который отвечаете - при сохранении такого вектора развития нашего интернета эти бпла лет через 10-15 будет нечем сбивать, не дай бог конечно
Отлично сформулировано. Тоже хотел с подобными рассуждениями высказаться, пару раз начинал, но со второго предложения скатывался на "идиоты" и "кретинизм"
А проигрыш классических алгоритмов был из за изменения весов инструкций в алгоритме, на коротких бпф оказывалось, что стоимость настройки адресов в каждом цикле перевешивала выигрыш от экономии операций умножения. В частности оказывалось, что переход с радикса 2 на 4 мог давать большую скорость вычислений при опрпделенрых длинах преобразования.
В принципе Ваш пример тоже про это - если попытаться переписать бпф для многоядерного интела, от классического варианта тоже вряд ли что останется
Я не говорил хорошо или плохо, я писал про эффективность использования аппаратно програмной платформы.
Вот gimp возьмите - там на виндовсе уже поддерживается многоядерность? Я тут фотки старые отсканированные разрезал, так и не смог в винде ничего с ними сделать, зато под линуксом почти без тормозов. Так это только ос разные, не аппаратура.
Конечно разработчики сапров больше задумываются о производительности, пока в клауд не уходят... Но тем не менее, они много оптимизированных под неск поколений процессоров вариантов библиотек поставляют? Ну к примеру под размеры кешей или количество ядер? Насколько они заморачиваются на автоконфигурировании своих пакетов под конфигурацию железа и насколько эффективно у них это получается? Тоже проще требования к железу поднять
Есть давняя проблема в том, что программисты разрабатывают и пишут алгоритмы, сложность которых растёт быстрее, чем эффективность использования существующего железа. Я забыл цифры, но условно возможности 286 процессора использовались процентов на 60 при появлении 386, в котором стало использоваться только 30 процентов. Не успели достичь 60 процентов на 386, как появился 486. Не думаю, что сейчас ситуация другая.
Или другой пример - в 70-80 существовали мат библиотеки ещё на фортране, оптимизированные для машин, где, условно, умножение было медленнее сложения в 10-20 раз. Когда появились сигнальные процессоры, у которых операция умножения со сложением и инкрементами адресов выполнялись за один цикл, эффективность этих алгоритмов существенно изменилась и, к примеру, бпф на 64 работало с такой же скоростью, как и дпф в лоб, а на 32 и меньше даже медленее.
То что происходит, плата за сложность и переносимость. Возьмите какую нить сапр с жизненным циклом лет 20 - под каждый новый чип и платформу выпускать аппаратно зависимый рантайм? То есть на старой платформе он работает с ммх и sse2, на текущей уже авх или как там его, а через 2 года появится порт на супер5дматрикс экстеншен в облаке, и все эти 10 портов надо фиксить, расширять, тестировать ещё 15 лет? Потому что то что эффективно сейчас при портировании может перестать таковым быть.
В общим да, купить ещё один сервак это ответ современной индустрии. Ну или жёсткий лимит ресурсов
Конференция в техническом плане это ресурс, который складывает стримы участников, давит шумы, переключает громкость и требует внимания к загрузке системы - условно если на коле 100 участников, и все слушают одного, то всё легко, а если это 5-8 человек которые ведут диалог, то это может оказаться жопой для системы. Поэттму да, конференции вредны)
Я далёк от проектирования процессоров. Но мне кажется, что без какого то раздела или курса по архитектуре вычислительных устройств изучение одной конкретной архитектуры студентами будет ограничивать её развитие в дальнейшем из за сужения кругозора.
Ну это как изучать аппаратуру на примере только архитектуры PC, язык С программированием на чём нить типа Visual C окошек под виндоуз и тепе.
Я вот в своё время вроде много знал про разные решения для построения систем обработки - и читал, и проектировал, а сменил работу и бац - 4 процессорная плата (все разные) с ip коммуникациями частично через mii, частично через программное fifo в разделяемой памяти и сопроцессор на pci. Другие требования, особенности использования - совсем другая архитектура, причём определяющая аспекты программирования и интеграции таких плат в группу. И чтобы такое придумать надо иметь определённое образование - знать кубики, топологии, технологии интеграции и программирования взаимодействия.
Вы, в принципе, тоже про это писали в начале, что отдельные технические новации важно помнить. Просто изучать архитектуру по их истории как то проще, имхо
А как быть с dsp процессорами? Там вот эта инструкция умножить сложить и косвенно-индексно адресовать с инкрементом до сих пор вроде актуальна) и конвееры там до сих пор не очень большие, вроде. Или всё должно быть на risc-v?
Насчёт прямых дорожек поддерживаю - человек, даже трезвый, прямо без принуждения редко ходит)
Но потом стал капитаном)
Если Вы защищаете intel, то я совсем не против) Я про особенности архитектуры процессоров, которые могут заставлять переписывать давно известные алгоритмы
Если я правильно понимаю, то запрограммированный fpga от излучения трансформииуются во что то новое при каждом изменении конфигурационной ячейки памяти. Asic и чипы - нет, структура связей их ячеек остаётся той же. Или что тогда означает низкая и высокая, соотв, радиационная стойкость для этих типов микросхем?
Насчёт инициализации - чем плох 1149? Он же и контроль текущий может обеспечивать.
Кеш dsp и контроллеров - он внутрикристальный, для реалтайма, мне кажется он менее подвержен излучению по сравнению с конф. ячейками памяти fpga.
Первый чип ddc gc4016 уже имел полосу более 10 МГц, корпус 10 мм и потребление порядка ватта. Мне кажется сейчас эти чипсеты способны на большее. Вот там, где не хватает там да - только fpga, особенно для мелкосерийной аппаратуры.
Я просто представил - летит самолёт, бац - частица прилетела и радар замер на неск секунд пока fpga перезагрузится
Мне интересно, за что поставлен минус. По мне так применять fpga, которые не отличаются стойкостью по сравнению с asic и чипами требует серьёзных оснований - только для тех элементов системы, для которых отсутствуют специализированные чипы, контроллеры и dsp. Если же в модуль ставят немелкий fpga и туда засовывают обычный контроллер или делают sdr на полосу порядка 10 МГц, а потом городят огород чтобы добиться стабильной работы, это достаточно спорное решение
Сама статья безусловно интересная, но вот аргументация применения таких подходов мне не понятна, поэтому и спросил зачем так делать
Вы, мне кажется, не поняли смысла поста на который отвечаете - при сохранении такого вектора развития нашего интернета эти бпла лет через 10-15 будет нечем сбивать, не дай бог конечно
Отлично сформулировано. Тоже хотел с подобными рассуждениями высказаться, пару раз начинал, но со второго предложения скатывался на "идиоты" и "кретинизм"
А не проще минимизировать применение fpga в космических применениях?)
Не, intel в 90 не мог в dsp)
А проигрыш классических алгоритмов был из за изменения весов инструкций в алгоритме, на коротких бпф оказывалось, что стоимость настройки адресов в каждом цикле перевешивала выигрыш от экономии операций умножения. В частности оказывалось, что переход с радикса 2 на 4 мог давать большую скорость вычислений при опрпделенрых длинах преобразования.
В принципе Ваш пример тоже про это - если попытаться переписать бпф для многоядерного интела, от классического варианта тоже вряд ли что останется
Ну да, всё верно, именно эту книжку я наверное и читал тогда)
Я думаю что скоро угандошат весь интернет и наступит тишина. И лет через несколько кто то, возможно, одумается. Или нет
Его и сейчас сделать проблема для людей с невысокими доходами и/или живущими не в крупных городах.
Я не говорил хорошо или плохо, я писал про эффективность использования аппаратно програмной платформы.
Вот gimp возьмите - там на виндовсе уже поддерживается многоядерность? Я тут фотки старые отсканированные разрезал, так и не смог в винде ничего с ними сделать, зато под линуксом почти без тормозов. Так это только ос разные, не аппаратура.
Конечно разработчики сапров больше задумываются о производительности, пока в клауд не уходят... Но тем не менее, они много оптимизированных под неск поколений процессоров вариантов библиотек поставляют? Ну к примеру под размеры кешей или количество ядер? Насколько они заморачиваются на автоконфигурировании своих пакетов под конфигурацию железа и насколько эффективно у них это получается? Тоже проще требования к железу поднять
Есть давняя проблема в том, что программисты разрабатывают и пишут алгоритмы, сложность которых растёт быстрее, чем эффективность использования существующего железа. Я забыл цифры, но условно возможности 286 процессора использовались процентов на 60 при появлении 386, в котором стало использоваться только 30 процентов. Не успели достичь 60 процентов на 386, как появился 486. Не думаю, что сейчас ситуация другая.
Или другой пример - в 70-80 существовали мат библиотеки ещё на фортране, оптимизированные для машин, где, условно, умножение было медленнее сложения в 10-20 раз. Когда появились сигнальные процессоры, у которых операция умножения со сложением и инкрементами адресов выполнялись за один цикл, эффективность этих алгоритмов существенно изменилась и, к примеру, бпф на 64 работало с такой же скоростью, как и дпф в лоб, а на 32 и меньше даже медленее.
То что происходит, плата за сложность и переносимость. Возьмите какую нить сапр с жизненным циклом лет 20 - под каждый новый чип и платформу выпускать аппаратно зависимый рантайм? То есть на старой платформе он работает с ммх и sse2, на текущей уже авх или как там его, а через 2 года появится порт на супер5дматрикс экстеншен в облаке, и все эти 10 портов надо фиксить, расширять, тестировать ещё 15 лет? Потому что то что эффективно сейчас при портировании может перестать таковым быть.
В общим да, купить ещё один сервак это ответ современной индустрии. Ну или жёсткий лимит ресурсов
У них просто бюджет на следующую трёхлетку спадает, вот и..
Парикхмахеры почти в зеленой зоне. Что то анекдот вспомнил
Изобрели брадобрейный автомат
но как, у людей же лица у всех разные, у вспх есть особенности..
да, но только первый раз!
ТАк что табличка корректна только для существующих подходов, которые можно и поменять
Конференция в техническом плане это ресурс, который складывает стримы участников, давит шумы, переключает громкость и требует внимания к загрузке системы - условно если на коле 100 участников, и все слушают одного, то всё легко, а если это 5-8 человек которые ведут диалог, то это может оказаться жопой для системы. Поэттму да, конференции вредны)
Ну как бы да, на собеседованиях фреймворки аргумент. Но с фреймвоками без грёбаного энтерпрайза тоже придёшь джуниором - парадокс)