Аппаратные компоненты бортовой МПС унифицированного ударного истребителя F-35

    Приоритеты современной военной авиации сосредоточены на качественной ситуационной осведомлённости, поэтому современный истребитель представляет собой летающий рой высокотехнологичных сенсоров. Сбор информации с этих сенсоров, её обработку и представление пользователю осуществляет бортовая микропроцессорная система (МПС). Вчера для её реализации использовались HPEC-гибриды (включающие в себя CPU, GPU и FPGA). Сегодня для её реализации используются однокристальные SoC-системы, которые помимо того, что все компоненты на один чипсет собирают, так ещё и внутричиповую сеть организуют (NoC), как альтернативу традиционной магистрали передачи данных. Завтра, когда SoC-системы станут ещё более зрелыми, ожидается приход полиморфной наноэлектроники, которая даст существенный прирост производительности и снизит темп своего морального устаревания.



    Введение


    Если в эру истребителей 4-го поколения показателями боевого превосходства были высокая скорость и экономичное энергопотребление, то в эру истребителей 5-го поколения боевое превосходство измеряется, прежде всего, качеством ситуационной осведомлённости. [6] Поэтому современный истребитель представляет собой летающий рой всевозможных высокотехнологичных сенсоров, обеспечивающих в сумме «360-градусную ситуационную осведомлённость». [5] Сбор информации с этих сенсоров, её обработка и удобоваримое для пилота представление – требуют колоссальных вычислительных мощностей.


    Все эти вычисления необходимо делать на борту, поскольку суммарная интенсивность входного потока данных от всего роя сенсоров (видеокамеры, радиолокаторы, ультрафиолетовые и инфракрасные сенсоры, лидар, сонар и др.) – превышает пропускную способность внешних высокоскоростных каналов связи как минимум в 1000 раз. [2] Бортовая обработка сигналов привлекательна ещё и тем, что благодаря ей пилот получает актуальную информацию в режиме реального времени.


    Под «удобоваримостью представления» подразумевается, что вся информация, – какой бы разнородной она ни была, – должна быть синтезирована в единую «театральную картину боевых действий», [9] интерпретирование которой не должно превращаться в головоломную аналитическую задачу (как это было в старых моделях истребителей, где пилоту приходилось одновременно наблюдать за десятком дисплеев).



    Высокопроизводительная интегрированная система


    Ответственность за эту театральную постановку, или говоря формальней, ответственность за решение этой комплексной непростой задачи – лежит на бортовой МПС, которая помимо высокой производительности также должна обеспечивать достаточно низкий уровень SWaP (размеры, масса и энергопотребление), что само по себе является «вечнозелёной проблемой». [8] На сегодняшний день популярным (но не самым передовым) в этой связи решением – является использование тройки разнопрофильных процессоров, размещённых в одном корпусе: CPU, GPU и FPGA. Устоявшееся название такого гибрида – HPEC (высокопроизводительная интегрированная система). [2] Ключ к его, гибрида, успешной реализации – продуманная архитектура МПС, которая берёт от каждого процессора самые лучшие характеристики, а их слабые стороны обходит стороной. При этом цель HPEC-архитектуры заключается в том, чтобы достичь эффекта синергии – когда производительность конечной гибридной системы значительно превосходит суммарную производительность составляющих её частей. Т.о. гибридная архитектура сочетает несколько различных видов процессоров в одном корпусе. Идея состоит в том, что если использовать сильные стороны каждого отдельно взятого компонента, можно построить передовую систему HPEC, которая обвенчается со сногсшибательной производительностью, а их ребёнком станет крошка-SWaP. [10] Рассмотрим более подробно каждую из трёх составляющих HPEC-архитектуры.


    Пример HPEС-гибрида


    Врезка: Живой пример HPEC-гибрида

    В качестве живой иллюстрации HPEC-гибрида можно привести портативную камеру AdLink NEON-1040 x86 (4 мегапикселя, 60 кадров в секунду), предназначенную для жёстких условий эксплуатации. Она оснащена FPGA и GPU, обеспечивающими передовые технологии обработки изображений, а также четырёхядерным CPU (Intel Atom, 1,9 ГГц), благодаря чему алгоритмы обработки могут быть реализованы в виде x86-совместимых программ. Кроме того, камера имеет на борту 32 Гб дискового пространства, где можно хранить видео, программы и архивные данные. [13] Камера AdLink


    Преимущество FPGA в том, что на нём алгоритмы реализуются аппаратно, а такая реализация как известно – всегда быстрее. Кроме того, работая на сравнительно невысоких тактовых частотах порядка сотен МГц, FPGA могут производить десятки тысяч вычислений за один такт и при этом потреблять гораздо меньше энергии, чем GPU. С FPGA сложно конкурировать также и по времени отклика (сотни наносекунд – против десятка микросекунд, которые может обеспечить GPU). Также стоит отметить, что современные FPGA обладают возможностью динамического реконфигурирования: их можно перепрограммировать налету (без перезагрузки и остановки) – чтобы адаптировать алгоритмы к изменяющимся условиям эксплуатации. Поэтому FPGA (например, Xilinx) – хорош для первичной обработки поступающих от сенсоров данных. Он просеивает поступающую от сенсоров сырую информацию и передаёт дальше более сжатый полезный поток. FPGA здесь незаменим, поскольку однородный поток данных, обработка которого к тому же ещё и распараллеливанию легко поддаётся, – это как раз та задача, где FPGA является лидером жанра.


    Врезка: Проектирование DSP на FPGA

    Традиционно FPGA программируются на языке низкого уровня VHDL. Однако Xilinx сумела интегрировать процесс разработки с такой мощнейшей инструментальной средой, как MathWorks Simulink. Одна из приятных особенностей Simulink – её интеграция с MatLab, который в свою очередь является самым популярным инструментом моделирования алгоритмов для военной и коммерческой обработки сигналов; что касается проектирования DSP-компонентов, так здесь MatLab вообще является стандартом де-факто. Такая интеграция позволяет разработчику пользоваться программными кодами и утилитами, разработанными в MatLab. Что в свою очередь облегчает и ускоряет цикл проектирования. В том числе потому, что основная часть тестирования конечной системы – перемещается в среду MatLab, где это делать намного удобней, чем при работе с традиционным FPGA-инструментарием. [1]


    FPGA в настоящее время являются ядром самых критических подсистем бортовой МПС военной авиации: бортовой управляющий компьютер, навигационная система, дисплеи в кабинах, тормозные системы, регуляторы температуры и давления в салоне, осветительные приборы, блоки управления авиационными двигателями. [14] Также FPGA являются ядром бортовых сетевых коммуникаций, электрооптической системы наведения и других видов интенсивных ресурсоёмких вычислений для «интегрированных модулей авионики» (IMA) на борту «унифицированного ударного истребителя» (JSF), например такого как F-35. [5]


    GPU (например, Nvidia Tesla) – хорош для параллельной обработки алгоритмов с интенсивной математикой и плавающей точкой. Он делает это лучше, чем FPGA и CPU. Массивная параллельная конструкция графического процессора, – состоящего из нескольких сот ядер, – позволяет обрабатывать параллельные алгоритмы намного быстрее, чем CPU. FPGA конечно тоже хорош в параллельной обработке, но только не там, где речь идёт об операциях с плавающей точкой. FPGA сам по себе их делать не умеет, тогда как современный GPU обеспечивает триллион операций с плавающей точкой в секунду, – что, например, весьма полезно для таких задач, как сшивание нескольких гигапиксельных видеопотоков.


    Многоядерный CPU (например, Intel Core i7) – хорош для когнитивной обработки.


    Итак, взяв лучшие характеристики всех процессоров и обойдя их слабые стороны, можно достичь незаурядных вычислительных мощностей. Кроме того, для достижения ещё более высокой производительности в HPEC могут быть включены и другие специализированные процессоры. Например, для решения задач бортовой системы навигации, может быть использован PPU (Physics Processing Unit) – аппаратный ускоритель физических расчётов, оптимизированный для работы с динамикой твёрдых, жидких и мягких тел, для обнаружения столкновений, для анализа конечных элементов, для анализа разломов объекта и т.д. [11] Другие примеры специализированных процессоров – это аппаратный ускоритель радарной обработки сигналов [1] и аппаратный ускоритель для анализа графов, [12] который будет незаменим при обработке «больших данных». В обозримом будущем, – в связи с удешевлением аппаратных средств и с упрощением процесса их разработки, – ожидается появление самых разнообразных аппаратных ускорителей, которые пополнят «периодическую систему вычислительных первоэлементов», [10] благодаря чему алхимический процесс инженерного проектирования станет ещё более результативным.


    Врезка: HPEC на одном чипcете

    Разработчики высокопроизводительных элементов военной промышленности (HPEC) часто используют дуэт топового процессора от Intel и FPGA от Altera. Отвечая на потребности разработчиков, Intel сегодня интегрирует в свои топовые процессоры модули FPGA от Altera (которая с недавнего времени вошла в состав Intel). Завтра Intel планирует предоставить разработчикам возможность кастомизации процессоров – их собственными ASIC-компонентами, для чего сотрудничает с корпорацией eASIC. [4] Интерес к ASIC-компонентам обусловлен тем, что какими бы быстрыми и энергоэффективными ни были FPGA-компоненты, поставщики ASIC’ов обещают удвоение производительности при 80-процентном сокращении потребляемой мощности. [3]


    Усадка МПС на один чипсет


    Итак, мы рассмотрели архитектуру HPEC, которая способна обеспечить высокую производительность при достаточно низком уровне SWaP. Однако в этом отношении есть и более передовое решение: концепция SoC, суть которой заключается в том, чтобы разместить всю микропроцессорную систему – на одном чипсете. SoC объединяет в себе программируемость процессора и конфигурируемость аппаратной части FPGA, обеспечивая непревзойдённый уровень системной производительности, гибкости и масштабируемости.


    Значительный сдвиг в этом отношении в сторону программной составляющей – даёт возможность создавать многофункциональные системы со всевозрастающими возможностями и всеуменьшающимся размером и стоимостью. Применение перепрограммируемых компонентов также позволяет производить более дешёвые и быстрые обновления устаревших систем – без необходимости обновления аппаратного обеспечения с каждым инкрементивным улучшением их архитектуры, что для военной промышленности в особенности актуально.



    Типичная SoC-система включает в себя:


    • микроконтроллер, многоядерный CPU, или DSP-ядро;
    • блоки памяти, с возможностью выбора: ROM, RAM, EEPROM и флэш;
    • таймеры, – включая генераторы и петли фазовой автоподстройки;
    • периферийные устройства, в том числе контр-таймеры, таймеры реального времени, генераторы включения и сброса;
    • внешние интерфейсы, в том числе общепринятые: USB, FireWire, Ethernet, USART, и SPI;
    • аналоговые интерфейсы, в том числе ЦАП и АЦП блоки;
    • регуляторы напряжения и схемы управления питанием;
    • шины передачи данных, посредством которых все вышеперечисленные блоки обмениваются информацией;
    • DMA-контроллеры, расположенные между внешними интерфейсами и памятью, которые позволяют обмениваться данными минуя ядро процессора, увеличивая тем самым пропускную способность SoC.

    Новый тренд в такой широкомасштабной SoC-интеграции, – последней каплей для возникновения которого стала растущая популярность восьмиядерных процессоров, – это «внутричиповая сеть» (NoC). Данная концепция предлагает отказаться от традиционных шин передачи данных, и заменить их – внутричиповой сетью. Так например, Arteris Inc использует концепцию NoC для управления внутричиповым трафиком и для обмена управляющими сигналами, в результате чего достигается значительное увеличение пропускной способности. [7]


    Архитектура SoC-системы от Arteris Inc


    Врезка: Живой пример SoC-системы

    Один из живых примеров SoC-системы – Xilinx' Zynq Ultrascale+ MPSoC. Это истинный SoC, созданный в духе «всё включено». На его борту расположены: 1) программируемая логика, 2) 64-разрядные четырёхядерные ARM A53 процессорные системы, 3) память, 4) функции безопасности, 5) четыре гигабитных приёмника. И всё это на одном чипсете! Архитектура SoC сулит конечному пользователи множество преимуществ: гораздо более высокую производительность, более быструю разработку и вывод на рынок, возможность использования опыта многих лет разработки программных алгоритмических решений – в проектировании аппаратных компонентов. [7] Xilinx' Zynq Ultrascale+ MPSoC


    Заключение


    Подводя итог обзору высокопроизводительных систем вообще, и SoC в частности, – как наиболее популярному на сегодняшний день их представителю, – можно сказать, что эволюция малого форм-фактора встраиваемых вычислительных систем произошла настолько быстро, а её влияние на архитектуру и на возможности системы настолько обширно, что инженерам-конструкторам могут потребоваться годы – чтобы интегрировать в свои решения эту ультрасовременную концепцию однокристальности. Кроме того, поскольку усилия по развитию SoC-систем в значительной степени направлены на то, чтобы аппаратное обеспечение устаревало как можно медленнее, – в них наблюдается тенденция преобладания перепрограммируемых компонентов. Поэтому есть основания предполагать, что наноэлектроника завтрашнего дня – будет иметь возможность полной пользовательской кастомизаци, в результате чего граница между аппаратным и программным проектированием полностью сотрётся. [7] Фактически такое событие ознаменует начало новой эры – полиморфной наноэлектроники, которая совместит в себе такие противоречивые характеристики, как гибкость программного уровня и высокую производительность аппаратного ускорения. Это позволит разработчикам брать от существующих программных и аппаратных архитектур только самые лучшие их характеристики, а слабые их стороны не то что игнорировать (как это делается при проектировании HPEC-архитектуры), а в принципе не включать в конечный дизайн устройства. При этом вероятность достижения эффекта синергии (о котором говорилось в обсуждении HPEC-архитектуры) значительно повышается. Что несомненно будет играть ключевую роль в повышении качества ситуационной осведомлённости, которая, как было сказано в начале статьи, – на сегодняшний день является ключом к боевому превосходству. Не только в воздушном пространстве, но и во всём остальном «театре боевых действий».



    Библиография
    1. David Leas. Rapid Prototyping of Radar Signal Processing // Leading edge: Sensors. 7(2), 2012. pp. 76-79.
    2. Courtney E. Howard. HPEC enables onboard data processing for persistent surveillance // Military & Aerospace electronics: High-performance embedded computing. 27(7), 2016. pp. 16-21.
    3. Cell-based ASIC Migration Path.
    4. John Keller. Intel to boost integrated microprocessor and FPGA offerings with acquisition of Altera.
    5. Courtney E. Howard. Video and image processing at the edge // Military & Aerospace electronics: Progressive avionics. 22(8), 2011.
    6. Stephanie Anne Fraioli. Intelligence Support for the F-35A Lightning II // Air & Space Power Journal. 30(2), 2016. pp. 106-109.
    7. J.R. Wilson. Shrinking boards into systems on chip // Military & Aerospace electronics: Buyer’s Guide. 27(3), 2016. pp. 19-25.
    8. Courtney Howard. Data in demand: answering the call for communications // Military & Aerospace electronics: Wearable Electronics. 27(9), 2016.
    9. Prelipcean G., Boscoianu M., Moisescu F. New ideas on the artificial intelligence support in military applications, in Recent Advances in Artificial Intelligence, Knowledge Engineering and Data Bases, AIKED’10, 2010.
      10. John Keller. Hybrid processor architectures meet demands for SWaP // Military & Aerospace electronics: Avionics upgrades. 26(2), 2015. pp. 18-24.
    10. ASUS PhysX P1 (на базе PPU Ageia PhysX).
    11. Broad Agency Announcement: Hierarchical Identify Verify Exploit (HIVE) Microsystems Technology Office DARPA-BAA-16-52 August 10, 2016.
    12. Rugged smart camera for industrial environments introduced by ADLINK // Military & Aerospace electronics: High-performance embedded computing. 27(7), 2016. p. 27.
    13. Courtney Howard. Avionics: ahead of the curve // Military & Aerospace electronics: Avionics innovations. 24(6), 2013. pp. 10-17.

    PS. Первоначально статья была опубликована в «Компоненты и технологии».

    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 45

      +2
      Действительно-ли беспроводная NoC может быть выгодна? На мой взгляд — проще пробросить на эти 3..5 мм [много]гигабитный Ethernet, чем лепить повсюду антенны (хоть микро, хоть даже нано) и бороться с помехами от близлежащих широкополосных цифровых блоков.
        +1
        Может дело в весе? Знаете сколько весит метр витой пары? А если она шилдованная? А если для самолета? А если их много? Думаю вопрос надо рассматривать через призму решаемых задач, если они могут быть решены через NoC, без потери скажем так «качества», то почему бы и нет?
          0
          А может для передачи данных между вычислителями использовать оптику?
            +1
            а преобразовывать сигнал вы чем будете)? на каждую линию оптики, вам надо добавить 2 конвертера. Тем более, что оптика очень требовательна к качеству разъемных соединений, если мы говорим о GOF. Пластиковое оптическое волокно не требовательно, но по нему не прокачаешь больше 100мб/с, да и то не далеко(( Тем более что оптика достаточно хрупкая весч для использования в самолетах, и остается вопрос виброустойчивых коннекторов. Плюс ко всему размеры. Сравните военные образцы многопиновых медных разъемов и оптических.
              +2
              Тем не менее, оптика и в авионике, и в космосе для бортовых сетей или уже используется, или готовится к использованию в ближайшем будущем. Гуглить по запросу SpaceFibre.
              Проект реализовывался международной кооперацией, в которую входили: Университет Данди (Великобритания), ФГУП «НИИ «Субмикрон», Санкт-Петербургский государственный университет аэрокосмического приборостроения, НПЦ «Элвис» (Российская Федерация), фирма «Астриум ГМБХ» (Германия). Результатом работы явилась разработка проекта стандарта, получившего название SpaceFibre. Данный стандарт подразумевает использование как волоконно-оптических линий связи, так и медных твин-аксиальных кабелей. Поддерживается агрегация нескольких (до 4) линий связи в один канал. При технической скорости передачи информации в линии до 6,25 Гбит/с обеспечивается передача до 5 Гбит/с полезной информации на линию, или до 20 Гбит/с на канал, содержащий 4 линии


              Но к концепции Network on Chip это все не имеет отношения, потому что она on chip. Суть идеи там состоит в том, чтобы снабдить накристалльные IP-блоки интерфейсами, сходными с обычными сетевыми и позволяющими на кристалле работать с высокими уровнями модели OSI.
                +1
                Да, я с вами полностью согласен, даже держал такие (авиационные оптические) разъемы в руках.
                К сожалению мне не хватает знаний, чтобы даже теоретически представить как это сделать(((: «снабдить накристалльные IP-блоки интерфейсами, сходными с обычными сетевыми и позволяющими на кристалле работать с высокими уровнями модели OSI», но звучит круто.
                  +2
                  Относительно недавно принятый стандарт ARINC818-2 очень широко использует оптические каналы для передачи данных. Предпосылками для его принятия как раз и были те проблемы, которые, частично, описаны в статье.
                  То есть непосредственно с волокном проблемы решены, а с приёмопередатчиками вопрос тоже особо нет.
                    0
                    Спасибо, надо почитать.
            +1
            Исходя из контекста — ни о каких метрах речи нет. Речь о Network-on-Chip, т.е. в пределах кристалла или гибридки. Единицы мм, как я и указал. И коллега amartology поддерживает.
            Возможно KarevAnton поддался на «модно-молодёжно»?
              0
              Ну в статье же сказано беспроводная) Я тоже повелся. Наверно в оригинале звучало как-нибудь типа «cableless» кабелей/проводов же нет))
                0
                Наверно в оригинале звучало как-нибудь типа «cableless»
                В оригинале ни слова нет на этот счет, я проверил. Автор просто на ровном месте придумал это «беспроводное».
                  +3
                  Коллеги, amartology – прав. У меня в статье действительно была ошибка (сейчас я её исправил), связанная с моим недопониманием концепции NoC.

                  Вот оригинальный кусок текста, отталкиваясь от которого я рискнул предположить, что сеть там беспроводная: «The NoC approach has a clear advantage over traditional buses for nearly all criteria, most notably system throughput». «Hierarchies of crossbars or multilayered buses have characteristics somewhere in between traditional buses and NoC; however, they fall far short of the NoC with respect to performance and complexity».

                  Рецензент технического журнала, в котором эта статья изначально публиковалась, – ошибки не заметил. А amartology не только указал на неё, но и доходчиво объяснил, в чём тут суть. За что ему большое спасибо. Кому интересно, вот его объяснение (из нашей с ним переписки):

                  Сеть в NoC есть, но она не беспроводная, а проводная. Повышение пропускной способности делается архитектурно, а не за счет отказа от проводов. Штука в том, что в современных микросхемах сколько угодно сложная логика – компактнее и удобнее межсоединений. Поэтому ничего не мешает делать какие угодно контроллеры, которые будут лучше и быстрее широких параллельных шин, на которых много лет держалась индустрия. Реализовать внутри кристалла беспородную сеть в теории можно, но антенны там будут по микроэлектронным меркам гигантские. На кристалле организована сеть, которая физически устроена точно так же, как обычная шина (многоуровневая металлизация), но за счет другой архитектуры получается добиться большей производительности.
                    0
                    В принципе, концепты беспроводных NoC существуют, см. главу 13.2 RF/Wireless Interconnects книги Sudeep Pasricha, Nikil Dutt — On-Chip Communication Architectures: System on Chip Interconnect:
                    Frequency division multiple access (FDMA), code division multiple access (CDMA), or a combination of the two (FDMA/CDMA) can be used to achieve simultaneous communications in RF/wireless interconnects. In an FDMA interconnect, frequency bands of I/O channels can be allocated between 5–105 GHz with a bandwidth of approximately 5–20 GHz in each channel and sustaining a minimum data rate of 5–40 Gb/s depending on the modulation scheme.
            +1
            Так NoC проводная, она внутри кристалла/корпуса микросхемы же, сделана из дорожек металлизации. Я вообще не понимаю, с чего автор статьи взял слово «беспроводная». В процитированном первоисточнике [7] ничего про беспроводность не сказано, что полностью разумно, потому что быстрее металлизации внутри кристалла в теории может быть только оптика, а таких технологий пока что просто нет.
              0
              Спасибо, а то у нас уже дискуссия намечается)
            +2
            Что такое МПС? Это международные платёжные системы или министерство путей сообщения?
            Автор, Вы сможете прочитать внутренний документ Сбербанка текст с аббревиатурами, которых никто не расшифровывает, а Вы их не знаете?
              0
              Справедливое замечание. Добавил расшифровку в аннотацию.
              +1
              Ctrl+F «радиация»: ноль результатов.
              Ctrl+F «нейтроны»: ноль результатов.
              Быстрая гуглежка показывает, что в реальности на F-35 стоят в Integrated Cope Processor, разумеется, никакие не Intel Core i7, а вполне себе PowerPC производства NXP can на проектных нормах 90 нм КНИ, зато с высокой устойчивостью к воздействию нейтронов при атомном взрыве и к вторичным нейтронам от космической радиации.
                0
                Коллега, насколько мне известно, на борту F-35 функционируют сразу несколько процессоров, от разных поставщиков. Потому что в системах, к которым предъявляются повышенные требования на отказоустойчивость, вводится функциональная избыточность, – чтобы одну и ту же задачу на борту потенциально могли выполнить несколько разных устройств. Причём требование избыточности таково, чтобы дублирующие элементы были разработаны альтернативными производителями и имели альтернативную архитектуру. Благодаря этому вероятность одновременного выхода из строя оригинала и дубликата – снижается. Бьюсь об заклад, что вам, как разработчику электроники для космоса, это всё известно лучше чем кому-либо другому.
                  0
                  Что касается защиты от нейтронов и радиации, то в ней ведь не только процессор нуждается, но и вся остальная электроника, которой F-35 напичкан до предела, поэтому куда логичней защитить корпус истребителя, а не отдельные компоненты его начинки. А заодно и пилота защитить. Есть там в корпусе такая защита или нету, – не знаю, потому как не изучал этот вопрос подробно. Лично пои познания относительно защиты F-35 от неблагоприятных воздействий со стороны окружающей среды ограничиваются его подсистемой VRAMS («интеллектуальная система информирования о рисках, связанных с опасными для оборудования манёврами»). В рамках неё защита от радиации и нейтронов не предусмотрена, но возможно она реализована в каком-то другом слое защиты. По крайней мере это было бы логично.
                    0
                    на борту F-35 функционируют сразу несколько процессоров
                    Это как раз очевидно, я просто привел пример того, как оно устроено на самом деле и почему. Если у вас есть пример того, где именно в F-35 стоит Intel Core — буду благодарен.

                    куда логичней защитить корпус истребителя, а не отдельные компоненты его начинки
                    Это логично, но невозможно, потому что корпус самолета из метрового слоя воды в оболочке из графита не очень получится. Поэтому и надо защищать начинку.
                      +1
                      Осмелюсь влезть в вашу дискуссию. Странно, что в статье упоминается «ширпотреб», который вряд ли на МКС сможет работать. Про ECC — важнейший компонент, тоже не упоминается, а без этого прошивка не долго проработает. Лично в моё поле зрения попадала продукция micro-rdc.com, PowerPC, 1986В е8T. SpaceWire вроде в моде для больших потоков данных с датчиков/камер.
                        0

                        Гм, а зачем метр воды? Я бы вполне рассчитывал на что-то типа антинейтронного надбоя (на наших танках такой был когда-то).

                          +1
                          Полиэтин с примесями бора, он же антинейтронный надбой — это поглотитель медленных нейтронов, актуальный для атомной бомбы. Для атмосферных нейтронов с более высокими энергиями нужен еще замедлитель, чтобы поглотитель начал работать. На АЭС для этой цели используется вода. Более того, она и низкоэнергетические нейтроны поглощает (с чем на АЭС надо бороться, например, используя тяжелую воду вместо обычной), то есть прямо всем хороша. Да и про метр я наврал, воды надо всего сантиметров пятнадцать, это ничего по сравнению с двумя метрами свинца. Правда, надо будет как-то решать проблему перегрева)

                          А так да, куда логичней защитить корпус истребителя, а не отдельные компоненты его начинки.

                          Также полиэтиленовый антинейтронный надбой очень хорошо горит.
                            +1
                            Само собой, защита от атмосферных явлений — история отдельная. Я говорил сугубо о защите от ядерного взрыва, где вода не нужна. Тут дело в том, что защита от атмосферных явлений в любом случае стоит в повестке всякого разработчика авионики, а вот от ядерного взрыва — не у всякого. Тем более, что от характерного для взрыва мощного потока нужно защищать не только и не столько электронику. И тут надбой как раз помогал бы, если бы не был так тяжел. Горючесть как раз представляет собой не такую большую проблему ИМХО, тем более, что добавки помогают, а широкая общественная надбоебоязнь скорее проистекает из популярных в последние два десятилетия рассказов из серии "… как руками без кожи защелку искал командир...".
                            0
                            (на наших танках такой был когда-то).
                            А вы попробуйте вначале танк в воздух поднять ;)
                              0
                              Он не очень тяжелый. Топлива просто можно взять поменьше )))
                      +3
                      Пример в виде камеры Adlink как то не уместен. Эта камера для машинного зрения в АСУТП, а в военной технике используются немного другое оборудование.
                        0
                        Так ведь на западе военная техника — очень либеральна (если так можно выразиться). Вот вырезка из «Global Horizons // United States Air Force Global Science and Technology Vision. 3.07.2013» — относительно того, какое оборудование используется в военной технике:

                        Все компоненты, из которых состоит современная американская военная техника – 1) либо изготовлены на заказ, 2) либо кастомизированы из доступных коммерческих продуктов, 3) либо представляют собой коробочное коммерческое решение. При этом во всех этих трёх случаях производители, либо отдельных компонентов, либо всей системы в целом, – имеют сомнительную родословную, которая как правило берёт своё начало за пределами страны. В результате есть риск, что в каком-нибудь из звеньев цепи поставок (которая зачастую по всему миру растянута) – в программно-аппаратный компонент встроят бэкдор или малварь (либо на программном, либо на аппаратном уровне). Кроме того, известно, что американские ВВС используют более 1 миллиона контрафактных электронных компонентов, что также увеличивает вероятность появления на борту вредоносного кода и бэкдоров. Не говоря уже о том, что контрафакт это как правило некачественная и нестабильная копия оригинала, – со всеми вытекающими.
                          0
                          Конечно можно использовать в некоторых случаях коммерческие решения. Даже термин есть для таких случаев — Commercial Off-The-Shelf(COTS). А ещё нужно, при выборе такого решения, «включать» голову.
                            0
                            В России с этим вообще беда. До недавнего времени можно было использовать компоненты Xilinx, TI и прочих Teledyne. Теперь — только отечественное ;), например лицензионные ARM (НИИЭТ, ЭЛВИС и др.), берущие начало… Есть отечественные FPGA. А вот микросхем памяти типа DDR3 нет и еще много чего нет.
                            Вот так у нас в Ростехе с либеральностью.
                            Есть отдельные критические области, где гарантировано отсутствие «закладок». Там и сейчас производятся и используются аппаратно-программные «мастодонты», но их вес не позволит им подняться в воздух.
                              0
                              А вот микросхем памяти типа DDR3 нет и еще много чего нет.
                              Все силы ушли на десяток разных микропроцессорных и микроконтроллерных линеек, не до памяти)
                              «Много чего» все хотят, но никто не хочет давать денег на разработку, даже на то, что, в отличие от DDR3, можно нормально производить на имеющихся в России технологиях.
                                +1

                                Ну, лицензионных армов шиш да ничего в сравнении с "совсем почти своими" реализациям MIPS (кстати не знаю, у Элвиса она насколько "своя" — Панчул говорил, что они ядро купили, но не сказал, какое именно). Так что все не так и страшно с этими лицензиями, если бы конечно не тот факт, что, да, все силы ушли на процессоры.


                                А насчёт Теледайна — и чем же это его продукция теперь заменяема?

                                  +1
                                  По teledyne, могу сказать только про твердотельные реле (например sc75-2sh). Ничем они напрямую не заменяются, т.к. там защита + статус срабатывания. Есть наши оптроны, но в них нет защиты по току, и макс. ток в 2 раза меньше.
                                  Элвис ВМ14Я, из его мануала:«2-х ядерный когерентный кластер ARM Cortex-A9 MPCore c SIMD сопроцессорами NEON, два DSP-ядра, совместимых с DELcore, аппаратно-программный графический акселератор MALI-300»
                                    0
                                    Вот-вот, это как раз один из немногих примеров.
                                    0
                                    Вы и количество АРМов недооцениваете (Миландр, НИИЭТ, Элвис, Модуль и это, кажется, не все), и «свои реализации почти МИПС» в последнее время стали лучше и разнообразнее.
                                      0
                                      Одно изделие у НИИЭТ, одно у Элвиса — внезапный отзыв лицензий у них хозяевами IP вряд ли скажется на военной аппаратуре как-то критично, поскольку упомянутые изделия кмк не имеют пока особенно широкого применения в этой области. С Миландром конечно хуже, у них целая линейка и все «в ходу», но мне показалось, что у них какая-то хитрая схема лицензирования IP (судя, например, по тому самому «RISC-ядру», которое потом оказалось совместимым с M1). Вот про Модуль я просто забыл, каюсь — у них много АРМов, всяких разных, и все их изделия «в ходу», так что если вдруг и их решать «захуавеить», то возможны проблемы.
                              0
                              Я правильно понимаю что теперь программисты будут:
                              1. Сначала программировать кастомную логику, порты и прочую периферию.
                              2. потом прописать конфигурации для типовых дизайнов FPGA
                              3. потом писать новый компилятор, который сможет раскидывать код между PLA/FPGA/GPU/CPU (c учетом описанных ранее конфигураций и прошитой логики) и туллкит для управления всем этим

                              и вот потом можно будет наконец написать программу под этот конкретный зоопарк устройств, в которой сможет появиться эта синергия?

                              Т.е. получаем наборную HW платформу и под каждую такую платформу пишем компилятор и тулкит (наверно это можно автоматизировать частично). Но вот программистом таких систем я не позавидую — каждый новый проект — новый зоопарк тулкит и новая программная среда.
                                0
                                По поводу пункта 3, задача автоматической «раскладки» на девайсы вроде ещё не решена в полной мере. Есть пару реализаций OpenCL (у Intel и у Xilinx), которые делают примерно то, что вы описали, но даже они далековаты от идеала. Вряд ли каждая команда будет делать такую работу заново и самостоятельно.
                                  0
                                  В софте от Xilinx-а сделано проще (для SoC-ов «Zync» где ARM-ядра и FPGA соединены AXI-шинами).
                                  1) Пишется С-код, компилируется под ARM (крутится всё на bare metal или даже на каком-нить linux-е).
                                  2) Выбираются (программистом, на основе профилирования) функции, которые надо перекинуть в FPGA и на них «ставится галочка».
                                  3) Софт синтезирует HDL-код FPGA-ускорителей для этих функций и заменяет в С-коде их вызовы на интерконнект (DMA через AXI) с соответствующими ускорителями.
                                  Это идеальное описание. А на практике:
                                  • надо писать код, который планируется переместить в железо, с разными ограничениями
                                  • нужно выполнить много итераций синтеза, прежде чем получится что-то хорошее по степени параллелизации/задержкам/занимаемым ресурсам FPGA
                                  • в итоге софт будет мучительно долго делать place & route для FPGA-части и с большой долей вероятности не сможет поместиться в нужный размер или достигнуть нужной частоты

                                  И вся эта деятельность подразумевает, что условный программист таки умеет в HDL и мыслит в аппаратных категориях, пусть и избавлен от необходимости самому писать HDL-код.
                                  Но само направление движения вполне правильное на мой взгляд. Жаль только, что Xilinx, судя по всему, закроет это направление и оставит только альтернативный вариант с взаимодействием процессорной и FPGA-части через одно место OpenCL, для которого больше ограничений и телодвижений.
                                  Впрочем, нет ничего идеального в нашем мире.
                                    0
                                    Есть еще такие проекты, в которых используется связка CPU — FPGA, соединенная, например через EMIF. Тогда разработчики (программист и HDL-инженер), сообща решают кто и что будет реализовывать, и каков интерфейс между программой и жесткой логикой. В некоторых случаях, для расширения функционала, при ограниченности ресурсов FPGA, может использоваться загрузка различных проектов в FPGA во время работы.
                                      0

                                      GPU скорей всего скоро выпрут отсюда. Останутся только FPGA + CPU.

                                        0
                                        По плотности FP-операций на квадратный миллиметр кремния вряд ли что-то может победить GPU. Даже если представить себе FPGA, в который будут добавлены аппаратные элементы для FP-операций, там слишком большой оверхед всяческих коммутационных матриц и логики. Так что сомнительно, что GPU куда-то выкинут. Разве что отрежут ненужные элементы типа растеризаторов, но сам вычислительный массив в своей области применения заменить нечем.
                                      +2

                                      Хочу спросить вот что — а каков основной посыл статьи для целевой части местной аудитории?

                                        +1

                                        Биткоины скоро станет майнить проще и дешевле.

                                      Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                      Самое читаемое