Ассемблер мертв дважды, а то и трижды.
Первый раз его убили переписав Unix на Си, что было неслыхано — писать ядро ОС не на ассемблере. Но цена труда программиста оказалось выше чем производительность.
Второй раз ассемблер убили микроконтроллеры. Раньше все было просто и понятно — функционал просто не влазил в 64к памяти программ (или еще в меньший объем). Но даже AVR уже был оптимизирован под Си, а ARM уже даже не только под Си, но под операционные системы.
Ну и последний бастион для Ассемблера, что я встречал — в Скайпе была команда пишущие ассемблерные вставки кодеков. Только Скайп разогревает телефон, когда FaceTime держит айфон холодным. Все потому что ассемблер не нужен. Битовыми числодробилками должен заниматься хардвер, а не софтвер на ассемблере.
(лично я годами писал профессионально на нескольких ассемблерах. Умею но больше не хочу)
если принять версию что шесть транзисторов занимает в шесть раз больше площади кристалла, то с одной пластины выйдет не в шесть раз меньше чипов, а а еще меньше. Потому что всегда в техпроцессе и на пластине есть неоднородности и чем больше кристалл, тем выше вероятность брака и, соответственно, процент выхода годных чипов с одной пластины драматически падает с увеличением размера чипа.
Условная фотоматрица для телескопа дорогая еще по тому что брак там зашкаливает.
Навскидку эта задача нормально решается только аппаратно: чернобелая матрица с глобал-шаттером и ИК-подсветка. Без этих компонентов — в реальной жизни будет сплошное разочарование.
На меня однажды снизошло откровение: как сравнить производительность разных процессоров общего назначения, вне зависимости от архитектуры, частоты, количества ядер и года выпуска и так чтобы не ошибиться, хотя бы более чем на порядок?
Не, ну а что, маркетологи показывают нам гигагерцы и гигабайты, только почему-то ноутбук с большим числом ядер сливает декстопу и так далее.
Ну так процессор страны-НАТО. За Квалком нужно платить (NXP и Freescale это Qualcomm).
Кстати, процессор хоть и 14 nm но греется как утюг на ровном месте (смотрел на google coral). RK3399 — это 28 nm.
Ну и Pinebook это условно-работающие изделия с околонулевой маржой. Никто не гарантирует что хоть что-то будет работать хорошо, все на комьюнити.
Но ХэллоуВорлды так не пишут. Вы отдельно собирали из исходников bazel, opencv, что не отражено в статье.
Для желающих запустить примеры — проще всего восстановить в файле WORKSPACE:
Первый раз его убили переписав Unix на Си, что было неслыхано — писать ядро ОС не на ассемблере. Но цена труда программиста оказалось выше чем производительность.
Второй раз ассемблер убили микроконтроллеры. Раньше все было просто и понятно — функционал просто не влазил в 64к памяти программ (или еще в меньший объем). Но даже AVR уже был оптимизирован под Си, а ARM уже даже не только под Си, но под операционные системы.
Ну и последний бастион для Ассемблера, что я встречал — в Скайпе была команда пишущие ассемблерные вставки кодеков. Только Скайп разогревает телефон, когда FaceTime держит айфон холодным. Все потому что ассемблер не нужен. Битовыми числодробилками должен заниматься хардвер, а не софтвер на ассемблере.
(лично я годами писал профессионально на нескольких ассемблерах. Умею но больше не хочу)
Условная фотоматрица для телескопа дорогая еще по тому что брак там зашкаливает.
Это то на чем могут выстрелить сервера с ARM. Если нужен только inference, а не training, то Nvidia не нужна.
Не, ну а что, маркетологи показывают нам гигагерцы и гигабайты, только почему-то ноутбук с большим числом ядер сливает декстопу и так далее.
Ответ: производительность тупо пропорциональна потребляемой мощности.
То есть если Эльбрусий жрет меньше в пять раз Интеля и в несколько раз более рапберри пай, то и производительность будет соответствующей.
Кстати, процессор хоть и 14 nm но греется как утюг на ровном месте (смотрел на google coral). RK3399 — это 28 nm.
Ну и Pinebook это условно-работающие изделия с околонулевой маржой. Никто не гарантирует что хоть что-то будет работать хорошо, все на комьюнити.