Комментарии 8
Интересное послевкусие после Edge, наверное да, его лучше в формате гибрида использовать. Десятки версий контейнеров, разрозненные прошивки и фрагментированная телеметрия превращают периферию в чёрный ящик.
Я слышал, что эксперты для этого применяют GitOps-подходы с ArgoCD, Push-мониторинг через Prometheus Operator, но насколько это помогает остается загадкой. поэтому, хотелось бы обсудить пару практических моментов: где именно отрубать умные алгоритмы на краю, а где оставляете их в облаке, чтобы не ловить «зомби-баги» на сотнях нод? И как словить этот баланс важности. Скорость реакции (милисекунды) или стабильность и управляемость сотен нод.
Я бы послушал реальные кейсы и инструменты, которые помогают не только запускать, но и поддерживать Edge-решения в рабочем состоянии, кто сталкивался?
В статье как раз и был акцент на том, что edge без облака не тянет: не хватает одного, прозрачно-наблюдаемо-гибкого масштабирования. GitOps + ArgoCD тут не идеал конечно, но дает держать desired state в гите и катить изменения без ручной рутины.
Все упирается в баланс — push-подход с Prometheus — ок, но на больших кластерах становится шумным, особенно без нормальной агрегации на краю. Можно получить телеметрию вида «что-то где-то сломалось, но метрики на месте»
Что до зомби-багов — тут помогает фичефлагинг и канареечные релизы с rollout-хуками по SLA. А по поводу где отрубать — ориентир простой: если реакция важнее консистентности, значит логика должна оставаться на краю. Все остальное — в облако, на повторное использование и контроль.
Ну и да, если у вас все всегда стабильно — скорее всего, оно просто давно не обновлялось)
Теоретически он наверное больше для 6G-эпохи. Локальные вычисления, низкие задержки, а в браузере даже рекламу блокируют через edge://flags. Вот только пока он сильно потребляет CPU (мне кажется даже видеокарта стонет), сложно представить, как он будет справляться с «умным» домом будущего. Может, сначала научим его не тормозить в «ЭТОМ» доме?
Впечатление что Edge иногда работает как будто у него два GPU и три душевых кризиса. Но кто сказал, что будущее без багов XD
Пока edge-устройства не получили спец ускорители, такие как NPU или TPU, они часто перегреваются, потребляют много энергии и не так хороши, как о них говорят, но все впереди. Это часть гибридной архитектуры.(часть команды, часть корабля)
И опять таки, дедлайновые операции — на краю, тяжёлые вычисления — в облаке. Иначе рискуем получить не умный дом, а дом психическим расстройством..
Обычно данные сначала летят в далёкий ЦОД, там их «обмозговывают», а потом отправляют обратно — удобно, но не всегда достаточно быстро.
Это мы про какие производства сейчас говорим? Сколько работаю, любая обработка, в том числее CV, выполняется, или прямо на линии (в вашей терминологии "станок который вот вот сломается"), или в цехе. Но чтобы обработка была где-то в облаке - такого не пропомню.
Не могли бы вы рассказать с примерами (простите "кейсами") реально существующих предприятий, в каких задачах есть облака?
Всё это сырое видео — гигабайты в час, если не в минуту, генерируется через IoT-устройства
Камеры фиксации ПДД кидают только фотку с нарушением и уже распознанным гос-номером.
ИМХО, стоимость обработки в облаке для РФ есть смысл только для совсем уж мелких сетей, где действительно сервер не окупится.
Это мы про какие производства сейчас говорим?
Речь скорее о крупных производствах, где CVшную аналитику выполняют прямо на линии или в локальной сети, а облако привлекают для глобальной агрегации, тренировки моделей и CI/CD-управления. Ниже — реальные кейсы для наглядности:
Есть заводская площадка Siemens Electronics в Амберге, внедряющая Industrial Edge + MindSphere на AWS. Edge-приложения фильтруют и агрегируют данные в реальном времени, а в облаке тренируют цифровые двойники и строят сквозную аналитику. В результате удалось повысить общую эффективность оборуд.(OEE) до 85% и сократить простои примерно на 20%.
Подразделение GE Power, которое на Predix в AWS через Kinesis и EMR обрабатывая до 20 миллиардов тегов сенсорных данных. Облачные ML-модели им снизили расходы порядком, скорее всего в несколько млн зеленых.
BMW Group как автопроизводитель использует AWS IoT Hub и SageMaker для обработки 10 ТБ данных ежедневно от 1,2 миллиона автомобилей, тренировки ML-моделей. Теперь у них инсайты в реальном времени.
ExxonMobil — компания в нефтегазе, стримит данные буровых колонн в AWS IoT Core. Облачные симуляции оптимизируют режимы бурения и теперь новые скважины на 40 % быстрей строят. по этому примеру информация кнш ограничена но тут похожее есть
Вот и получается, что облако в этих сценариях в роли большого брата отвечает за долгосрочную агрегацию, тренировку ML-моделей и CI/CD-управление fleet-ом edge-устройств, чтобы у нас была одна «истина» и масштаб.
Тут бы конечно развить тему про MEC, AI-RAN, mobility management, двойников устройств
Что убивает ваши IoT-проекты — и как Edge это исправит