gRPC создан для работы через HTTP/2, а это HTTPS, не получится выполнять классическую детерминацию на прокси (Ingress), придётся возиться с сертификатами там, где с ними обычно никто не возится
Ложное утверждение, всё прекрасно терминируется и HTTP/2 допускает нешифрованный трафик.
А, да, при этом сгенерированные модули практически не читабельны и потребуют модификации (как минимум потому что там могут быть некорректно указаны импорты, как максимум - линтеры не пропустят).
Если нужно модифицировать эти файлы, то вы делаете что-то не так.
Корень зла состоит в том, что Хабр не сделал в своё время функционал по занесению денег от обычных пользователей. Из-за этого он уговаривают компании платить за корпоративные блоги, а в компаниях сидят "СММемщики", у которых есть внутрикомпанейские критерии качества, в которые качественный контент не входит.
Почти все языки развиваются комитетом, которые мониторят список востребованных фичей и выбирают что из них включать в следующую версию. Видимо этот тип не нужен.
Идеологически очень похоже. Но как я вас понял и смешал это со знаниями из статей получается следующее:
В Dataflow архитектуре проверяется наличие данных на входе или на выходе из других операций. Для этого к значению в памяти прикрепляется тег назначения. При проставлении каждого нового тега исполнительное устройство проверяет можно ли запустить ещё какие-либо операции на выполнение. Выполнение операций генерирует другие тегированные значения.
В мультиклет архитектуре компилятор расставляет операции по ярусам, в ярусе всё можно гарантированно выполнять одновременно. Аргументы для операции находятся тоже в тегированной памяти, похожей как и в Dataflow.
Выполнение операций тоже генерирует другие тегированые значения. Когда все операции в ярусе выполнены, исполнительное устройство переходит к следующему ярусу.
Вот и получается, что они очень похоже, только в Dataflow значения проталкиваются в операции исполнительным устройством, а в мультиклет данные вытягиваются для операций.
Всё верно.
В sys.path надо дописать папку
Не проверять файлы линтерами, это не ваши файлы и они не делаются вручную
И в обоих пунктах нет никаких проблем, это я вам как перфекционист говорю. Перфекционизм он только для своей работы, а не для чужой.
Ложное утверждение, всё прекрасно терминируется и HTTP/2 допускает нешифрованный трафик.
"""
"Надо меньше жрать" не работает. Как не работают советы "Надо меньше пить", "Надо меньше курить", "Соберись тряпка" и "Надо меньше есть сахара".
""" Доктор Утин
https://www.youtube.com/watch?v=sLpAeC3WIUo
Если нужно модифицировать эти файлы, то вы делаете что-то не так.
Например одностороннее переименование полей и добавление полей, без необходимости обновлять клиенты.
Корень зла состоит в том, что Хабр не сделал в своё время функционал по занесению денег от обычных пользователей. Из-за этого он уговаривают компании платить за корпоративные блоги, а в компаниях сидят "СММемщики", у которых есть внутрикомпанейские критерии качества, в которые качественный контент не входит.
Складывается впечатление, что все конференции интересные и полезные, и только в организационной части разные.
Да всем плевать продаёте или нет. Существуют правила вежливости на ресурсе, кликбейт не проходит вне зависимости от полезности контента.
Дело исключительно к неприятию любого кликбейта.
Тест на трипофобию статья не прошла.
Зашёл посмотреть на самоубийство автора.
странно что вы тут отписали, но в статье до сих пор не исправили.
Какое-то странное разрешение.
Минимальное и дефолтное разрешение было 320x200 и 256 цветов.
Почти все языки развиваются комитетом, которые мониторят список востребованных фичей и выбирают что из них включать в следующую версию. Видимо этот тип не нужен.
Так это, а второй под получил Volume в режиме ReadOnly? А как указать какой Pod должен получить Write права при рестарте всего приложения?
Есть какой-то ресурс на подобии godbolt для мультиклета и dataflow?
Пока не до конца ясно, за что вы топите. Зайдём с другой стороны.
Вот граф расчёта корней квадратных уравнений:
Из статьи: // Dataflow-архитектуры. Часть 1 https://habr.com/ru/articles/122479
Вот другой граф:
Из статьи: Мультиклеточный процессор — это что? https://habr.com/ru/articles/226773/
Идеологически очень похоже. Но как я вас понял и смешал это со знаниями из статей получается следующее:
В Dataflow архитектуре проверяется наличие данных на входе или на выходе из других операций. Для этого к значению в памяти прикрепляется тег назначения. При проставлении каждого нового тега исполнительное устройство проверяет можно ли запустить ещё какие-либо операции на выполнение. Выполнение операций генерирует другие тегированные значения.
В мультиклет архитектуре компилятор расставляет операции по ярусам, в ярусе всё можно гарантированно выполнять одновременно. Аргументы для операции находятся тоже в тегированной памяти, похожей как и в Dataflow.
Выполнение операций тоже генерирует другие тегированые значения. Когда все операции в ярусе выполнены, исполнительное устройство переходит к следующему ярусу.
Вот и получается, что они очень похоже, только в Dataflow значения проталкиваются в операции исполнительным устройством, а в мультиклет данные вытягиваются для операций.
Ну по сути отличия в PUSH/PULL подходе.
А почему приходит в оба мастера?
Ну не попадают сейчас, попадут после судебного иска, что компания следует букве закона, а не его сути.