Pull to refresh
14
0

User

Send message
и прокинуть каждый в свою виртуалку
Да, именно так и делают. Или в контейнер.
Вот тут, например, можете посмотреть в видео.
Можно и дешевле $3k уложиться, если мало устройств подключать. Да, вполне можно потратить дополнительных денег и на домашнюю высокоскоростную сеть, если она вам действительно нужна. Почему бы и нет? QNAP, MikroTik, ASUS коммутаторы с небольшим количеством 10Гбит/с портов, кабели, сетевые карты (тот же ASUS или более серьёзные производители, в продаже встречаются так же USB-C <-> 5Гбит/с адаптеры). И в NAS нужно будет карточку воткнуть как-то, так как у них у домашних редко PCI-E слоты бывают, или NAS с USB-C найти.

Если вы только один обрабатываете видео, с одного компа, то в разы проще именно для обработки использовать DAS по USB-C, а готовое видео сливать на NAS для домашнего просмотра.

Возможности Ethernet выросли сообразно времени. И 100, и 400Гбит/с есть скорости.
Ответил вам тут.
паттерн закинуть/скинуть большой файл весьма распространен
Типичный пользователь домашнего NAS использует его для бекапов и фильмов/музыки/фото. Там не нужны 10Гбит/с.

Редактирование видеороликов в 300ГБ – это явно не типичное использование NAS дома. Обычные пользователи видео снимают на мобильник, и максимум на нём же редактируют. А если и не на мобильник, то у них не по 300ГБ файлы, и тем более не потоковое RAW видео.

Если вы скажете, что 10Гбит/c вам необходимы дома для работы, то вам работа эти затраты и оплатит. Если нужны для хобби – ну на хобби легко и того больше денег потратить.
Что-то отдалённо напоминающее SR-IOV, да. Бридж со стороны сети. Вот описание: downloadmirror.intel.com/28932/eng/epct.txt
Для каких применений? 8K и 4K 360 (3D) съедают до 100 с небольшим Мбит/с максимум. Хорошо, если у вас дома наберётся больше трёх потребителей такого контента одновременно. Если вы профессиональный пользователь (например, редактируете видео, хранящееся на NAS), то у вас уж точно найдутся $3-10k, чтобы получить 10 Гбит/с.
Нет общего CI статуса для merge head.
С этим не соглашусь. Есть же checks плагин, с помощью которого у каждого, и у последнего patch set в ветке красиво виден CI статус. В общем списке patch set'ов или в списке patch set'ов ветки тоже отлично видны "✓" при пройденном CI.

С остальным соглашусь.
Устройство на фото выглядит круто, но не очень понятен функционал. Видео в шапке сайта ясности не дало, ну да ладно.

Скажите, чем не подошли уже имеющиеся распространённые варианты деплоя, такие как MaaS, Ironic, Satellite, Foreman, luna, и другие?
Хм. У нас обычно DHCP и разливка по PXE перманентно висит на одном из сетевых портов (как правило, на встроенном в материнку), не на тех, по которым production и прочий трафик ходит.
особенно высок уровень недовольства в волонтерских сообществах
То есть новички, привыкшие только к GitHub flow не хотят учить что-то другое.

однако документация по пути обновления часто отсутствует
Да ладно? И документация есть, и в блоге статьи, и можно связаться и спросить совета.

Например, для перехода с Gerrit 2 на Gerrit 3 потребовалось несколько наборов обновлений, чтобы избежать простоя в течение нескольких дней.
Надо было у ребят из GerritForge спросить совета, они без downtime'а (во всяком случае без несколькодневного downtime'а) всё мигрировали, а они держат крупнейший репозиторий.

Самообслуживание по созданию репозиториев в Gerrit реализуется с помощью пары скриптов и Git репо со списком репозиториев с их настройками в Gerrit.
Стекированные друг на друге патчи (Related changes)? Работа с бранчами? А что не так, и что улучшилось с переходом на Gitlab?
Напомнило язык программирования Ballerina. Две команды (сборка и деплой), и приложение уже запущено в кластере (в примере ниже — в Kubernetes):
ballerina build kubernetes_deployment.bal && kubectl apply -f ./kubernetes/


kubernetes_deployment.bal:
import ballerina/config;
import ballerina/http;
import ballerina/log;
import ballerina/kubernetes;
@kubernetes:Service {
    serviceType: "NodePort"
}
Service type is NodePort.
@kubernetes:Ingress {
    hostname: "abc.com"
}
listener http:Listener helloWorldEP = new(9090, config = {
    secureSocket: {
        keyStore: {
            path: "./security/ballerinaKeystore.p12",
            password: "ballerina"
        },
        trustStore: {
            path: "./security/ballerinaTruststore.p12",
            password: "ballerina"
        }
    }
});
@kubernetes:ConfigMap {
    conf: "./ballerina.conf"
}
@kubernetes:Deployment {
    livenessProbe: true,
    image: "kubernetes:v.1.0"
}
@http:ServiceConfig {
    basePath: "/helloWorld"
}
service helloWorld on helloWorldEP {
    @http:ResourceConfig {
        methods: ["GET"],
        path: "/config/{user}"
    }
    resource function getConfig(http:Caller outboundEP, http:Request request, string user) {
        string userId = getConfigValue(user, "userid");
        string groups = getConfigValue(user, "groups");
        json payload = {
            userId: userId,
            groups: groups
        };
        var responseResult = outboundEP->respond(payload);
        if (responseResult is error) {
            error err = responseResult;
            log:printError("Error sending response", err);
        }
    }
}
function getConfigValue(string instanceId, string property) returns (string) {
    string key = <@untainted string> (instanceId + "." + property);
    return config:getAsString(key, "Invalid User");
}


ballerina.conf (просто для демонстрации чтения конфига):
[john]
userid="john@ballerina.com"
groups="apim,esb"
[jane]
userid="jane3@ballerina.com"
groups="esb"
Да, что-то я маху дал. Будем считать, что там какие-нибудь Gi0/2 и Gi0/3.
Ещё одна задача вам на подумать. Задавая «ip route 0.0.0.0 0.0.0.0 s0/0/0» и «ip route 0.0.0.0 0.0.0.0 s0/0/1 5», вы сообщаете маршрутизатору, что все остальные адреса во всех остальных сетях являются непосредственно подключенными к интерфейсам s0/0/0 и s0/0/1. Что, конечно же, в реальной жизни совершенно не так, и они находятся за другими маршрутизаторами. Как вы думаете, не приведёт ли такая конфигурация к тому, что ваш маршрутизатор Edge_Router будет радостно дристать в гальюн отправлять ARP запросы с этих двух интерфейсов широковещательными запросами, при попытке обратиться к чему-либо? Какие ответы получит (или не получит) Edge_Router, что сделает, и как на это отреагирует клиент PC-A?
На практике, далеко не всегда интерфейс «падает» сам. Очень часто интерфейс продолжает быть в up / up статусе, но трафик через него уже не проходит. По-этому в вашем описанном экспериментальном случае, применённом на практике, придётся кому-то ехать и руками делать «shutdown» интерфейсу. Так как добиться надёжного автоматического переключения, чтобы не приходилось никуда кататься?
Скажите, а при отключении канала (но при этом с «живым» интерфейсом) вы собираетесь ехать в командировку в Якутск вертолётом и оленями МО РФ, чтобы ввести «shutdown» на интерфейсе? Или есть способы добиться надёжного автоматического переключения?
Эфирное/кабельное ТВ не смотрю, ТВ к сети (LAN/WAN/Internet) не подключал, пользуюсь только подключенными к HDMI AppleTV и прочими приставками.

— AppleTV подтаскивает фильмы/фотки/аудио с NAS, если нужно
— Там же на AppleTV стоят приложения нужных стриминговых сервисов
— Можно так же расшарить на него экран с телефона/компа/ноута по AirPlay
— Интерфейс встроенного в ТВ Android'а я не видел с момента покупки
— Никакой рекламы и Content Recognition/Content ID
— Всё летает, включается/выключается за пару-пятёрку секунд
— Включение/выключение ТВ и регулировка громкости выполняются с пульта AppleTV
— Штатный пульт достаю с полки только если нужно помочь ТВ определиться, с какого именно HDMI порта показывать картинку. Штатный пульт кнопочный, тач-пульт стоил отдельных денег (Sony Bravia) и я его не покупал, конечно.

Я очень доволен.

Information

Rating
Does not participate
Registered
Activity