В облачных АТС кстати есть смысл, притом весьма себе…
Другой вопрос, что приходящие новый админ, говорящий, что всё старое овно, должен быть поставлен под сомнения, ну или должны быть резкие аргументы у него
Когда я менял астер на облачную АТС, расходы на связь упали втрое, ну просто кучу схем ушло левых и ненужных. А ещё на слуху связка kx-tda и астера на 50 пользователей))
Никакого колхоза)))
То ли дело появилась потребность в изучении phpmyadmin и кучи других)
А потом кучу вопросов как бекапить и в случае чего восстанавливать
Aws по идее тоже не нужны админы, только оказалось, что админ для aws стоит как самолет
Реальный прорыв был готовые сайты, но и там чтобы сделать что-то годное нужно нехило повозиться…
Это нужен или стек А-ля с супер быстрой межсвичевой связью или строить не lacp а иное.
Иногда это называют mlag, но без быстрой связи свичей у вас в этой связи пойдут проблемы, т. К неизвестно из какой в какую дырку уйдёт это,, т. Е часто будет дырка в разных свичах
Далее, вместо lacp лучше строить ospf, это понизит латенси, повысит скорость и уберёт нагрузку с этого узкого горлышка
Комметарий конечного потребителя, Который только что выбирал подобную железку
1е такую продукцию нужно уводить в отдельный бренд, вы уж извините, но tp-link ассоциируются с дешовыми домашними железяками, уж явно не 24*7
2е Отсутствие стека делает эту железку уровня офисной стойки, и то со многими но…
3е совет давать к этой железке сразу шаблон zabbix ), маркетинговый ход такой, стоит копье
4е 1бп… для такого решения это почти смешно, изза этого 350 и 550 отказался брать, отказ кулера-бп в одиночном кол-ве частая тема.
Я мигрировал с vmware sphere 6.5 на kvm
Proxmox, вы скажем так недосмотрели, моё мнение, виртулки с простое 5-7 минут запускали т в новой среде. Без миграция дисков и т. Д проблем за 5летнюю историю не обнаружено
с 4 ядрами и 6 ГБ, 30 пользователей…
То ли дело голая ubuntu+ospf, bgpas, openvpn server, 1gb-c с тысячами юзеров каждый день, и видеопотоки (кучу мультов в fullhd)
И все это на 2 виртуальных ядра, 4 гига и 10gb диск.
Такие статьи должны уйти в прошлое, не дождусь уже когда сделают утилиту или скрипт оптимизатор
Всё простые истины вроде и укладываются в if else…
Запись метрик тоже не сложна, да и дёргать несложно
В чем вопрос такое сделать, я даже не знаю…
https://m.habr.com/ru/post/458390/
Тут описывается схема с ospf, которая теоретически дает всю нагрузку, в отличии от lacp
Понимаю давно писали, но может пригодиться.
Когда я использовал, была ситуация, когда ssd в ноль почти убился, естественно что там в итого с данными...., благо реплика была postgresql. У ssd 70% места было мертво, но система не видела проблем.
Ну такой вот опыт у нас…
В облачных АТС кстати есть смысл, притом весьма себе…
Другой вопрос, что приходящие новый админ, говорящий, что всё старое овно, должен быть поставлен под сомнения, ну или должны быть резкие аргументы у него
Когда я менял астер на облачную АТС, расходы на связь упали втрое, ну просто кучу схем ушло левых и ненужных. А ещё на слуху связка kx-tda и астера на 50 пользователей))
Никакого колхоза)))
То ли дело появилась потребность в изучении phpmyadmin и кучи других)
А потом кучу вопросов как бекапить и в случае чего восстанавливать
Aws по идее тоже не нужны админы, только оказалось, что админ для aws стоит как самолет
Реальный прорыв был готовые сайты, но и там чтобы сделать что-то годное нужно нехило повозиться…
А может есть какая-то утилита, которая делает анализ производительности и выводит список рекомендаций по настройке основных параметров?
DHCP relay, к примеру, появится на коммутаторе T2600G-28TS
Цитата ваша 2годичной давности.
https://m.habr.com/ru/article/331198/comments/
Я понимаю ip6, но блин каждой мелкой фичи ждать…
Не думали просто все на openwrt делать, заодно внести вклад в развитие open source
Это нужен или стек А-ля с супер быстрой межсвичевой связью или строить не lacp а иное.
Иногда это называют mlag, но без быстрой связи свичей у вас в этой связи пойдут проблемы, т. К неизвестно из какой в какую дырку уйдёт это,, т. Е часто будет дырка в разных свичах
Далее, вместо lacp лучше строить ospf, это понизит латенси, повысит скорость и уберёт нагрузку с этого узкого горлышка
Пишу с телефона, возможны ошибки
Комметарий конечного потребителя, Который только что выбирал подобную железку
1е такую продукцию нужно уводить в отдельный бренд, вы уж извините, но tp-link ассоциируются с дешовыми домашними железяками, уж явно не 24*7
2е Отсутствие стека делает эту железку уровня офисной стойки, и то со многими но…
3е совет давать к этой железке сразу шаблон zabbix ), маркетинговый ход такой, стоит копье
4е 1бп… для такого решения это почти смешно, изза этого 350 и 550 отказался брать, отказ кулера-бп в одиночном кол-ве частая тема.
Когда ждать курсов?)
У знакомого Sg550 штук 10, померла большая часть, дохнет кулер и по перегреву
Т9, извините за ошибки…
Я мигрировал с vmware sphere 6.5 на kvm
Proxmox, вы скажем так недосмотрели, моё мнение, виртулки с простое 5-7 минут запускали т в новой среде. Без миграция дисков и т. Д проблем за 5летнюю историю не обнаружено
с 4 ядрами и 6 ГБ, 30 пользователей…
То ли дело голая ubuntu+ospf, bgpas, openvpn server, 1gb-c с тысячами юзеров каждый день, и видеопотоки (кучу мультов в fullhd)
И все это на 2 виртуальных ядра, 4 гига и 10gb диск.
Смотря для чего...
Такие статьи должны уйти в прошлое, не дождусь уже когда сделают утилиту или скрипт оптимизатор
Всё простые истины вроде и укладываются в if else…
Запись метрик тоже не сложна, да и дёргать несложно
В чем вопрос такое сделать, я даже не знаю…
Действительно скромно
Сюда нужно как минимум urbackup, amanda
Сразу с ип нужно)
https://m.habr.com/ru/post/458390/
Тут описывается схема с ospf, которая теоретически дает всю нагрузку, в отличии от lacp
Понимаю давно писали, но может пригодиться.
Если накатываете реплику, делая потоковую репликацию, сделайте шаред на реплики очень мелким вначале, это ускорит поднятие в разы…
Когда я использовал, была ситуация, когда ssd в ноль почти убился, естественно что там в итого с данными...., благо реплика была postgresql. У ssd 70% места было мертво, но система не видела проблем.
Ну такой вот опыт у нас…