All streams
Search
Write a publication
Pull to refresh
5
0
Виктор @VGusev2007

Пользователь

Send message
Тогда один контейнер LXC может повалить целый хост, если его не ограничить по памяти и диску.
Это самая главная проблема VNC, и о ней Вы не упомянули вначале статьи. TV, как раз хорошо работает на слабых каналах. :(
Я немного про другое… Возможно я перепаниковал… Но читая разные источники, пришёл к выводу, что используя локальные уязвимости ОС, возможно выполнить вредоносный код из-под кого угодно на поражённой машине, не зная пароля пользователя. Я не прав?
Не очень понятно из статьи…

Если вирус получит каким-либо образом права пользователя входящего в группу Administrator, в AD, то через psexec, он положит всю сеть и ему не нужна даже будет уязвимость в протоколе SMB?
Скорее весьма удивлён (не приятно). :(
Мне прислали договор от Контура. А сам Контур уже имеет договор с Эватор. Хорошо если в Вашем случае было по другому. В общем нужно ухи в остро держать что называется…
Учтите, что налоговая Вас завернет в случае личной явки. По закону, договор должен быть заключен с ОФД, и только с ОФД. Контур не является ОФД.
А как спасёт NAT, если через эл. почту произошло заражение одной машины, а затем перекинулось на другие? Ровным счётом — никак.
Благодарю! Последнее что мне не до конца ясно, это от чего я должен отталкиваться при расчетах размера l2arc устройства. От размера ARC, или от размера arc_meta_limit?

Если от arc_meta_limit, выходит:

ARC = 4GB
arc_meta_limit (25% от 4GB) = 1GB
volblocksize = 8kb


По формуле выходит 40GB — максимальный размер l2arc, если отталкиваюсь от arc_meta_limit.

Как понять сколько у меня реально испольузется l2arc? Всё же, arc_meta_used, насколько я понял, косвенный параметр.

За сим откланяюсь, больше не буду приставать с вопросами. Ответы на эти вопросы ищу с 2013 года, но так внятности не получил. По этому очень рад возможности спросить у компетентного разработчика!

Вообще, это тянет на отдельную статью на Хабре.
Ведь есть ещё вопрос по размеру zlog, там я понял чуть проще, размер должен быть таков, чтобы максимум за 5-10 секунд туда успела влезть вся запись с режимом sync.

Спасибо!

Добрый день, огромная благодарность за уделенное внимание! Крайне приятно общаться с разработчиком напрямую.

Если я верно понял, то у товарища из треда не удалялся mirror устройство, после чего, он получил объяснение, что это может происходить из-за не достатка памяти в ARC и слишком большого l2arc.

В следствии чего, он получил рекомендацию или увеличить ОЗУ для arc, или уменьшить разделы l2arc.

Если я Вас понял верно, то для 4GB RAM отведенного под ARC, мне следует ограничить l2arc размером в 60GB, тогда, в среднем, у меня будет уходить для l2arc не более 2gb RAM + 1 GB будет оставаться для собственно ARC и 1 GB под vfs.zfs.arc_meta_limit. При этом, vfs.zfs.arc_meta_limit мне не следует трогать.

Все ли верно понимаю?

Релиз 0.7, пока мне рановато применять, так-как планирую zfs в продуктивную установку.
Огромная благодарность за развернутый ответ. Осталось развеять только один вопрос. Что конкретно означает фраза:

на 100гб L2ARC потребуется около 2.5гб ОЗУ

Эта область ОЗУ сама будет забираться из ARC? Или максимально отводимая область под l2arc, будет регулироваться параметром: vfs.zfs.arc_meta_limit?

Кажется, да, Вы не ошибаетесь. :( В общем, zfs on linux по-прежнему расстраивает (патч был представлен ещё в 2015 году).

По калькулятору совсем не понял схему рассчётов, что-то зависит от размера блока записи, от типа записи. Но, я если честно (в силу отсутствия опыта и понимания всей картины в целом), не могу правильно аплицировать это на виртуализаию (в моём случае proxmox). Как будет вести запись вирт. машина — не знаю. Да и машины — разные.

Пока хочу попробовать под ARC отвести 2-3 гб., после чего смотреть процент попадания в l2arc. К сожалению, сервера не имеют физической возможности расширения ОЗУ.

Как Вы считаете, подобный подход имеет право на жизнь?
пока L2ARC не сохраняет состояние между перезагрузками, и каждый раз требует «прогрева».
Вы уверены? Насколько я понял что это уже исправлено. Мои беглые тесты, показали, что l2arc — используется после перезагрузки. Вроде на баг треккере уже закрыты тикеты которые вопрошали об этом.
gmelikov, насколько я понимаю, четверть из ARC отводится под метаданные для L2ARC. Я хотел бы использовать как можно больше l2arc, и как можно меньше отводить под ARC.

Насколько оправдано на сервере виртуализации, использовать 2gb ARC (с настройками по-умолчанию) + 80GB l2arc? Каким образом в подобной ситуации (с минимальным размером ARC) достигнуть максимума использования l2arc?

Спасибо!

Ну так и есть. Для старых ОС, критические обновления выпускаются же. А за мелкими дырами хакерами уже не выгодно гоняться.
Речь не о частоте, речь о задержках в шине, которая по словам ребят из кингстона не имеет разницы, а вот по словам видео-блогера, очень даже имеет, что они и доказывают на видео.
Kingston_Technology, слышал мнение что у SATA II, якобы задержки выше, а значит скорость случайных операций ввода-вывода в два раза ниже чем у SATA III. Не правду говорят? Вроде и бенчмарки показывают. Вот могу привести пруф-линк: https://youtu.be/49Ku2eTNGUk?t=234 не поленитесь, посмотрите минутку, тот же CrystalDisk Mark показывает двойную просадку на случайном вводе-выводе. Могли бы что-то прокомментировать?

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity