Information
- Rating
- Does not participate
- Location
- Москва, Москва и Московская обл., Россия
- Registered
- Activity
Specialization
Системный администратор, DevOps-инженер
Старший
Git
PostgreSQL
Docker
MySQL
Nginx
Высоконагруженные системы
Bash
CI/CD
Linux
Python
Больше сложность -> больше найденных блоков подходит под условие -> блоки генерируется быстрее.
В реальности, вроде, наоборот.
Если стрелять не через тот же канал, через который осуществляется связь между нодами, то да, бессмысленно и опасно.
А если и выстрел и связь по одному линку будут проходить (грубо, 4 линка, eth+ipmi от каждой ноды, будут приходить в один коммутатор\маршрутизатор), то:
1. eсли упал только eth линк, то выстрелят оба, но у одного eth линка нет и его выстрел не дойдет до адресата;
2. eсли упали и eth, и ipmi линки, то выстрелят оба, ни один STONITH не сработает, ресурсы мигрировать не начнут.
Про кворум спасибо что напомнили. Метод «настроил и забыл» плох именно тем, что настроил и забыл. Сейчас дополню.
По полученным результатам может ничего не получиться: задача может отказаться или слишком простой, или слишком сложной.
Без нормировочной оценки или много людей «пройдет» тест или много «завалится».
Как вариант, можно попросить коллег написать подобного рода задачек, а решать самому (как заинтересованному лицу). Тогда у вас будет нормировка на вас и по своим результатам можно будет оценить кандидата.
Может быть, даже, на коллегах на работе, чья квалификация известна и может использоваться в качестве базиса для оценки уровня кандидата.
Те FPV и запись видео идут с одного источника… Понятно.
Спасибо за разъяснения.
И еще вопрос: какую камеру для FPV взяли и почему?
Я у себя очень долго боролся с паразитными движениями коптера, пока не догадался сгладить кривую радиоуправления (через GUI) и выставить DEADBAND в конфиге.
Проверьте что аппаратура на центральное положение стиков по всем каналам дает уовень сигнала 1500 (по GUI).
Проверьте что в конфигурации multiwii центральное положение стиков — это 1500.
По мне так, если тяги заменить на прямое соединение к серве (как в статье), то получается именно такой шарнир, который позволяет наклонять мотор в нужной плоскости.
Для крепления заднего мотора есть готовые решения. Вроде www.hobbyking.com/hobbyking/store/__28985__Micro_3D_Single_Axis_Thrust_Vectoring_Motor_Mount.html
А тестирование скорости интересовало в контексте сравнения с чистым NFS при равных условиях (у себя, к сожалению, мы такой тест провести не в состоянии из-за режим работы dCache).
Не занимались ли вы сравнением NFS-dCache и чистого NFS, в плане производительности (iozone, например)? Очень интересно было бы сравнить производительность.
Со случайным выбором пула «не хуже чем», возможно тоже самое. Для трансфера может выбираться перегруженный клиентами пулл. По этому мы пожертвовали симметричностью заполненности в пользу симметричности загрузки.
2.7 еще далеко. Поскольку у нас требуется безотказная работа хранилища в режиме 24/7/365, мы используем только golden release. А на 2.6 перебраться пока нет возможности. по тем же причинам.
У разных экспериментов разный подход к данным. LHCb, например, данные в Tier-2 вообще не хранит. А в ATLAS все поделено на регионы и каждый Tier-2 ходит исключительно к Tier-1 своего региона (у нас, пока, это Голландия). ALICE имеет действительно распределенное глобальное пространство, но подробностей, к сожалению, не знаю, так как с ними много не работал.
Горизонтальные трансферы — это реплицирование. Поскольку данные первичны и задачи могут прийти только туда где есть данные для них, а один вычислительный центр редко работает с одним экспериментом, важно что бы не было ситуации что некуда запускать задачи.
И сеть далеко не p2p. Трансфер всегда идет точка-точка. Данные разделены на блоки и такого что половина блока берется с одного сайта, а половина с другого не бывает (за Алису точно не скажу, поскольку они были первыми кто для установки софта на вычислительные узлы начал пользоваться торентами. Могли и к данным что-нибудь хитрое прикрутить, в плане алгоритмов).
На сервере метаданных самих метаданных нет. У него все их только спрашивают. А сама информация хранится в postgresql базе данных. На сервере метаданных живет только кэш последних запросов в памяти.
У нас не очень нагруженная система (в день где-то 10 миллионов запросов к базе, не только метаданных). Из которых 54% SELECT и 30% — начало/конец транзакций. В пике 3000 запросов в секунду.
Запросы, в среднем, обрабатываются меньше чем за 0,037 секунды (верхняя граница самых «тяжелых» запросов).
Так что база узким местом не является. Сами файлы передаются дольше.
Когда она падает — неприятно. Но мы собрали HA кластер и это перестало быть бедой.