Комментарии 36
НЛО прилетело и опубликовало эту надпись здесь
Каждый раз, читая подобное, задаюсь вопросом: годовалые и более дистрибутивы — это теперь модно? С софтом то же самое.
ЗЫ Как человеку, держащему линукс-серверы с 16 лет (мне 22) и проработавшему пару лет за Gentoo как единственной ОС на десктопе (всё это не по работе, а в личных интересах), мне страшно слышать, когда кто-то что-то важное настраивает (ну типа олимпиаду, благо не корпоративный сервис) и не может порт SSH сменить. Взяли бы винду, чтоле, раз в никсах не шарите. T_T
ЗЫ Как человеку, держащему линукс-серверы с 16 лет (мне 22) и проработавшему пару лет за Gentoo как единственной ОС на десктопе (всё это не по работе, а в личных интересах), мне страшно слышать, когда кто-то что-то важное настраивает (ну типа олимпиаду, благо не корпоративный сервис) и не может порт SSH сменить. Взяли бы винду, чтоле, раз в никсах не шарите. T_T
Спасибо за статью.
Хотя если честно, очень странно что ejudge не тянул на одном сервере 150 участников. У наc никогда с ним не возникало подобных проблем. Все работало замечательно и на большее количество пользователей. Он всегда вертелся у нас на виртуальном сервере поднтом по CentOS (то есть не было никаких поблажек по железу) и если и возникала потребность в дополнительном сервере, то только для того чтобы проверять задачи написанные на компиляторах заточенных под Windows.
В Алматы у нас 2012-ом году на заочный тур было зарегистрированно порядка 700 человек (хотя конечно реально учавствовало в 3 раза меньше). Формат был ACM, а не IOI (как я думаю у вас). Проблемы в ejudge-м всегда в его правильной настройке. Его тяжело правильно настроить и тяжело уронить, если он правильно настроен. А вот с PCMS 2 и с Contester были проблемы. Хотя Contester никогда не использовал для туров, в отличии от PCMS2. Использовали Contester только для подготовки, где он себя зарекомендовал отличной системой автоматической проверки. А вот однажны PCMS 2, будучи настроенном на обычном ноутбуке выдержал порядка 2000 посылок от участников, отлично отработал весь тур, но потом «приказал долго жить».
Хотя если честно, очень странно что ejudge не тянул на одном сервере 150 участников. У наc никогда с ним не возникало подобных проблем. Все работало замечательно и на большее количество пользователей. Он всегда вертелся у нас на виртуальном сервере поднтом по CentOS (то есть не было никаких поблажек по железу) и если и возникала потребность в дополнительном сервере, то только для того чтобы проверять задачи написанные на компиляторах заточенных под Windows.
В Алматы у нас 2012-ом году на заочный тур было зарегистрированно порядка 700 человек (хотя конечно реально учавствовало в 3 раза меньше). Формат был ACM, а не IOI (как я думаю у вас). Проблемы в ejudge-м всегда в его правильной настройке. Его тяжело правильно настроить и тяжело уронить, если он правильно настроен. А вот с PCMS 2 и с Contester были проблемы. Хотя Contester никогда не использовал для туров, в отличии от PCMS2. Использовали Contester только для подготовки, где он себя зарекомендовал отличной системой автоматической проверки. А вот однажны PCMS 2, будучи настроенном на обычном ноутбуке выдержал порядка 2000 посылок от участников, отлично отработал весь тур, но потом «приказал долго жить».
Автор же в середине статьи признался, что проверка выполнялась в один поток. А при фиксированном тайм-лимите мощность сервера в таком случае становится уже не важна.
Я писал про настройку ejudge-а, а не про мощность железа. Железо было обычное, на сколько вообще может быть обычным железо. Если вы про «ноутбук», то там стояла другая система для проверки PCMS 2, и это совсем другой «случай» в огранизации олимпиад по спортивному программированию.
Хотя если честно, очень странно что ejudge не тянул на одном сервере 150 участников. У наc никогда с ним не возникало подобных проблем.Вот я и говорю: поставьте проверку в один поток — проблемы сразу появятся.
Я думаю все же не появятся проблемы. Как минимум из-за формата ACM. Там не нужно все тесты прогонять как при IOI, как только есть тест на котором валится отправленное решение, дальше оно не проверяется и начинается проверка следующего по очереди решения.
Формат ACM отличается от текущего тем, что проверка решения останавливается на первом же TL. Тут же надо было ловить TL 24 раза на одно решение.
Все правильно, я так и написал тут.
Кстати, любопытный вопрос: а тайм-лимит вы не меняли, когда проверку перенесли с сервера на ноутбуки? Это могло повлиять на результат соревнований…
ноутбуки были довольно мощные (4х ядерные core i7)
да и авторские решение более чем с запасом укладывались в 0.5 с
поэтому не меняли
да и авторские решение более чем с запасом укладывались в 0.5 с
поэтому не меняли
К слову, оно могло повлиять в обе стороны… Кстати, было ли выключено энергосбережение на ноутбуках?
Да, все ноутбуки были переведены на режим «Сбалансированный»
В настройке электропитания отключение дисплея и переход на спящий режим поставил «никогда»
Кстати, там обновления очень сильно просились, благо, я вовремя заметил, иначе 3-5 ноутов(а может и все) ушли бы глубокую перезагрузку.
В настройке электропитания отключение дисплея и переход на спящий режим поставил «никогда»
Кстати, там обновления очень сильно просились, благо, я вовремя заметил, иначе 3-5 ноутов(а может и все) ушли бы глубокую перезагрузку.
Пожалуйста, пишите мне в любое время, даже если дедлайны давно прошли! =)
Но в любом случае рада, что у вас все получилось. Это круто.
Но в любом случае рада, что у вас все получилось. Это круто.
Хмм где же это было… Ну хоть теперь понятно почему тестовый тур завалили, кстати эти тормоза системы на первом туре и помогли стать мне призером
Быль.
Радует, что хотя бы догадались к 2015 году проверять решения нормально. Мне приходилось складывать решения в папочку на рабочем столе, так же делали и последователи после меня. И вот, в 2015, эволюция шагнула вперед. На РОИ же всегда использовалась ejudge, почему так же не сделать в регионах. Или такие варварские методы были только в моем регионе?
Ну не знаю как было в вашем регионе, у нас лет 5 как участники отправляли решения на сервер через проверяющую систему и она возвращала результат тестирования на тестах из условия (что там было на полных тестах — участникам до конца тура не было известно; первые годы решения проверялись на нашей собственной системе после тура, потом мы прикрутили тестирование на полных тестах параллельно ходу тура, чтобы быстрее получить итоговые результаты, а в 2014 переехали на ejudge с тем же функционалом).
Есть вообще правила по тому, как проводить проверку решений и требования по тестирующей системе? У меня такое ощущение, что каждый регион делает что хочет.
По техническим вопросам правил нет: на чем умеют, на том и делают. А вот правила соревнований вообще-то должны быть одинаковыми.
В этом году требования были. Документ такой на 29 страниц. В прошлых годах, наверняка, тоже были, только я лично их не видел (а может видел, но не помню видел ли).
Вот что я нагуглил: 2012 год, 2015 год.
В 2012 формулировка: собирать на электронные носители, но вместо них можно использовать тестирующую систему. В 2015 же тестирующая система обязательна.
Вот что я нагуглил: 2012 год, 2015 год.
В 2012 формулировка: собирать на электронные носители, но вместо них можно использовать тестирующую систему. В 2015 же тестирующая система обязательна.
На РОИ всегда использовалась PCMS2 вообще-то.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Как нельзя проводить олимпиаду или настройка ejudge с распределением вычислений