• Управленческие поединки — технология обучения менеджеров, инструмент оценки и спорт

      Страховая компания, оформляя полис, допустила ошибку в моих документах. Обнаружив ее, сотрудница пересчитала сумму и потребовала доплату в 10 тысяч. Если бы это произошло два-три года назад, я бы убеждал, волновался. Или просто заплатил. Сейчас же задал спокойно всего два вопроса, и полис мне оформили с новыми данными по прежней цене. Что помогло мне?

      Моё хобби


      Меня зовут Александр Садовский и последние пятнадцать лет я работаю менеджером и руководителем. Вначале всё было хорошо. Навыков управления проектами, экспертных знаний и здравого смысла хватало, чтобы решать все вопросы. Но в какой-то момент, когда я уже работал в Яндексе, с ростом масштаба задач и числа сотрудников я начал всё чаще сталкиваться с ситуациями, к которым непонятно было как подступиться. Постепенно я осознал, что мне не хватало именно управленческого опыта — принятия сложных решений, управления коллективом, разруливания конфликтных ситуаций. Я начал много читать, обучаться и вскоре открыл для себя новую тему — управленческие поединки.

      Картина мира других людей полна неожиданностей

      Сделать первый шаг за стол переговоров было трудно. Это стресс. А когда были зрители, поединки приобретали особый накал. Но я справился и уже через полгода стал участвовать в турнирах, а вскоре и побеждать. Например, в 2011 и 2013 году становился победителем Московского открытого турнира по быстрой управленческой борьбе, в 2012 и 2013 завоевывал Осенний кубок Москвы в классической управленческой борьбе.

      И чем больше я погружался в это хобби, чем более тонкие нюансы ситуаций и управленческих ходов учился видеть, тем важнее мне казалось поделиться этим. И я нашел время, благо, есть повод.
      Читать дальше →
    • Робот Яндекса учитывает пожелания

        Недавно на Хабре прошла дискуссия, где обсуждалась политика обхода сайтов и инцидент с роботом Яндекса у серверов uaprom.net и ruprom.net.
        Спасибо всем за последовавшие советы, мы постараемся их учесть. Что касается случая с uaprom/ruprom, то данные о безобразном поведении нашего робота правдивые, но не отражают полной картины.

        1. Робот Яндекса выкачал 19238 страниц с 8506 (восьми тысяч пятисот шести) поддоменов uaprom.net и с 6896 (шести тысяч восьмисот девяноста шести) поддоменов ruprom.net, а не с двух хостов, как может показаться из заметок.

        2. На каждый хост (из ~ 15000) делалось не более одного обращения в 1,1 или 2 секунды (в зависимости от размера хоста).

        Сейчас uaprom.net/robots.txt и ruprom.net/robots.txt установили Crawl-Delay в 0,5, благодаря чему увеличили нагрузку на своих хосты (по умолчанию Crawl-Delay 1,1 или 2 секунды).

        3. Все поддомены ruprom.net и uaprom.net лежат на двух IP. Автоматические алгоритмы Яндекса определили ruprom.net и uaprom.net как хостинги (они и позиционируют себя как надежные хостинги, см. ruprom.net/tour-4 и uaprom.net/tour-4).

        Для надежного хостинга, на серверах которого находится много сайтов, мы создавали нагрузку, не превышающую 12 запросов в секунду на IP.

        4. User-Agent отдавался «YandexSomething» и это наша вина. Это был не новостной, а один из поисковых роботов, у которого мы забыли изменить дефолтное представление. Ошибку исправили, спасибо, робота поставили в угол.

        Резюме: нагрузка создаваемая на IP хостингов ruprom.net и uaprom.net не превышала лимиты, допустимые при обходе большинства хостингов. Мы понимаем, что она может быть избыточной для небольших хостингов и постараемся лучше дифференцировать нагрузку на большие и малые хостинги. Надеемся, что сервера рунета будут встречать перевоспитанного робота благосклонно.
      • Поисковый робот Яндекса поддерживает Crawl-delay и GZIP

          Веб-мастера получили новые возможности управления роботом Яндекса, позволяющие оптимизировать нагрузку на сервер и трафик:
        • Яндекс.Вебмастер открыт для всех и показывает ссылки

            Яндекс.Вебмастер (webmaster.yandex.ru/wmconsole/) открылся для всех желающих.

            К открытию сервиса появилась новая функциональность:
            * просмотр внешних и внутренних ссылок на страницы сайта,
            * список страниц сайта, которые могут находиться в поиске,
            * информация о ссылках, ведущих на ошибочные страницы,
            * анализ корректности robots.txt.

            Мы будем рады отзывам и предложениям по улучшению сервиса, пишите через форму обратной связи (feedback.yandex.ru/?from=webmaster).
          • Яндекс поддержал расширенный формат robots.txt

              Робот Яндекса поддержал в robots.txt директиву Allow, спецсимволы "*" и "$". В Помощи рассказано (help.yandex.ru/webmaster/?id=996567), как интерпретируется robots.txt и приведены примеры.

              Файл robots.txt используется веб-мастерами, чтобы объяснить роботу поисковой системы, какие страницы и разделы сайта нельзя индексировать, а какие можно. Стандарт предусматривает небольшой набор директив, поэтому написание правил индексации для крупных сайтов является сложной задачей. Новые директивы могут существенно облегчить задачу веб-мастеров.