Таких инструментов по интернету очень много по запросу у google ( «сайты на одном ip» ) можно найти кучу сервисов который показывают вам соседние сайты.
К портам это не имеет ни какого отношения (если понимать это буквально). server_port в контексте веб сервера всегда будет 80-ый (ну и 443-ий). Тут скорее упрешься в сокетные ограничение и ресурсы сервера (таже ОЗУ).
В HTTP 1.1 имя сервера передаётся в запросе, и веб-сервер уже по нему определяет, какой сайт отдавать. Поэтому на одной машине на одном единственном 80-м порту может висеть много-много сайтов.
С другими сервисами наверно действительно могут возникнуть проблемы, или нужно изобретать что-то аналогичное технике http 1.1 ☺
в годы оны для системы интернет-статистики пришлось обрабатывать базу принадлежности ip-сетей по странам
фишка была в том, что из больших диапазонов одной организации нарезаны меньшие диапазоны для другой и т.д. — доходили до 6-го уровня вложенности
Конечно можно.
1) зайти на nic.ru
2) Убедиться, что вы попали именно туда, куда хотели.
3) заполнить анкету
4) получит номер анкеты(будет номером договора)
5) Распечатать 2 экземпляра договора (будет предложено после заполнения анкеты и получения хендла [0-9]-NIC-REG). Warn: 16 листов каждый
6) Распечатать и заполнить 2 экземпляра доп. соглашения . Ну это намного проще. 2 листа каждый.
7) Оформить со своей стороны (аж целых 4 подписи)
8) каким-либо образом доставить в офис РЦ получившуюся пачку макулатуры (link)
Для получения такого списка в reg.ru достаточно иметь партнерский статус (http://stat.reg.ru/). А учитывая наличие API статус этот у программера обычно уже есть ;)
Приспосабливайте.
Я не против, если это не будет создавать очевидных неудобств
Более того, если в useragent бота будет написано, что за автоматика долбается, я попытаюсь связаться по предоставленной информации с владельцами. 2 таких случая по предыдущей базе от 2009 года уже были. Люди до сих пор пользуются :)
habrahabr.ru/blogs/startup/51269/
как-то делали то же самое, разве что база обновлялась ежедневно, софт успевал просканировать все домены рунета/сунета часов за 6-8. Собиралась стата не только по ip, но и ns, mx записям итп. Однако с нагрузкой не справились. Софт жрал трафик и забивал канал, пришлось остановить проект.
А, вона чё. Жаль. А я, порой, пользовался. Ну, спасибо что были.
Я вот думаю нет смысла постоянно базу обновлять. Думаю, раза в одну — две недели было бы достаточно. Может оптимизировать в этом ключе и нагрузка спадёт?
А то уж больно толковая вещь была. Эх…
Я не в курсе, почему оно туда попадает.
Я когда-то сам использовал wot, но после того, как он редлистил много вполне нормальных сайтов, я понял, что он мягко говоря работает как-то не так.
Указанного контента на этом домене никогда не было. И не будет.
проверил с 3 происки. Работает вполне верно.
Это происки кеша гуглоDNS.
Вы бы пост до конца дочитали, а потом писали.
Специально для этого приведено 2 ссылки.
IP-адреса зоны RU/SU