rublacklist.net/5028/
Тут можно посмотреть историю блокировки Абсурдопедии и саму заскриненную запрещенную страницу.
А также и имена экспертов, которых привлек Роспотребнадзор для экспертизы запрещенной инфы, страна должна знать своих героев :)
Максим, так к вам претензий по закону нет, просто не надо обижаться, что представители отрасли и общественности не желают участвовать в том, с чем они принципиально не согласны.
Если бы РКН выступил бы с разумными поправками к 139-ФЗ на основании полученого опыта — то это было бы отлично.
А так и получается статистика, что 97% сайтов (более 3000) блокируется неправомерно, но законно.
Проблем достучаться нет: @ilevova, например, в твиттере.
Ну точнее не свадебный генерал, а рабочая лошадка РАЭКа, которая часто также присутствует на обсуждениях всех законопроектов, касаемых IT.
Другой вопрос, что никто не хочет слушать. А пытаться участвовать в написании регламентов, как лучше блокировать по IP, мне кажется, не самое полезное занятие, поправки к закону никто же писать не дает.
Это неправда к сожалению. Представители отрасли в т.ч. и тот же РАЭК готовил поправки к закону. raec.ru/upload/files/popravki_139-fz_RAEC_08082012.pdf
Можно глянуть также их итоги года: raec.ru/times/detail/2137/
Закон как положено думе 6-го созыва принял закон тихо, быстро, никого не слушаю.
В итоге получается, что приняли непонятно что, а потом предлагают пачкаться об это и фактически соглашаться участием в деятельности. Понятно же, что это популизм обычный: «мы зовем — вы отказываетесь».
Почему-то только в РФ и других дружественных бирмах регулирование деятельности выражается в виде попыток введения тотальной цензуры (тотальной — потому что почти всегда существуют попытки для основания блокировки внести формулировки типа «национальные интересы», «нормы морали и нравственности» и эфемерный «экстремизм»). Другие страны, где регулирование отрасли происходит менее варварским способом сейчас получают приток клиентов из России.
За адекватность информации ручаться не надо. А можно ее опровергнуть легко, если она не адекватна. У вас же отписка.
Поскольку там работа ведется полностью в открытую — можно найти косяк в подходе и методах изучения.
Или показать конкретный пример сверившись с актуальностью, что «такой-то сайт не находится на этом IP, как следствие этот сайт не находится в реестре».
Поэтому не надо тут про ручаться. 97% заблокированных сайтов блокируются мягко говоря незаконно.
>> А ограничивать индексацию секретных данных через robots — это кривь. Их вообще не должно быть на публичном сайте.
Ну именно из-за robots.txt утекли в сеть смски мегафона. Они не секретные, но в форме передаются.
Плюс он же описывает порядок обхода, приоритеты и частоту обхода сайта поисковиками. Штука нужная.
Относительно лайков. Никто же не заставляет лайкать. Но возможность такая лучше бы чтобы была. Многие этим пользуются.
>> На сайте должен за минимальное время найти все что ему нужно, всю процедуру получения, с примерами, с FAQ.
Разумно. Но я боюсь у нас на данном этапе не получится.
Весь этот проект от начала до конца сделан на добровольной основе. Применение подобных механизмов — плюс описание их достаточно затратно по времени. Затраты по времени компенсируются деньгами, а у проекта бюджет был и остается 0р. Да и вообще, юзабилити оценивать сложно. Тем более толпой.
Мы постарались полностью убрать из оценки сайтов хоть какую-то субъективность.
Если есть возможность описать «доступность» четкими критериями, которые не имели бы двойных трактовок — то добавим. Только как это сделать, я не совсем понимаю.
Отчасти «доступность» для поисковых систем определяется наличием файла robots.txt и sitemap.
Тут можно посмотреть историю блокировки Абсурдопедии и саму заскриненную запрещенную страницу.
А также и имена экспертов, которых привлек Роспотребнадзор для экспертизы запрещенной инфы, страна должна знать своих героев :)
Не будут отключать — не будет и спамхауса
Если бы РКН выступил бы с разумными поправками к 139-ФЗ на основании полученого опыта — то это было бы отлично.
А так и получается статистика, что 97% сайтов (более 3000) блокируется неправомерно, но законно.
Ну точнее не свадебный генерал, а рабочая лошадка РАЭКа, которая часто также присутствует на обсуждениях всех законопроектов, касаемых IT.
Другой вопрос, что никто не хочет слушать. А пытаться участвовать в написании регламентов, как лучше блокировать по IP, мне кажется, не самое полезное занятие, поправки к закону никто же писать не дает.
raec.ru/upload/files/popravki_139-fz_RAEC_08082012.pdf
Можно глянуть также их итоги года: raec.ru/times/detail/2137/
Закон как положено думе 6-го созыва принял закон тихо, быстро, никого не слушаю.
В итоге получается, что приняли непонятно что, а потом предлагают пачкаться об это и фактически соглашаться участием в деятельности. Понятно же, что это популизм обычный: «мы зовем — вы отказываетесь».
Поскольку там работа ведется полностью в открытую — можно найти косяк в подходе и методах изучения.
Или показать конкретный пример сверившись с актуальностью, что «такой-то сайт не находится на этом IP, как следствие этот сайт не находится в реестре».
Поэтому не надо тут про ручаться. 97% заблокированных сайтов блокируются мягко говоря незаконно.
Не будут же они заниматься покупкой ссылок? :) Хотя оптимизацию кода сделать можно, да.
По поводу последних трех предложений — это хорошие предложения. И причем проверяются автоматически. Перенесу в вики проекта. Спасибо!
Ну именно из-за robots.txt утекли в сеть смски мегафона. Они не секретные, но в форме передаются.
Плюс он же описывает порядок обхода, приоритеты и частоту обхода сайта поисковиками. Штука нужная.
Относительно лайков. Никто же не заставляет лайкать. Но возможность такая лучше бы чтобы была. Многие этим пользуются.
>> На сайте должен за минимальное время найти все что ему нужно, всю процедуру получения, с примерами, с FAQ.
Разумно. Но я боюсь у нас на данном этапе не получится.
Весь этот проект от начала до конца сделан на добровольной основе. Применение подобных механизмов — плюс описание их достаточно затратно по времени. Затраты по времени компенсируются деньгами, а у проекта бюджет был и остается 0р. Да и вообще, юзабилити оценивать сложно. Тем более толпой.
Если есть возможность описать «доступность» четкими критериями, которые не имели бы двойных трактовок — то добавим. Только как это сделать, я не совсем понимаю.
Отчасти «доступность» для поисковых систем определяется наличием файла robots.txt и sitemap.