Для этого по идее нужно обеспечить строгую совместимость текущих версий байткода LLVM с будущими. И заодно разработать формальную спецификацию.
Всё-таки у проекта LLVM несколько иные приоритеты в плане развития, вроде оптимизации процесса компиляции в нативный код для аппаратной платформы, которые идут немного вразрез как с идеей заморозки спецификации, так и с концепцией «песочницы» (неопределённое поведение и пр.).
Поясню — на некоторых сайтах присутствуют обработчики специального вида URL, содержащего что-то наподобие /guestbook. При этом на страницах имеются анкоры, запрятанные от пользователя, просматривающего его через браузер, но видимые для парсера такого спам-бота. При первом же GET-запросе на такой URL IP-адрес источника автоматически вносится в банлист, дабы таким образом прекратить дальнейшие пакости с его стороны. А для «хороших» индексирующих роботов явным образом указывается правило Disallow в robots.txt, что в случае с Internet Archive, полагаю, уже не поможет.
Конечно, есть ещё атрибут rel="nofollow", но он имеет свойство «отпугивать» и зловредов, которые в результате такую «ловушку» обходят стороной.
В общем-то, существуют точки зрения, в соответствии с которыми поиск такого универсального определения, грубо говоря, не оправдан, — вот, например.
Дело скорее даже в том, что сам формальный подход в том виде, в котором им нынче руководствуются точные и естественные науки, имеет свои границы применимости, за которыми затраты при его тщательном соблюдении многократно превышают практическую ценность в итоге. Возможно, в этом и кроется причина того, что в плане этой самой практической ценности «гуманитарный» подход в определённых областях оказывается преуспевающим, пока другие заняты поисками и доказательствами «истин в последней инстанции»?
Для этого по идее нужно обеспечить строгую совместимость текущих версий байткода LLVM с будущими. И заодно разработать формальную спецификацию.
Всё-таки у проекта LLVM несколько иные приоритеты в плане развития, вроде оптимизации процесса компиляции в нативный код для аппаратной платформы, которые идут немного вразрез как с идеей заморозки спецификации, так и с концепцией «песочницы» (неопределённое поведение и пр.).
В самом деле, интересный вопрос. Особенно в плане некоторых догадок.
А как же «ловушки» для спам-ботов?
Поясню — на некоторых сайтах присутствуют обработчики специального вида URL, содержащего что-то наподобие
/guestbook
. При этом на страницах имеются анкоры, запрятанные от пользователя, просматривающего его через браузер, но видимые для парсера такого спам-бота. При первом же GET-запросе на такой URL IP-адрес источника автоматически вносится в банлист, дабы таким образом прекратить дальнейшие пакости с его стороны. А для «хороших» индексирующих роботов явным образом указывается правило Disallow в robots.txt, что в случае с Internet Archive, полагаю, уже не поможет.Конечно, есть ещё атрибут
rel="nofollow"
, но он имеет свойство «отпугивать» и зловредов, которые в результате такую «ловушку» обходят стороной.Дело скорее даже в том, что сам формальный подход в том виде, в котором им нынче руководствуются точные и естественные науки, имеет свои границы применимости, за которыми затраты при его тщательном соблюдении многократно превышают практическую ценность в итоге. Возможно, в этом и кроется причина того, что в плане этой самой практической ценности «гуманитарный» подход в определённых областях оказывается преуспевающим, пока другие заняты поисками и доказательствами «истин в последней инстанции»?