Да, слышал, спасибо. Что можно сказать точно — своей виртуальной машиной вы делаете огромное одолжение нашим хостерам, которые не всегда успевают за «облаками» =)
Удобно, что можно через админку настроить целый кластер, причём на любом ржавом ведре (несколько дешёвых vps, например) но вот пока не до конца понятно, насколько хорошо/плохо то, что такие вещи решаются на таком высоком уровне.
Возможно, в амазоновском облаке, например, таких проблем и не будет, и будет оно работать всё равно быстрее и не будет громадного набора настроек.
ajax, как правило, содержит динамические данные, поэтому нужно будет проверять их актуальность, отдавая пользователю, после того как загрузили в фоне.
Поэтому некоторые данные могут оказаться загруженными зря (кроме случаев с редко меняющимися данными, как в различных архивах записей и т.п.).
А вот по-тихому подгрузить пару (тяжёлых, возможно) шаблонов — почему бы и нет, всегда полезно =)
Поисковикам можно отдавать отдельные данные для индексации.
Например, перенаправлять json на подобие серверного шаблонизатора (написать простейший парсер, или использовать какой-либо готовый серверный json-шаблонизатор, в зависимости от целей оптимизации).
Вы как-то боретесь с перепеолняемостью? Есть ограничение по количеству гостей, можно ли попасть на «мест нет», если заходить на час, два?
Успехов вам!
Возможно, в амазоновском облаке, например, таких проблем и не будет, и будет оно работать всё равно быстрее и не будет громадного набора настроек.
А гугл достаточно хорошо берет данные из pdf.
Похоже, что они просто выдергивают весь текст из pdf, который загружает пользователь, и хранят его в базе данных, отдавая поисковику для индексации.
Поэтому некоторые данные могут оказаться загруженными зря (кроме случаев с редко меняющимися данными, как в различных архивах записей и т.п.).
А вот по-тихому подгрузить пару (тяжёлых, возможно) шаблонов — почему бы и нет, всегда полезно =)
Конечно, больше подходит, всё-таки для веб-приложений.
Хотя, мне кажется, что со временем такой способ обмена данными станет основным.
Если им правильно пользоваться — есть возможность подгружать достаточно тяжелые страницы клиенту.
Или догружать не запрошенные еще данные в фоновом режиме, постепенно. Тогда можно будет сделать отдачу страниц гораздо более быстрой.
Например, перенаправлять json на подобие серверного шаблонизатора (написать простейший парсер, или использовать какой-либо готовый серверный json-шаблонизатор, в зависимости от целей оптимизации).
Вот, issuu, например, просто отдает поисковику простыню текста, вместо флешки.
Кеш Google: j.mp/9cb6Bz
Страница сайта: issuu.com/gulfscapes/docs/gulfscapes-magazine-spring-2010
От пользователя нужно совсем немного мозговой активности, но не меньше чем необходимо, для того чтобы придумать, как он будет соединять точки.
Спасибо за слово «винчестер» в статье, так давно его не встречал =)
Ubuntu кстати тоже подрастает, но не так быстро, как ожидалось..