Pull to refresh

Comments 11

Тема интересная, сам давно ищу способы нормального бэкапа.


По делу. Если контент появляется после исполнения JS, иногда помогает получить конечный HTML в хроме "view outer html".


На мой взгляд, удобнее все сохранять в один html-файл. Чтобы не путаться и было сразу под рукой, если хочешь, например, на флешку скинуть. Ссылки на сторонние ресурсы надо заменять на абсолютные, стили и скрипты подсовывать в html-код, медиа — через base64. Иначе либо с папками, либо будут артефакты. В принципе, автоматизировать не сложно. Может даже кто и сделал это уже, идея в принципе на поверхности лежит.

вот интересно есть ли такая возможность у того же ChromeDriver через Selenium ?!?!? запустил страницу, сохранил файл в отдельный html и там уже все посчитано через JS в том виде, в котором надо…
IMHO архивировать сайт таким образом, это как брюки через голову одевать. Не проще ли потребовать доступ к web-панели или ftp? И еще такой способ архивации в состоянии «положить сайт» на дешевом хостинге — динамическая генерация страниц сервером знаете ли не дешевая операция по ресурсам. Да и что потом делать с этим контентом, кроме как разглядывать локально? Сомневаюсь, что потом удастся быстро поднять сайт на другом хостинге. Хотя бы потому, что url окажутся зашиты статически в html и будут связаны с именем сайта. А если в CMS еще и свой специфичный роутинг, плюс rewrite-правила у apache или nginx…
UFO just landed and posted this here
Статья о том, как проблема из альтернативной реальности, решается при помощи механизма, почти не имеющего отношения к названию статьи.
Было давненько такое ПО как Teleport Pro, делало то же самое, только еще и ссылки правило внутренние. Ведь если ссылка на сайте будет с явным указанием домена, то ваша локальная копия окажется неработоспособной. Развернуть из этого быстро новую копию тоже не получится, нету ни БД, ни скриптов, только статика. Поэтому расскажите своим друзьям, что в наше нелегкое время есть такая штука как Git и резервное копирование БД. Причем это резервное копирование может делаться и на удаленный сервер. Это будет гораздо надежней и практичней, чем ваше сомнительное изобретение.
wget исправляет ссылки при установке нужного ключа.
Иногда нужен только контент, без CMS и прочего.
Пользовался в своё время програмкой WebCopier. Основной бонус (на мой вкус) возможность в процессе закачки указывать, что качать, а что нет. Т.е. можно скачать какой-нибудь один раздел сайте без выкачивания всякого мусора.
Начало статьи нужно было не переводить дословно.

До недавнего момента я не сталкивался с задачей создания архивных копий сайтов,
но мои друзья попросили меня сделать копию (примечание переводчика, автор оригинала
похоже не знает про ftp и бекапы баз данных).
Такие угрозы делают архивирование веб-сайтов важным инструментом любого сисадмина.
(примечание переводчика, похоже автор не разу не был в панели управления даже самого дешевого хостинга, так, что о наличии возможности сделать бекап один клик и даже настроить его по расписанию не подозревает).
Особое удивление вызывает знакомство с unix и командной строкой, хотя может это пользователь Mac'a?
Проверено, что совсем не сложно самому написать архиватор-восстановитель сайта с указанием папок и таблиц БД для бэкапа и восстановления. При этом использовать библиотечку создания-распаковки архива и библиотечку дампов таблиц (легко самому написать специализированную). Идея в том, чтобы не сохранять все в огромных сайтах, а только то, что позволить одним кликом в админке по точке восстановления залить вместо испорченного. Точки восстановления можно делать автоматически заданием крон раз в день и неделю или делать самому. Практика показывает высокую скорость как сохранения таких ограниченных данных, так и моментальное восстановление.
На простых сайтах можно включить все папки и таблицы.
Sign up to leave a comment.

Articles