Как стать автором
Обновить

Комментарии 90

Не знал, что есть офлайн-версия Вики. Обязательно надо скачать, вдруг пригодится.

У меня она в телефоне лежит. Английская без картинок что-то около 10 гигов занимает, по-моему.

И с поиском?)

Полнотекстовым? Вроде нет. Но зачем он, если конкретную статью посмотреть хочешь?

elastic можно по идее использовать для этого?

На телефоне?

Так это... android->termux->docker->elastic. Всего несколько шагов, и википедия с поиском в кармане.

Докер на телефоне, жесть

Докер на андроиде так легко не запустить, нужно пересобирать само ядро.

Но непонятно, зачем всё же поиск. Для меня оно всегда было энциклопедией — то есть конкретная статья требовалась, а не все упоминания этого слова.

Ну и на телефоне всё это поднимать… Думаю, что даже в оффлайне это не будет единственным вашим устройством. Задача телефона — обеспечивать оперативный доступ к информации, а не пытаться заменить собой ББ.

Не надо это всерьёз воспринимать )

Никто не будет поисковый движок на телефон натягивать. Особенно такими особо извращёнными способами.

А зачем эластик? Почему не ManticoreSearch?

A как? Научите пожалуйста в статье как на iOS и на Android и какаом карманном nix планшетном сделать себе офлайновую копию доков и википед с мантикорой поиска.

Простите, речь шла о том, чтобы использовать систему полнотекстового поиска ManticoreSearch вместо монструозного эластика.

Я не могу вам ответить на вопрос "как сделать бэкап википед на телефон". Спросите @Maxim_Evstigneev

Если речь про ArchWiki (а не про глобальную википедию) то она весит всего 17 мегабайт в сжатом виде.

Не, я про большую вики.
С ней в офлайне веселее будет сидеть, чем с одной только вики по арчу. ;)
И зачем все описанные там телодвижения? Достаточно скачать нужный zim и открыть его в кивиксе. Не надо ничего распаковывать, дополнительно устанавливать и т.п.
Плюс там ещё allmax требуют зачем-то качать обязательно.

Ну погодите, не обязательно самому изготавливать дамп. Можно просто отзеркалить в своём инстансе IPFS текущий снапшот - https://github.com/ipfs/distributed-wikipedia-mirror#cohost-a-full-copy Это будет в некотором смысле полезнее для общества: из большего количества мест будет раздаваться контент. Далее, хранение своего зеркала в IPFS позволит другим людям с IPFS в одной с вами локальной сети просматривать отдельные страницы из вики не сливая к себе зеркало полностью. IPFS даст устойчивость за счёт распределённости и дублирования.

А причём тут общество? Я не против с ним поделиться, если мне это бесплатно, но вот платить за что-то, только ради того, чтобы можно было поделиться?

Для себя я скачал kiwix, скачал нужный дамп — не обязательно allmax, мне и минимального вполне хватало — и спокойно пользуюсь.
А ваш вариант — скачать allmax, распаковать — увеличив объём в разы наверняка, настроить ipfs — и всё только ради того, чтобы гипотетические обладатели той же ipfs поблизости могли просматривать отдельные страницы?
Я в оффлайне, какие ещё локальные сети и ipfs? И у телефона моего всего лишь 128 гигов памяти, туда allmax влезет только запакованная, распакованная уже не поместится. И трафик у меня тоже ограниченный. И батарейку жалко на поднятие сервера тратить. Ну и т.п.

А где она есть то? Можете ссылку дать на архив Arch Wiki?

В Арче можно вот так скачать: pacman -Sy arch-wiki-docs, файлы будут лежать в "/usr/share/doc/arch-wiki".

Либо вот тут: https://archlinux.org/packages/community/any/arch-wiki-docs/
Там слева ссылка "Download From Mirror" на актуальную версию.

Простите за глупый вопрос, а чем потом этот zst файл открыть? Tar не берет вроде как...

архиватор zstd идет во всех дистрибутивах linux
zstd -d --stdout archive.tar.zst | tar -x

Если zstd установлен в системе, то распаковывается просто:

mkdir arch-wiki-docs && tar -x -C arch-wiki-docs -f arch-wiki-docs-20200527-1-any.pkg.tar.zst

Да, определённо, это может быть Арч!

Не согласен. Арч примечателен тем, что иногда может быть нестабильным и сломаться при обновлении (особенно в периоды крупных перемен). И по закону Мерфи это будет в самый неподходящий момент (у меня было). Если что и использовать для таких вещей, то Ubuntu LTS. У меня был достаточно длительный период, когда я использовал Debian с репами на dvd-дисках.

p.s Пару лет использовал Arch, сейчас Fedora.

Давно он был не стабильным) сейчас уже года 3 он стабилен как никто. Арч может сломать только неумение с ним обращаться. В остальном он крут.

Да, я упомянул, что Арч не самая стабильная система. Есть вероятность, что в день синхронизации зеркала кто-нибудь выкатит что-нибудь всё ломающее. Но на этот случай у меня в запасе есть несколько зеркал, созданных в разное время )

А Убунта, отличная - это мой второй питомец, начиная вот с этих вот времён:

Тогда нужно переименовать тему в "Оффлайн использование ArchLinux", потому что она вводит в заблуждение. Кто-то ведь и правду может подумать, что это хороший выбор для автономного использования. Arch -- один из лучших дистрибутивов в плане самобытности, а его комьюнити делает невероятную работу, но он точно не про стабильность и автономность.

Arch — один из лучших дистрибутивов в плане самобытности, а его комьюнити делает невероятную работу, но он точно не про стабильность и автономность.

У меня он дома работает очень отлично последние 5 лет и пережил уже 2 переезда на новые машины. А вот бубунту я совершенно никому не советую, потому что там просто ничего нет, все очень древнее и нужно самому все компилить, если вдруг понадобилась новая версия. Арч имеет одни из самых больших реп среди всех дистров. Поэтому в нем есть все, а чего не хватает — найдешь в ауре.

Слово "выживальщик" в названии статьи уже говорит о том, что ситуация далека от нормальной. А эксперимент длиною в год показал, что с одной копией зеркала Арча вполне можно жить.

Помимо штатных репозитариев есть python pypi, а если ты хоть немного разработчик, есть nodejs npm, есть куча других узкоспециализированных.

Но главное, документации, указанной в статье, для жизни без интернета точно хватит?
у меня такое ощущение что отключи сейчас интернет и 99% людей практически ничего не смогут сделать, буквально окажутся чуть ли не в каменном веке,… мы стали сильно зависимы от возможности получить информацию из интернета.

Про maven, pypi и npmjs я написал в статье, что они будут в этом случае недоступны. Но отключи интернет, и я поделюсь зеркалом Арча и, надеюсь, что кто-то поделится со мной другими зеркалами.

Вау! Большое человеческое спасибо! Сколько пользовался Арчем - не знал про это.

Сама по себе концепция репозиториев софта — болезненная выдумка шизофреника и прямое вредительство.
В разумном мире у разумных инженеров всё стараются делать модульным и стандартизировать интерфейсы, в линупсе же какие-то альтернативные гении додумались ОС и ВЕСЬ СОФТ запечь в монолит!
Да, можно в теории выкачать репозиторий целиком (либо «только нужное») и полностью изолировать себя от мира, исключив возможность обновления и установки нового софта. (напоминает древнюю стори с баша когда девице хотели продать плеер с предзаписанной «всей нужной» музыкой...)
В реальной-то жизни через 2 недели понадобится свежая фича кикада — так что качаем новый пакет, пытаемся ставить — линупс говорит что надо ещё обновить десяток компонентов, которых опять же нет в бесполезной выкачаной оффлайн-помойке. Итог — качать стремительно устаревающий хлам из репозитория и писать на болванки нет абсолютно никакого смысла.
Нормально написанный софт под винду работает в любой версии винды, по крайней мере нужные версии всегда можно положить в архив и знать что они у тебя есть.
Так что по сути линупс работает только пока есть инет и живы зеркала. И пользоваться можно только «актуальными» версиями пакетов. Совершенно не годится для инженера и для серьёзной работы — зависимость от соединения напрягает, плюс необходимым инструментарием хочется «обладать» а не полагаться на авось что в репе всегда будет то что нужно, что его не испортят и не забажат.

Не очень (или очень не) верные утверждения.

  1. Во-1, как правило для сборки софтов нужно что-то выкачать (-dev пакеты, если убунта), но такого, чтоб в текущей версии той же убунты что-то не собиралось при всех выкачанных пакетах и БЕЗ обновлений этих пакетов -- не припомню. То есть не стоит путать необходимость что-то выкачать (а все репы по условию мы уже выкачали) и необходимость обновиться (что довольно редко в убунте влияет на функционал). Второе это как правило фиксы багов и дырок и на функционал очень редко когда влияют.

  2. Если кто-то хочет как в венде (когда каждый самый последний софт с собой тащит все либы заново, разных версий и с неисправляемыми дырами), то к его услугам всякие там snap, flatpak и прочее.

В венде всё нужное уже встроено в венде и, самое главное — стандартизовано! Софт тащит с собой только что-нибудь особо специфическое, которое уже каждая первая утилита не юзает. А не так вот:
«ОШИБКА КОМПИЛЯЦИИ: установите библиотеку не ниже huiTamLib-2.4.0». При том, что в системе, разумеется, давно присутствует какая-нибудь «huiTamLib2-5.1»? Ее предлагается снести, чтобы отвалилось полсистемы или обновить до старой, чтоб полсистемы отвалилось? Вам же знаком этот повседневный линуксовый дзен, не правда ли?

В рабочем софте всем решительно наплевать на дыры, да и баги можно запомнить и обойти. Самое главное — стабильность, доступность, отсутствие неожиданностей, чтобы на софт можно было расчитывать, чтобы воркфлоу построенный на этом софте ВНЕЗАПНО не разваливался в самый неподходящий момент.
Вон, сколько промышленного оборудования работает на ХР или ДОС, любители всего самого последнего гавкают про дыры, но конвеер идёт.

Вы же отдаёте себе отчёт о том, что делаете отсылку на выдуманную ситуацию в глупейшей статье про пригорание у очередного человека, чьим желаниям реальный мир, как оказалось, не соответствует?

Наверное это линуксоиды придумали DLL-Hell, ой, погодите, ведь это же в винде .dll библиотеки…
П.С. Линукс тоже можно один раз поставить и вообще не обновлять, как собственно с вашим пром. оборудованием и происходит.
НЛО прилетело и опубликовало эту надпись здесь

Ну так и в линуксе сисколлы стандартизированы

Лол.

Сисколлы линукса — аналог сисколлов ядра NT, внезапно. WinAPI уровнем абстракции повыше. В сисколлах формочек и работы с сетью нет.

Другое дело, что напрямую WinAPI действительно редко используют нынче и всё равно таскают с программой жирные обёртки.

НЛО прилетело и опубликовало эту надпись здесь
В сисколлах формочек и работы с сетью нет.
WinAPI — это, например, WaitForMultipleObjects, который даёт возможность асинхронной ловли событий от любых модулей — тредов, эвентов мультимедиа, сети и т.д. (хотя нынешние программисты в асинхронщину разучились, создают стопицот тредов с синхронизацией опросом volatile-переменных каждые 1 мс, так что врядле поймут...)
Доисторическое говно мамонта POSIX API — вообще ни в какое сравнение с WinAPI не идёт. Для синхронизации единственный select, который только I/O, при написании для чистого POSIX API каких только извращений вокруг него не городят, но поделать особо нечего ибо убогое говно 60-летней давности.
НЛО прилетело и опубликовало эту надпись здесь
как показали некоторые события, air gap не является стопроцентной защитой
какие события?
НЛО прилетело и опубликовало эту надпись здесь
Хочется стабильности, доступности и отсутствия неожиданностей — ставьте софт из реп.
В дебиане, во времена когда я тыкал это говно, софт в репе обновлялся раз в 2 года. Про стабильность — вонючая ложь и пропагандонство, пользоваться двухлетним старьём приходилось не потому что получаешь за это сверхстабильность, а потому что такая версия была актуальна на момент формирования репозитория. Я помню случай когда в репе валялась версия нужной мне штуковины, условно, 0.9b, а действительно акутальная и стабильная 1.0 была свежее на пару месяцев и добавляла кучу полезных фич и улучшений. Ну либо ставь «testing» и получай кучу беток сомнительной стабильности, как и заявлено.
Вся эта шиза от того что линупс никогда не был предназначен для работы. Линупс исторически заявлялася как «система для опытного пользователя», вот только если опытный пользователь винды — тот, кто эффективно использует компьютер, то опытный пользователь линупса — тот, для кого работа за компом — настраивать линупс.
есть Snap/Flatpak, в которых все зависимости лежат вместе с самим приложением
Это тулзы для разработчика (внезапно, коммерческие разработчики серьёзного софта обычно что-то такое и юзают). Мне-то какой прок, как юзеру? Например, относительно недавно вышел 6-й кикад, но до этого был очень старый и малоюзабельный 5.1 (или вроде того), так что все сидели на предрелизном ежедневно обновляемом «5.99 найтли». Много проку со всех этих стабильных репозиториев? Когда посмел ставить пакеты не из репозитория — начинается цирк с клоунами, происходит рассинхронизация состояния компьютера и того что должно быть по мнению репозитория, на каждое движение пакетный менеджер начинает сыпать какие-то ошибки и отказываться выполнять команды. В винде я просто качаю нужную версию, распаковываю архив, даблклик и всё запущено!
В винде всегда можно просто сохранить нужную софтину в архив и знать что у тебя есть эта вещь. Даже если она 20+ летней давности, даже если давно выпилена из интернетов — просто достаёшь и всё работает. В общем — линупс маздай, винда форева!
зы. Посмел высказаться против наглой лжи о том как в линупсе прекрасно и удобно ставится любой софт — заткнули рот, пока что на один камент в час. И эти люди жалуются на цензуру…
НЛО прилетело и опубликовало эту надпись здесь

Напишите кто-нибудь статью как сделать локальными репозитории для разных систем Linux.

На случай отключения Интернета.

Сколько бы я не пользовался Арчем, у меня ни разу не было ощущения, что он "простой и удобный". Каждый раз что-то ломается, с чем обычно на Mint или CentOS нет никаких проблем.

НЛО прилетело и опубликовало эту надпись здесь

Мне однажды удалось сломать генту. Вот прямо до состояния Dependancy Deadlock, когда зависимость версий была принципиально неразрешима без сноса всех вовлеченных участников... и один из этих участников был kernel.

Но я старался, да.

Потом понял, что не вывожу администрирование генты сам, плюнул и поставил Debian 11.

P.S. Центос мне удалось сломать одним `make install` :-D

Кернел можно было совершенно спокойно снести нафиг, сохранив только конфиг (а можно и не сохранять, при --unmerge emerge не снесёт то, что там ядро при сборке и конфиге понаписало).
НЛО прилетело и опубликовало эту надпись здесь

Идеология сходная, не? Кривым рукам арклинукс не помеха!

То есть, я бы и ArchLinux уронил бы, дай мне волю ;-)

Давайте будем честны. Тут есть нюанс. Понятие "поломанность" у пользователей Arch отличается от "поломанности" %another_distr%. Вот у пользователя %another_distr% "поломанность" - это почти любое неудобство: ну там гном не стартанул или дравер Nvidia не так обновился - уже катастрофа. А в arch установка считается в общем-то завершённой и успешной после разбивки диска, pacstrap и работающего pacman.

Там где %another_distr% считается нафиг убитым, арчевод видит работающий арч, который надо "немного донастроить". И, при некотором понимании своих действий, офигенной вики и наличии некоторого упорства, чтобы не бросить разбираться через пару часов, arch вполне позволяет настроить себя очень близко к тому, как хочется данному арчеводу. А при чуть большем желании разобраться, благодаря простоте арча (в той трактовке "простоты", которая подразумевается в arch!) - однажды сделанное уже работает ровно так, как задуманно, поэтому уже не ломается ни в каком понимании.

Но цена этой "простоты" - гораздо больше потраченного времени. Кому-то полученные знания и понимание деталей работы системы нужны - тогда это его дистрибутив. Кому-то не нужны - тогда есть сотни других отличных дистрибутивов.

Например я репортил [вот такой баг](https://gitlab.freedesktop.org/drm/amd/-/issues/1850).

С Арчем ты как бы живёшь на передовой, и нужно быть готовым, что возникнет проблема и её надо репортить. С AMDGPU я дважды натыкался на регрессии и их репортил (их пофиксили). С podman как-то возникали, тоже пофиксили.

Редко, но что-то возникает. Мне льстит мысль, что в частности благодаря мне эти баги не доходят до стабильных дистров.

Хмм, а markdown на хабре перестал работать? Я гуглю, вроде доки на месте https://habr.com/ru/docs/help/markdown/ , написано галочку при наборе текста поставить. Но поля с галочкой нет.

Не читают новости (так, пакет с deprecated драйвером nvidia может попасть в AUR под другим именем nvidia-xxx и соответственно иксы не запустятся) и обновляются раз в год, когда накопится критическое количество изменений.

После паузы в несколько месяцев лучше обновлятся через pacman, а не AUR helpers, т.к. pacman покажет и предложит разрешить конфликты.

НЛО прилетело и опубликовало эту надпись здесь

Арч простой не в том плане, что вставил live-флешку, установил и радуйся готовому рабочему столу. Он удобный и простой, когда находясь в одной системе надо собрать другую систему под определённую задачу. То-есть это уже такое "подкапотное" удобство.

Честно говоря, не понимаю, почему Arch.

Slackware или Void можно так же использовать, соответственно Слакбилды с сорцами и xbps-src с дистфайлами.

Можно еще дерево pkgsrc вытащить с дистфайлами тоже.

Поддерживаю. Лично мне кажется самым простым и автономным PuppyRus Linux. Пакеты не нужно устанавливать, просто скачиваешь файл в определенную папку и всё, работает без распаковки. Флешка сделаная 6 лет назад, до сих пор запускается и работает. Я даже заменил файл Firefox на последнюю представленную для PuppyRus версию и браузер открылся без каких либо вопросов. Жаль, что такой идейный дистрибутив умирает.

А что имеем в ArchLinux? Вот есть у меня компьютер, который я не включал полтора года с ArchLinux. Недавно включаю. Вроде бы все работает. У меня нет желания обновиться, но я хочу поставить screenfetch или neofetch для того, чтобы заскринить характеристики. И что я получаю? Чтобы мне поставить screenfetch мне необходимо обновиться. А pacman не работает. Он просто не понимает как распаковать пакет, который ожидает в формате tar.xz. Разумеется, после 40-минутного треша я всё же умудрился обновить систему и ожидаемо получил незагружающуюся, конфликтующуюся с текущими конфигами систему. Причем конфиги в большинстве своём дефолтные. Хороший пример для подражания от системы для выживальщика.

Идея статьи в том, что есть зеркало, и оно позволяет всё устанавливать - хоть через 100 лет. Статические локальные зеркала сильно снижают зависимость Арча от rolling release.

Плюс, имея два разных зеркала, например от 2020 года и от 2022, в одной Арч системе вполне может жить софт из обоих поколений. Добиться этого можно кучей способов: виртуализацией, контейнеризацией, lmod-модулями, парой pacstrap + arch-chroot. Ну и в конце-концов, просто манипуляцией с "LD_" -переменными окружения.

Если же Арч устарел настолько, что даже не понимает новый форматов пакетов - это значит, что для данного конкретного применения он был выбран неправильно. В этом случае нужен какой-нибудь LTS.

Старенький Slax так же работал, файлики в папку и привет новая программа.

Вроде дистрибутив до сих пор живой

Подтверждаю, живой! я как-то подписался на уведомления в почту, недавно получил, что вышла новая версия.

Кстати, держу на флешке и старый slax, и новый PuppyRus (да вроде даже и старый какой-то есть) - работают все. И без интернета тоже.

НЛО прилетело и опубликовало эту надпись здесь

Это мог бы быть "Internet выживальщика") Но любимые сайты погрязли в ангулярах и реактах. И вебкеш тут часто бессилен.

НЛО прилетело и опубликовало эту надпись здесь

Придумано

$ wget -r https://example.com/path

Параметр -r для рекурсивного поиска.

Что скачается?

  1. Сама страничка по указанном адресу.

  2. Все JS- и CSS-файлы, подключенные к странице.

  3. Все страницы, найденные ссылки на которые будут иметь путь глубже указанной страницы /path и рекурсивно найденные на этих страницах ссылки на другие страницы.

Если указать главную страницу сайта, скорее всего, скачается весь сайт.

Далее для воспроизведения нужно из папки с сайтом запустить node-static без параметров.

Проблема ангуляр-реактных сайтов в том, что они рендерятся на клиенте. Если делать, например, так:

wget https://www.facebook.com/react

то ничего толком не скачается. Но можно попробовать прикинуться гугл-ботом, тогда некоторые сайты включают серверную генерацию страниц:

wget -U "Googlebot/2.1 (+http://www.google.com/bot.html)" https://www.facebook.com/react

результат совершенно другой. Ну и для полноценного зеркалирования сайта можно сделать так (!не делайте, вам не нужен весь фейсбук):

wget --mirror --no-parent --page-requisites --convert-links --adjust-extension \
  -U "Googlebot/2.1 (+http://www.google.com/bot.html)" \
  https://www.facebook.com

Как верно заметили ранее, Arch не слишком предсказуем в любой момент времени, это не фатально в онлайне, в моем представлении первый кандидат на дистрибутив "судного дня" - Debian, это один из немногих дистрибутивов полностью доступных на dvd(на данный момент 18 штук, привет дискетки).

Ультимативная автономинация: дебиан в виде четырёх 22-гиговых BD диска или образов с пакетами и трёх дисков с исходниками =)

Arch Linux не выглядит хорошим вариантом. В нём rolling release, нет возможности установить предыдущую версию пакета с зеркала и одновременно с этим не поддерживаются частичные обновления. Попробуйте не обновлять систему полгода, а потом установить какую-нибудь программу из бинарного репозитория - скорее всего, она не запустится, так как не найдёт нужную версию какой-нибудь библиотеки (а раз частичные обновления не поддерживаются, то авторы пакета не будут утруждать себя указанием правильных версий зависимостей в метаданных).

Ubuntu или Debian выглядят в этом плане несколько лучше. Можно установить систему релизной версии (не unstable/sid), затем доставить что-нибудь новое из -updates или -backports, а если что-то пойдёт не так, то стандартными средствами откатиться на прежнюю версию пакета: apt install PKGNAME=1.0.24. Проблема только в инструментах, которые используются для поддержки репозиториев - самые популярные из них (в том числе и тот, что используют в самом проекте) не позволяют залить несколько версий одного пакета в один репозиторий - в этом случае "побеждает" максимальная версия. Но ни в apt, ни в форматах метаинформации такой проблемы нет - используя другие инструменты, можно создать репозиторий, где будет лежать, например, до пяти последних версий каждого пакета.

Gentoo - ещё лучше. В portage лежат только рецепты для сборки пакетов (ebuilds), а многие зеркала отдают дельты изменений и поддерживают rsync - значит получится, потратив мало трафика, иметь всегда актуальную версию portage. Старые версии пакетов оттуда удаляют не сразу, а сломанные маскируют вместо удаления, что даёт пользователю возможность откатиться (даже на заведомо уязвимую версию, если пользователь будет настаивать). Rolling release, но поддерживается частичное обновление (в рамках одной версии EAPI). Для сборки потребуются distfiles (исходники), и именно они займут больше всего места, но portage не навязывает какой-то определённый источник, а сами ebuild содержат ещё и ссылки на upstream, откуда можно скачать исходник. Для проверки целостности в portage лежат хэш-суммы всего, что требуется для сборки. Из недостатков - придётся компилировать исходники, но для крупных пакетов (libreoffice, firefox, chromium) есть готовые бинарные сборки. Если использовать в рамках организации, то можно держать свой binhost для того, чтобы избежать повторной сборки на всех узлах.

И стоит рассмотреть NixOS. Можно обмениваться кусками /nix/store, разработчики системы сильно продвинулись в достижении цели полной воспроизводимости сборки, окружения получаются гораздо более герметичными. Переход от input-addressable к content-addressable должен сократить ненужные скачивания при обновлении зависимостей. Число готовых пакетов сравнимо с Debian, более 80000. Из недостатков - очень отличается от привычных систем подходом к управлению пакетами, структурой директорий.

Мне кажется самым хорошим вариантом будет Slackware или какой-нибудь или такой дистрибутив, который может сразу тонны софта установить заранее, а не минимальный, где ты сам устанавливаешь по отдельности пакеты. Я не знаю есть ли в арче подобие .deb или .rpm, с ними оффлайново хотя бы пакетами можно обмениваться в приемлемом для пакетного менеджера виде, в арче вроде бы пакеты распространяются в виде "рецептов", скачай оттуда, сделай то, потом установи туда, но это не совсем то что надо. В дебиане при желании можно просто поставить скрипт, который бы скачал все эти .deb пакеты и устанавливать большую часть из них по необходимости. Также можно поднять свою билд-ферму для упомянутого NixOS и неупомянутого Guix и стараться набирать всю пакетную базу хотя бы на определённые даты.

Ни что не мешает конечно подготовиться вообще с какой-угодно Unix-подобной системой, скачав просто все исходники нужных тебе программ (через apt-src например) и собирать на своём же компьютере как в случае с билд-фермой в nixos и guix, но понадобится очень много свободного места на диске.

В Arch Linux основной пакетный менеджер, pacman, работает как раз с бинарными пакетами. Но обмениваться ими проблематично как раз из-за того, что это rolling release, и пакеты собираются под самые свежие версии зависимостей. Рецепты (их обычно берут из AUR) - это файлы PKGBUILD, из которых makepkg делает пакеты.

Чтобы обмен бинарными пакетами был возможен, все должны либо всегда обновляться на самые свежие версии всего, либо договориться сделать срез зеркала на какой-то момент времени (фактически "отвести релиз") и собирать всё остальное против зависимостей из этого среза.

В Debian и Slackware такой проблемы не будет из-за существования релизов, а в NixOS и Guix ещё и из-за возможности установить новую программу с новыми зависимостями, не обновляя их для старых программ - в последних можно жить как с релизами, так и без.

Пока писал этот комментарий, захотел посмотреть, как у Guix с разнообразием пакетов и частотой релизов, но обнаружил, что не могу из России подключиться к https://guix.gnu.org/

Gentoo - ещё лучше. В portage лежат только рецепты для сборки пакетов
(ebuilds), а многие зеркала отдают дельты изменений и поддерживают rsync - значит получится, потратив мало трафика, иметь всегда актуальную версию portage.

Ага, сколько недель будет собираться chromium на 2Гб-ном нетбуке с каким-нибудь Celeron N-серии, работающем от солнечных панелей?

Нисколько, на него можно поставить chromium-bin.

А что вы думаете про EndeavourOS, который упорно в течение полугода полз и дополз до второго места на distrowatch?)

В дебиане есть Parrot home построенный по идеологии арча, и да - на острие мэйнстрима. И выбирая между Дебом, со всеми недостатками и упомянутым Парротом, - точно Дэб, концептуально лучше для изоляции. По документации - лучше Арча нет, сложно не согласиться. Но тогда и забирать ее нужно в html и читать консольным браузером, w3m, lynx и прочие. Да, независимо от дистра, документацию Арча нужно взять. Между Виндой и Линуксом выбор очевиден, голая винда занимает столько, сколько любой линукс + локальный репозиторий на 200-300k программ (100 Гб). Но если нужна одна пограмма под Винду - еще очевиднее, конечно Винда. Но вообще женить весь мир на бесприданнице, еще и бесплодной - это уметь надо.

НЛО прилетело и опубликовало эту надпись здесь

Но тогда и забирать ее нужно в html и читать консольным браузером, w3m, lynx и прочие

Можно без браузера. Поставить этот пакет (20 Мб в установленном виде) на чёрный день и забыть.

sudo pacman -S arch-wiki-lite # http://kmkeen.com/arch-wiki-lite/

Когда открывал, думал тут про то как с помощью Linux можно разводить огонь, и что из каких папок можно жрат, а тут... :(

Нее, тут всё для тех, кто уже не поддаётся кернел-панике и не хранит продукты в темповой папке. А огонь Линуксом развести совсем просто; достаточно похвалить его негромко, как из-за кустов вылезут знатоки, у которых от этого всегда пригорает :)

попробую экспериментально.

На старый ноут накатить FreeBSD

уже слил имаджи с установщиком и сырцами

Есть инструкции как сделать и использовать свое зеркало maven, npm и pip, и сколько террабайт под это потребуется?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации