Pull to refresh

Comments 139

Цена диска + риски его поломки. Такое себе решение по надёжности.

Диск стоит дешевле, чем облако большого объёма. Диск можно зеркалировать.

А данные потерять можно даже с raid. Поэтому ещё и бэкапировать дважды. И внезапно оно становится не так уж и дёшево при сравнимом уровне надежности/доступности

Вы не учитываете, что диски выходят из строя. У меня вот WD Gold на 10 TB через 3 года перестал определяться в системе. Замена стоила многократно дороже, чем в момент покупки.
Поэтому свое хранилище, это про приватность. По деньгам это может быть выгодно только если очень повезет.

>По деньгам это может быть выгодно только если очень повезет

хабр уже давно сборище сварщиков и менеджеров что мешает на рабочем серваке одну копию держать в зашифрованном контейнере?

помимо домашней. Хотя сентенция про потоп уничтожающий сразу и рабочий комп и диск на полочке - это полный бред, ещё падение метеорита приплетите.

что мешает экономить за счёт использование чужих ресурсов

Ну, объективно это плохой и слабый аргумент

>Ну, объективно это плохой и слабый аргумент

ещё не вздумай пешком ходить, экономить свои деньги за счёт дяди таксиста нельзя )

работодателю конечно же намного веселее живётся, если у него на дисках терабайты ноликов лежат (да, даже ноликов там нет, там старые файлики), а как только ты где-то их потратил, сразу весь бизнес медным тазом накрывается.

Подворовывать по мелочи это все равно воровать. Зачем вам это? На работе работать надо и рабочие мощности использовать только для работы, если работодатель явно не сказал иное.

Всегда хранил как минимум по 200ГБ музона на рабочем компе, а ещё подключал наушники и подворовывал электричество. И читал новости - подворовывал время. А ещё иногда опаздывал - ещё сильнее подворовывал. Выпей таблеток, дед. И не забудь посрать в карму.

Я правильно понял что вы гордитесь тем что вы так себе человек?

По-любому хранить надо и в облаке и "у себя". Хранилища разные бывают. Периодически скидывать "архив" фоток в облако для "холодного" хранения на случай отказа диска не сильно дорого. 1 Терабайт - несколько долларов в месяц .

А вот наоборот, автоматически бэкапить фотки из Google Photo к себе, мне кажется, сложнее. (оставшиеся на смартфоне не считаются, ибо очевидно, что на нем только самое нужное хранится а остальное подкачивается при необходимости).

А вот наоборот, автоматически бэкапить фотки из Google Photo к себе, мне кажется, сложнее

почему сложнее? тулу по расписанию запускай или дефолтный софт для облака используешь и он синкает всегда.

Удобно в облаке держать основную копию и бекапить к себе-по умолчанию доступно отовсюда, заливается с телефона автоматически, хороший софт со своими плюшками вида поиска, распознавания и т.д. А себе синкаешь чисто для бекапа.

Не знал. Спасибо!

И прям реально со всей структурой, тегами, папками синкается? Ну т.е. с одного гулового аккаунта качаю на TrueNAS, а потом могу полноценно восстановить в другой гуглоаккаунт при необходимости?

Не подскажу так как давно храню фото в Immich а гугл фото выключено на совсем.

Вы хотите сказать что 10TB облака за год обойдутся вам дешевле чем стоимость HDD? Ну а чтобы не терять данные, просто нужен бэкап.

Облака надёжность тоже не гарантируют. Они больше не про надёжность или дешевизну, а про доступность.

Один потоп и прощай архив. Надежность у вас так себе вышла.

Функционал приложения — главное.

Зеркалирование/бэкап — задача совсем других приложений, и решается намного быстрее и легче, и в объем данной статьи никак не требуется.

А вот возможность потери аккаунта в любом облаке с мгновенной потерей всех данных, я постоянно удерживаю в голове. И никакие сверхнадежные технологии внутри данного сервиса, вас от этого не спасут.

Сделать хранилище с зеркалами в двух разных разных странах, да еще и отказоустойчивое чтобы внезапно не сломалось от одного экскаватора, это весьма нетривиальная задача. И о бекапах подумать стоит, вы не хотите все потерять случайно. И о мониторингах тоже, вы хотите узнать когда (не если, это важно) все сломается. Причем это все нетривиально и технически и организационно.

Я не знаю случаев потери больших облаков. Но допустим. Сделайте два обычных облака. Гугл и Яндекс, например. Или два других по вашему вкусу, лишь бы в разных юрисдикциях подальше друг от друга. И заливайте фоточки в оба. Тогда есть гарантии что они не потеряются по любой причине.

А просмотрщик может быть любой. Тут дело вкуса. Это вообще не важно.

У меня оплачено 200GB в Google, 2Tb в Mail.ru, и еще сколько-то (плюс мобильная безлимитка) в Яндексе. Ну и, по мелочи, в МТС, Сбере и т.д. ))

Простите

У нас было 200 GB в Google, 2 TB в Mail.ru, 5 аккаунтов Dropbox, полгигабайта в МТС и Сбере и гора жёстких дисков, флешек и всего такого, всех цветов, а ещё две сотни DVD и две дюжины ленточных накопителей. Не то чтобы это всё было нужно в домашнем пользовании, но раз начал коллекционировать облака, то иди в своём увлечении до конца. Единственное, что меня беспокоило — это проверка бекапов. В мире нет никого более беспомощного, безответственного и безнравственного, чем человек, который настраивает автобекапы и не проверяет их целостности.

К сожалению, или счастью. я лишь про фоточки с мобильника сейчас пишу. И в моей жизни, это одни из самых ценных файлов. Бэкап в два облака считаю для себя достаточными сейчас: Google Photo и Yandex (безлимитка). С телефона удаляю при помощи этих же сервисов.

Мое личное мнение: Думаю, что в нынешних реалиях, буду переходить на связку: САБЖ + Yandex. От Google буду постепенно отказываться, когда и в 200Gb перестану помещаться.

Сделать хранилище с зеркалами в двух разных разных странах, да еще и отказоустойчивое чтобы внезапно не сломалось от одного экскаватора, это весьма нетривиальная задача.

Почему? Арендуем vps у разных провайдеров в разных странах.
Настраиваем bittorent sync, что не сложно.

Нет?

В первом случае команда google нашла проблему и в результате человек не потерял данные. Все что потребовалось - обратиться в службу поддержки. Второй случай не читал, но думаю что и там проблему решили. В самопальным решении вы останетесь один на один с проблемой и не факт что спасёте данные.

В первом случае команда google нашла проблему и в результате человек не потерял данные.

Вы не вчитывались? Google пролюбил данные. Их решение - перезапустить синхронизацию со стороны клиента, используя ошметки данных на ПК пользователя:

<...> In the meantime:

  • Do not click “Disconnect account” within Drive for desktop

  • Do not delete or move the app data folder:

    • Windows: %USERPROFILE%\AppData\Local\Google\DriveFS

    • macOS: ~/Library/Application Support/Google/DriveFS 

      Optional: If you have room on your hard drive, we recommend making a copy of the app data folder. 

Подтверждается по утекшей инструкции для пострадавших:

In the User Data folder, go into Google > DriveFS > the folder with a long number. In that folder there's a folder called backups, which has another folder with a couple of long numbers. Move all of the files from the "Backup" folder into the main folder.

То есть, если у вас облако не синхронизировано с устройством, то каюк. Если вы подумали, что у вас заглючил локальный клиент и переустановили его, то каюк.

Комментарии к "решению" соответствуют:

Sindhuja, this solution did not work for me.

Google Drive DELETED my files so they are not available for recovery. This "fix" is not a fix!

This fix is not working for anyone?  

The solution does not work. I do not have the option to recover backup files. Please could someone contact me. I really do need to recover these files. 

Today my files went missing, just suddenly without me doing anything. I have tried the indicated solution, but it didn't workout for me as welll.

Нужно понимать, что Google вам ничего не должен по собственному EULA, а его сотрудники обучены делать хорошую мину при плохой игре. Никакого разбора полетов, никакого диалога с людьми, которые пишут, что их фикс - не фикс, но "проблема решена". Когда сами рулите своими данными, хоть концы можно найти. В переписке с Google просто убьетесь об индусского бота.

Ну и да:

As of this post Google hasn’t confirmed exactly what caused the deletion of the data. It seems to be related to Google Drive for desktop syncing issues but there hasn’t been any further information. Some have been wondering if there’s any connection to Google’s new policy of deleting inactive drive accounts and their data. The timing does seem suspicious.

Я не знаю случаев потери больших облаков.

Когда весной 2022 закрылся radikal.ru, в российском интернете осталась куча зияющих дыр на месте картинок

Ну тут навскидку два разумных подхода: хранить у себя и бэкапить в облако или наоборот. Я предпочитаю второй.

S3 не дорого стоит, туда можно бекапится )

Storj еще достаточно бюджетный и быстрый за счет локальных нод.

Не особо дешевле получается. Дефолтный s3 100 гигов стоит 23 бакса в год, onedrive 20 долларов, гугл 18$. К авсу +цена за запрос цена,+сеть. Более гибкая тарифкация(не ровно же 100 гигов надо) и холодное хранилище снизят цену думаю до более дешевой, но с учетом приложений готовых проще все-таки не s3

За 7 евро в месяц можно хранить целый терабайт на wasabi

Насколько я понял по отзывам, ключевой недостаток - при обновлениях сбои бывают.

The project is under very active development. Expect bugs and changes. Do not use it as the only way to store your photos and videos!

Видел этот проект недавно, но отказался после того как увидел это предупреждение.

Бэкапы никто не отменял.

Плюс любой софт ничего не гарантирует. Эти просто честно напоминают.

Так мне прямо говорят: "ожидайте ошибки и изменения". Бекапы держат как стандартную практику сохранности данных, а не как нечто на горячем старте готовое хоть каждый день заливаться на отваленный сетап.

В моем понимании это как использовать Arch Linux в продакшене. Технически можно, но в большинстве своем нелогично.

Так от любого софта надо ожидать ошибок. Даже если он про это не пишет. Стабильно только hello world работает, да и то... :)

Я конечно припозднился с комментом. Но вообще про активную разработку - это не так страшно - можно просто отключить обновление на стороне клиента и не обновлять сервер и пользоваться не боясь что что-то пойдет не так допустим год. Дальше за час вы прочитываете все необходимые изменения в релизах, делаете бекап, накатываете поселдние версии, и еще год пользуетесь спокойно)) Бонусом - ежегодный холодный бекап, главное чтобы было куда его сделать)

А в качестве Only Way — вообще ничего нельзя использовать. Дисклеймер вполне логичный.

P.S. И нет, я не пользовался САБЖем. Просто понимаю, после прочтения, что он не хуже платных облаков. Ну, разве что безопасность может хромать, при настройке ламером, вроде меня.

Это не более чем стандартный waiver of responsibility. За полтора года пользования immich могу вспомнить только один раз, когда immich помер после обновления, да и то, это было связано с привычкой читать release notes только когда всё уже прилёгло.

А у меня вот после недельного использования прилёг Постгресс, который этот immich использовал. Я просто выключил ноут, а докер тормознул контейнеры.

 Открывать или пробрасывать порты домашнего компьютера наружу – не лучшая идея, поэтому мы используем вариант с VPN.

...и что конкретно сделает VPN к VPS\VDS лучше?

  • Безопасность - нет, т.к. открыты те же порты

  • Надежность - нет, даже ухудшит т.к. появляются две дополнительные точки отказа

  • Дешевле - нет, белый, статический IP - 100\150 р. VPS-ки за такие цены может и есть, но их качество сильно так себе, см. п. выше.

Можно вообще крамольной мыслью озадачиться - SSL-сертификат + два файрволла (на роутере и на сервере) и никакие VPN'ы не нужны?

А может и роутер не нужен? По идее, не самый новый компьютер с двумя сетевыми картами, с Linux и настроенным фаерволом и автоматическими обновлениями, должен быть безопаснее, чем отдельный маршрутизатор, прошивка которого обновляется производителем раз в несколько месяцев. При этом, для большей безопасности, веб-сервер с приложением можно поместить в виртуальную машину, не давая ей возможность устанавливать исходящие соединения в локальную сеть.

По идее, не самый новый компьютер с двумя сетевыми картами

Жужжит и ЭЭ жрет больше :) при работе 24/7. ... и карточки должно быть три - wan, lan и wifi

Но на самом деле если посмотреть в реддит r/selfhosted то, да, большинство селфхостеров сидят с pfsense/opensense, в отдельных контейнерах/VMках/хостах

Ну я так понял, что свой сервер и так предполагается. А, если это домашний компьютер, то тут вопрос, не будет ли навороченный компьютер для игр потреблять больше электроэнергии, чем старый компьютер со встроенным видео, если говорить про работу 24/7 (домашний компьютер наверное выключается на ночь или когда все на работе/учёбе).

Безопасность есть, открыты порты только для ssh и самого vpn на vps, зачем awg не понимаю, ocserv я бы использовал на 443 за haproxy, на роутере открывать ни чего не нужно, весь трафик идёт через vpn. Точка отказа да. Но я бы не сказал что прям это критически, vpn не разу не падал. Могут проблемы в дц быть. Статический ip для дома, больше минусов чем плюсов. Школьника обидешь он и задудосит твой слабый роутер.

Безопасность есть, открыты порты только для ssh и самого vpn на vps

и-и-и? Риски то какие закрываются? Вот у нас есть self-hosted VPN открыты 50, 500, 1701 порты, VPS - открыты 22, 50, 500, 1701... разницы 0.00

Школьника обидешь он и задудосит твой слабый роутер.

Без настройки (а какая разница где настраивать?) и в ДЦ можно говно-VPS заддосить школьником. Яб даже сказал что VPS с его ограниченными ресурсами заддосить проще.

Ну и бесплатный cloudflare с их проксей и защитой от ботов\ддоса\гео-IP никто не отменял

Не понимаю, зачем так много открывать портов, какую то ересь говорите, ssh переносим закрываем за ключеой авторизацией, и порт под vpn, все. У меня haproxy торчит наружу только, доступом рулю через ssl_fc_sni и url пути. Не знаешь url проваливаешься на заглушку, очень удобно заглушка в докере в rootless, в целом должно быть надёжно, патчи безопасности ставятся без перезагрузки автоматом. Fail2ban в помощь

Не понимаю, зачем так много открывать портов,

Это стандартный набор для 1701 - L2TP, 500 для ISAKMP, 4500 (должен быть вместо 50, ошибся, писал по памяти) - IPsec NAT traversal.

какую то ересь говорите

Еще раз, сосредоточьтесь, вопрос не про протоколы, не про количество и конкретику открытых портов, а про архитектуру. Что делает безопаснее архитектуру с поднятым на VPS\VDS VPN'ом по сравнению с self-hostd VPN?

Провайдер не даёт статику это раз, ну либо статика не белая как оказалось. На одном из провайдеров. Мне например для работы с api нужен статический ip если поменятся менять в настройках сервиса, это не удобно, иначе все сертификаты le полетят в один момент потому что локалка на них полностью.

Ipsec+l2tp корпоротивная древность какая, либо openvpn использовать в tls или же ocserv, sstp их как раз можно спрятать за прокси. Wg круто быстро ,пока работает надолго ли, awg безобразный поток данных, будет ли работать если только tls на 443 разрешат, наверняка нет. Ocserv имеет и защиту от activ probing и маскировку трафика. Да нужен домен. Да нужно собрать из исходников. Я на внешнем vps держу adguardhome за haproxy 443 и 853 днс все мобильные устройства подключены к нему. А второй плюс что это цод с защитой по питанию если дома света нет dns работает и другие сервисы которые на vps.

Дискуссию прекращаю, т.к. вы старательно игнорируете простой вопрос

Во внешний мир в таком случае торчит один порт - VPN. Может еще ssh. Остальное сидит на виртуальном интерфейсе, и наружу не отсвечивает. Найти в VPN или SSH дыры по силам разве что топчику спецслужб, чего нельзя сказать про веб-приложения, которые дырявы всегда и легко ломаются любой школотой.

Во внешний мир в таком случае торчит один порт - VPN. Может еще ssh.

Это относится только ко второй части вопроса (и то с некоторыми допущениями). Первая в том чем VPS\VDS VPN безопаснее self-hosted VPN?

А можно его поставить только на VPS? Понимаю, что это будет не совсем self-hosted, но все же...

Вряд ли есть препятствия установить его на своём домашнем сервере :-)

Можно, но дорого выйдет, так как он памяти много ест, да и для фото нужен значительный объём. Для недорогого VPS лучше подойдёт File Browser.

Второй или третий год пасу immich на 512G HDD VPS с 1G оперативки и 2 ядрами, вроде евро за 3 или 4 в месяц. Бонусом еще VPN и всякое по мелочи. На момент пару лет назад immich был довольно сырой, распознавание лиц не работало, например на этом конфиге, сейчас уже допилили, все работает. На моей памяти помирал после обновлений раза два, ну и, как справедливо сказали выше - сначала readme потом уже обновляйте. Я, правда, оба раза обнаружил когда у супруги отваливался логин на клиенте после автообновления из плеймаркета.

И на тот же момент пару лет назад - NextCloud вообще на том конфиге не запустился.

Из минусов - immich не бекапит RAW фото.

Не бэкапит RAW фото?! Фтопку тогда... А почему такое странное ограничение, какая разница, какие файлы бэкапить ?

И, думаю, тут вопрос не в "бэкапить", а в "отображать". Всё же работа с равами - это совершенно отдельная заморочка. Потому проще не забивать голову ради небольшой доли потенциальных пользователей.

А он лучше NextCloud в плане работы с видео?

Я сейчас экспериментирую с NextCloud, и вроде всё более-менее хорошо: фотографии с телефона копируются, музыку можно слушать и с компьютера, и со смартфона, фильмы тоже со смартфона получается смотреть (через файловый менеджер с поддержкой WebDAV), но не хватает возможности смотреть видео одно за другим: есть каталог с видеоклипами, и их бы хотелось смотреть подряд.

Честно говоря, готового варианта не скажу - не было задачи играть плейлисты с NC. Но у них концепция такая, что любые рюшечки добавляются за счёт пользовательских приложений

https://apps.nextcloud.com/

Я так вижу, это в принципе разные вещи. NextCloud - универсальное облако, а Immich - строго аналог Google Photo, о чем, собственно, а автор и упоминал. То есть, исключительно синхронизируемый фото- и видеоальбом плюс совместный доступ к нему.

Immich вещь интересная, но мне не нравится то, что он все фотографии в одну ленту сыплет, по альбомам нельзя назначить раскладывать автоматом.

Ещё не всегда фотографии загружает сразу, приходится пнуть.

В последних версиях уже есть автоматическая синхронизация именно альбомов. Т е. условный альбом Whatsapp images так и появится на сервере. Замечу, что по дефолту это отключено

Ну и да, с лета куча нововведений именно по юзабилити - тэги, синхронизация категорий, просмотр в виде файловой структуры и т.д.

Это со стороны сервера настройка или с клиента?

Допустим вы сделаете RAID. Но бесплатный, серьезно? У вас 24/7 будет под столом жужжать старый Celeron, электричество он не потребляет? Про надёжность уже писали..

Именно потому я купил 1U сервак за цену металлолома, поставил свежие ссд и диски, после чего отдал его в колокейшн. Цена размещения получилась такая же, какую нажирает по электричеству домашнее чудище из хуанана лол. Ну а надежность приличных серверов на порядок выше самосбора под кроватью...

Очень хочется знать, где вы нашли колокешн дешевле даже 1000 рублей в месяц. Я везде вижу офигительные предложения с, по ощущению, заградительными ценами, а-ля "мы вам дадим 100 мегабит, с вас 8000 в месяц".

3000 в месяц, 100 мегабит анлим, 1U, анлим электричество. MTW, физически в Москве.

Двупроцессорный сервак на 4 диска, с видяхой, нажирает 300-400 ватт в час в среднем, 300кВт в месяц... А еще колокейшн дает бесперебойное питание, кондиционер, отсутствие статики и пыли.

А зачем двухпроцессорный сервак если для задач хранения / синхронизации достаточно селерона/пенька , который потребляет менее 40вт с парой дисков? https://habr.com/ru/companies/ruvds/articles/837642/

Пишу вторую часть, воткнул immich на этот nas вместе с ссд под приложения. Жрет буквально ничего, конечно задыхается если на него скинуть 300 фоток в раз, но спустя время раздупляется, можно ограничить ресурсы контейнера и побольше оставить для нужд NAS, можно поставить пенек 4560 за 500 рублей и получить +2 потока и примерно +30% производительности на остальные нужды.

В моем случае домашний Nas выходит в 28 раз дешевле чем колокейшен с вашей ценой. Пыль раз в год почищу, кондей не нужен так как оно и не греется особо даже когда в комнате +30. Ибп стоит простенький, nas сам выключается, благо nut в truenas из коробки идет и гуи очень понятный.

Если вычесть разницу в цене, то спустя год при вашем бюджете и моем железе, появился бы остаток более 30к рублевых, которых хватит на еще один такой nas с дисками.

От задач зависит. У меня там около сотни приложений (докеры и виртуалки), десяток десктопных виртуалок для работы и тестирования, видеонаблюдение квартиры, обратный бекап, умный дом, и так далее...

Держать большой сервак ради одного-двух приложений, конечно, смысла не имеет.

Хммм... Нет, не впечатляет, если честно.

3000 не 8000, конечно, но за 3000 уже можно взять VDS на 4 диска в Европе (с лимитом в 100ТБ, но зато гигабит) без начальных вложений в сервер. Бесперебойное питание дома и так должно быть, если у вас там есть нужная вам техника, с кондиционером та же история (впрочем, выхлоп тепла от файлопомойки будет в пределах погрешности все равно), а отсутствие статики и пыли рядового пользователя вообще волновать не должны - достаточно раз в полгода-года продувать содержимое корпуса компрессором, или пылесосить.

У вас 24/7 будет под столом жужжать старый Celeron, электричество он не потребляет? 

У меня стоит firebat T8 на intel n100 - у него максимальное потребление 30 Вт, вот тут народ замерял среднюю для HA - около 8 (!!!) Вт. Ну пусть будет 15 Вт... как среднестатистическая лампочка. 11 кВт\мес - даже если у вас не двухтарифный счетчик, даже если у вас газовое оборудование (нет скидок для ЭП) - сколько там получится? 70 р.? 140 если поставить две штуки (основной\резернвый). Ну как бы это даже не кружка пива\пачка сока

А дисков там сколько и какой объем?

Конкретно у меня: 1xNVMe (сменный, сколько надо столько и ставьте), 3хUSB, ибо присутствует Synology на 4 диска и удаленная площадка для бэкапов. Т.е. изначально требовались дешевые (брал за 12к), энергоэффективные машины под кластер, кубы и прочие низко-нагруженные эксперименты.

Существуют варианты (см. beelink) с NVMe+SATA 2.5, если покопаться у китайцев то предположу, что можно найти вариант и на 2xNVME + 1хSATA. Кстати у билинка есть табличка с энергоэффективностью - максимум пишут 24 Вт, средняя 13.

Идеальный вариант

Вариант на амд - 2 m2 + 2 sata

Только охлаждение докрутить установкой кулера снизу.

https://bafista.ru/mini-pk-server-dlya-doma-kingnovy-r1-aoostar-r1-tapton-r1/#%D0%90%D1%85%D0%B8%D0%BB%D0%BB%D0%B5%D1%81%D0%BE%D0%B2%D0%B0_%D0%BF%D1%8F%D1%82%D0%B0_%D0%B8_%D1%80%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D0%B5

Мне вот этим и нравится n100 - куча вариантов на любой вкус, цвет и задачу. Хочешь кластер на овердофига нод? - прикиньте сколько T9\T8, размерами 90х90х40 можно упихать в 19" 1U полку. Хочешь NAS? - вот тебе ITX на 2xNVMe, 6xSATA3.0

Лично мне, после выхода N100, в сторону rpi даже смотреть не хочется - стоит столько же, потребление такое же (+-), при этом быстрее, мощнее и вообще х86

С точки зрения интерфейсов, однозначно поддерживаю. Но чем х86 лучше ARM в этом плане?

Ведь доступ у нас без многочисленных запросов к SQL, например.

Но чем х86 лучше ARM в этом плане?

Софтом. Позволю себе цитату анонимуса из 2023 (не уверен что что-то поменялось, но как иллюстрация пойдет):

Waiting for ARM64 headless version of server for my Debian-based NanoPi M4V2 with RK3399(Dual-Core Cortex-A72(up to 2.0GHz) + Quad-Core Cortex-A53(up to 1.5GHz) + 4Gb RAM) !

На х86 запустится всё, ну почти. Я помню славный момент когда Эпл перешла на М1, куча девелоперов накупили себе ноутов, а потом оказалось что докер не работает =) Год или два было веселье с разным уровнем костылестроения. Windows только сейчас пилит эмуль который позволит х86 запускать на АРМе, есть ли аналог (и в каком он состоянии) под Linux увы не знаю

В линуксах в репах армовые пакеты есть давно, и всё вроде есть. Засада будет в пропиетарных сторонних пакетах разве что.

а в windows?

а с играми? (стим конечно пилит эмуль, но как я понял с профильных форумов не так успешно как хотелось бы)

Ну и про разработку вопрос (без контекста, я правда не знаю): вот я играюсь с stable-diffusion monai - python фреймворк поверх pytorch, будем считать, что работы на CPU мне хватает (Т_Т), оно на ARMе запустится? Т.е. по сути вопрос, как там на АРМе с python-либами?

Windows только сейчас пилит эмуль который позволит х86 запускать на АРМе

В винде этот эмултор уже лет 10, примерно с первыми планшетмаи на арме шел. Полгода назад новый выпустили т.к. старый был слишком стар и эмулировал только 32 битные приложения.

С точки зрения интерфейсов, однозначно поддерживаю. Но чем х86 лучше ARM в этом плане?

х86 - GPCPU, универсален и подходит для всего подряд.

Большие ARM на девбордах все как один Multimedia SoC, оптимизированы на ТВ-приставки и планшеты, основные процы не сильно мощные, но зато с аппаратным ускорением всего того, что можно ускорить. Выход за рамки задач показа мультимедиа - сходу днищевая производительность по сравнению с х86. Нормальных же армов, серверных, пока еще не завезли на девборды.

Выход за рамки задач показа мультимедиа - сходу днищевая производительность

А для воспроизвдения мультимедия нет драйверов или есть под одну конкретную версию древнего дистрибутива. Надо что-то актуальное - прикручивай сам.

Дома конечно выйдет дешевле, но не будет так надежно. Бывает же, электричество отвалиться, или интернет. Плюс о железе думать. У меня дома стоит Synology, там кстати тоже что-то похожее есть https://www.synology.com/en-global/dsm/feature/photos, но для этих целей не использую.

но не будет так надежно

В предложенной автором схеме, сервер то дома стоит, VPS\VDS используется только как шлюз в локалку. Т.е. если отвалится питание или ISP, то все точно так же превратится в тыкву

У меня дома стоит Synology, там кстати тоже что-то похожее есть

Есть, но у меня на DSM 6.чета-там были проблемы с синхронизацией (или мобилой); Второе, провели эксперимент и оказалось что синолоджи прилично так жрет ЭЭ (четыре диска + CPU). Кончилось тем что теперь включается только когда дома кто-то есть и отключается ночью (все ессно автоматически). Экономии оказалось на 200-250 р\мес. Вангую, что это из-за раздачи торрентов => диски не спят => повышенное потребление

Надежность - личное дело каждого. Облака тоже надо куда-то бэкапить.

А упарываться в элеткричество при российских расценках я смысла не вижу. Мой сервер в плане электричества мне обходится порядка 5000 в год. Это копейки в сравнении с оплатой 50 терабайт в каком-нибудь хостинге. Которые всё равно надо куда-то бэкапить, ибо единственную копию нигде нельзя хранить.

У вас 24/7 будет под столом жужжать старый Celeron, электричество он не потребляет? Про надёжность уже писали..

Если вы собираетесь хостить дома только один immich, то, конечно, не имеет смысла ради этого тратиться на отдельный сервер и его обслуживание. Если же вы хостите, кроме immich, ещё пару десятков сервисов и десяток виртуалок для домашнего пользования, то затраты на оборудование, электричество и обслуживание достаточно быстро окупятся.

iCloud купил 2 ТБ за 600 руб/мес и через семейную подписку шарится на несколько человек. Небольшое ощущение что Immich выйдет, может и немного, но дороже с арендой сервера и впн.

С таким же успехом можно настроить Syncthing..

Можно, но у них несколько разные задачи. Syncthing - средство синхронизации/бекапа. А Immich еще и фото- видеогалерея с совместным доступом.

Сам не так давно настроил Immich в качестве облачного фотохранилища для своей семьи. Но использовал несколько другую схему.

Зарегистрировал домен (для примера immich.mysite.com). На бесплатном тарифе в Cloudflare (CF) настроил обратный прокси с туннелем к серверу Immich в домашней сети. Для большей безопасности для доступа снаружи ограничил подключение через CF только с использованием клиентского сертификата mTLS. Поскольку снаружи доступ идет по HTTPS (с сертификатом от CF), то и в домашней сети поднял в докере Caddy, который отвечает за подключение к Immich по TLS (с сертификатом от Let's Encrypt). Это для того, чтобы не менять в мобильном приложении каждый раз адрес с https://immich.mysite.com на http://immich.mysite.com и не пользоваться самоподписным сертификатом (хотя мобильное приложение такую опцию позволяет). Ну и, конечно, на домашнем dnsmasq настроил резолвинг immich.mysite.com в домашний сервер (а ля split DNS). Если пользователь захочет подключаться к домашнему серверу извне через браузер, то придется установить клиентский mTLS-сертификат как и для мобильного приложения).

Какое-то странное решение - запускать что-то локально и ходить на локальный хост через VPN. Нужно решение с оконечным шифрованием из коробки, которое можно развернуть на облачном сервере (ну или локально настроить если очень хочется) и ходить туда со всех устройств (с синхронизацией и т. д.).

Нашлось вот такое ente для фото, но я лично не пробовал.

Я не понял, зачем вообще у автора весь этот огород, чем не угодил nginx reverse proxy?

Хотел сделать NextCloud на raspberry pi, но получается как будто дороже

Странно, зарузить то.. это.. и все работает...?! Да как бы не так все устроено, нет ветки связности в теме установки и порядка действий... Про VPN тут и говорить нечего, старая тема и не к месту темы самой.

Мои пять копеек - товарищ перемудрил. В Ubuntu Immich ставится без Docker и готов к работе сразу после установки, пароль только поставить свой. Я даже удивился, что так просто. Наверное, что-то упустил, но меня устраивает.

root@test2:/home/test2# sudo service docker restart
Failed to restart docker.service: Unit docker.service not found.
Докер установил при установке Ubuntu 24

Я повторюсь: Docker лично мне был не нужен. Установился из каталога Snap, кажется.

Прямо неделя постов про immich ).

Хорошая штука, на самом деле. Поднял на 4-й "малинке" по мануалу с сайта, в docker compose. Залил одним махом 26 гиг медиа с телефона. Впечатлил тем, что на железе малинки "прожевал" их всего за пару часов. Со всеми плюшками вроде распознавания лиц и умного поиска (в последнем поменял в настройках модель на XLM-Roberta-Large-Vit-B-16Plus - теперь он и по-русски понимает тоже).

Следующим этапом было положить его через обратный прокси, чтобы ходить снаружи. Мне хватило nginx + ssl на роутере.

Ну и когда всё проиндексировалось - читаем внимательно тему про бэкапы. Там в общем-то ничего сложного (база постгрес + три папки с файлами). Последние я склеил в единый tar и положил оба на я-диск.

про него недавно только нейронки узнали. Я три месяца назад искал куда прыгать с iCloud потому что 6 терабайт не хватает, а больше они не дают и иммича еще не было в индексах, поэтому chatGPT советовал другие сервисы, которые объективно хуже

А месяц назад он же предложил мне Immich и я смигрировал за недельку. Но на малинке бы не стал поднимать, там довольно неплохой машобуч с распознаванием, который работает на cpu/gpu и малинки для него прям не хватит

"Не хватит" - что-то не будет работать? Или просто будет работать долго?

Если второе - так это некритично, у меня все равно rpi постоянно включена и бездельничает 99,999% времени. Если она 700 ГБ фотоархива за 20 лет будет переваривать месяц - ничего страшного ;)

На i5-1135g7 при 40 гигах оперативки 4тб фоток иммич обрабатывал где-то неделю с большими моделями и без GPU ускорения

Малинка в целом справится, но большие модельки не войдут по памяти, а мелкие дают результат сильно хуже чем облачные фотосервисы

Но не упадет, да

Спасибо, надо попробовать, у меня вариант с 8 гб, посмотрю, как будет работать. А то Picasa уже устарела во всех смыслах...

Omg в 2024 году кто то кроме меня ещё пользуется Picasa и вообще помнит о ней)))

Picasa умела вытащить координаты GPS из EXIF и разместить фото слоем на Google Earth. Очень наглядно было увидеть где путешествовал.

Пользоваться - уже нет. Помню и скорблю - да.

Какой объем фото? Штук.

Сервис написан на js. Есть сомнения на счёт производительности.

Тот же nextcloud, например, не может переварить 100000 в одной папке. Выедает всю память и крашиься.

При всех его плюшках оказалось просто заливать по SCP проще и надежде. Скриптом вытащить гео и положить рядом описание с местом где было сделано фото. По дате и месту нагрепать быстрее получается)

Nextcloud сильно проигрывает в производительности Immich, причем настолько что даже не сравнимо. У меня 5тб фоток в одной ленте и я могу навигироваться по ней без видимой задержки на "прогрузиться" при условии быстрого канала. Памяти при этом расходуется меньше гигабайта на выгрузку миниатюр, которые он в фоне строит

Вопрос знатокам, если удалить фото с телефона, удалятся ли уже загруженные фото с Imich тоже?

Нет, если только вы не удалите их из приложения Immich

Встроенный в апплик автосинк из галереи телефона работает только в сторону добавления файлов

Там отдельные кнопки на удаление с телефона и удаление с облака. Правда, в русском переводе лично мне они сломали мозг, поэтому советую использовать английский.

Лучшая альтернатива - Synology Photos.

Synology Photos хорош, но они выпилили поддержку heic в последнем обновлении. Или откатываться на прошлую версию для пакета с кодеками, или грузить только с поддерживаемых телефонов, где превью будут созданы мощностями телефона, или ставить десктопное приложение. И что они решат убрать следующим - кто же их знает...

интересно. но слышу впервые, что выпилили heic и, почему то, очень в этом сомневаюсь. Проверю - отпишусь

Но почему и зачем? И да, вот они минусы проприетарных решений(

Ну нет. Распознавание лиц отвратительное (хуже, чем в смартфоне 7-летней давности), объектов - ещё хуже. А больше... больше там и нет ничего. Карты мест даже нет.

В смысле он геотеги не видит? Это же прям совсем простая фича

Видит, но толку от этого немного, там просто группировка по местам, карты нет вообще.

Прям уверен, что нет?

Вот прям совсем нет карты?

все он видит. и лица и объекты распознает отлично. и карта есть.

У меня среди распознанных объектов категорий 20 от силы, это просто смешно.

Крутится сабж на raspberry pi 4, через кейс на 2 ссд диска с аппаратным рейдом.

Прямо на малинке стоит Tailscale, с телефона подключаюсь через него. Дома просто по айпишке заливаю всё.

По бэкапам решил так - с телефона выгружаются данные через nextcloud на комп. Далее, ручками копирую на домашний nas, и гружу в immich. Получается 3 версии инфы, одна на физическом носителе, одна копия на сетевом nas и одна в "облаке"

Вот мне тоже показалось, что VPS с амнезией тут лишнее звено

Уже давно пользуюсь бекапом фото в resilio sync. Не нужен vpn, поставил на домашний компьютер, и все. Плюс есть синхронизации любых папок на нескольких устройствах.

Immich не столько про бекап, сколько про организацию и машинное обучение. Если это не нужно, то для бекапа есть десятки, если не сотни, других решений.

Проект в разработке и донатах нуждается, но тем не менее будет мне кажется на рынке, если возымеет кол-во пользователей больше, чем на данном этапе, платный.
Проект в разработке и донатах нуждается, но тем не менее будет мне кажется на рынке, если возымеет кол-во пользователей больше, чем на данном этапе, платный.

Всегда можно форкнуть, если что пойдет не так. Я на самом деле даже пытался "купить" Immich, но они пока не принимают крипту.

Кажется здесь какой-то плагиат...
Кажется здесь какой-то плагиат...

это не плагиат, это копирование интерфейса. Потому что зачем изобретать "такой же но другой" UI, когда уже есть отличный один

Пока иммич некоммерческий, к ним никто не придет

  • ваши фото и видео хранятся только у вас

  • ставим впн-клиент Amnezia

… намасте, спасибо и удачи

А где тут связь? Я правда не понял на кой там вообще впс-ка с амнезией

Immich уже полгода в работе, с него начал свой селфхостинг. На сегодня уже 90к фотографий, пока все ок)
Так все понравилось, что собрал вторую версию железа, теперь i5 7400 отлично справляется с нейронками, а хранение разделил на 2 винта и SSD под кеш. С vpn заморачиваться не стал, вытащил наружу под доменным именем.

Посоветуйте, что за нейронки подключили для распознавания и как справляются? Русский поиск есть?

На лица - стандартное buffalo_l, там ничего не менял.
На объекты - XLM-Roberta-Large-Vit-B-16Plus. Поддерживает русский язык, распознает базовые запросы нормально, но, например, не читает текст на картинках (как это может сделать айфон). Честно, не знаю, умеют ли это другие, от такого поиска много не жду. Часто к запросу добавляется какой-то мусор, черные экраны и скриншоты.

Sign up to leave a comment.

Articles