Comments 153
Дело в том, что ядро не видит большой разницы между свопом и открытыми файлами. И если свопа нет, а память нужна — то сбрасываются файловые кеши, с которыми прямо сейчас кто-то мог работать. В результате даже при выключенном свопе мы наблюдаем высокое IO, будто система «свопится».
Если своп есть, то туда вытесняются страницы к которым редко обращались, а файловый кеш остается на месте, что повышает среднюю производительность.
И если свопа нет, а память нужна — то сбрасываются файловые кеши, с которыми прямо сейчас кто-то мог работать.Если бы только файловые кеши! Исполняемый код сбрасывается! А потом загружается. На машинке с каким-нибудь тяжёлым бинарником может дойти до того, что переключение на текстовую консоль будет час занимать (заметьте — без кавычек, я имею в виде не «очень долго», а буквально час времени от нажатия Ctrl+Alt+F1 до появления приглашения).
не час, конечно, но минут 10 переключался в консоль и ещё столько же создавал файл 256мб и делал в него swapon, после чего всё волшебным образом заработало
Тогда уже вопрос к тому, кто поскупился на память.
Или дрючим диск, дёргая ФС, потому что кэша не хватает. Или дрючим диск, дёргая swap, потому что система опять всё засвопила. Ну или дрючим того, кто это проектировал.
> Исполняемый код сбрасывается!Это — уже совсем другая история. Если памяти — с избытком, то всё будет работать независимо от наличия свопа. Но это — нерационально, да и ошибки никто не отменял. И вот когда памяти мало — без свопа начинаются проблемы, так как задолго до того, как памяти не станет совсем и начнёт работать OOM-киллер из памяти будет выгружен почти весь код и не будет выгружены данные.
Тогда уже вопрос к тому, кто поскупился на память.
Система в такой конфигурации работает паршиво, вот и всё.
А еще программисты делают ошибки и в их программах течет память. Например, у меня некоторое время подтекал Xorg и выжирал 16 Гб свопа.
Конечно же есть единицы, которые бережно относятся к ресурсам. Но вы же прекрасно знаете что сейчас доминирует мнение о том что одна планка памяти стоит дешевле для работы программиста. И поэтому вкладка gmail в браузере, отжирающая половину гигабайта — это норма. Как вы думаете, там действительно все 500мб — нужные данные?
И мне кажется что прирост скорости по сравнению с 10-летними браузерами доходит до порядка.
И да, на i7 с нормальной озу не думаю что обслуживать это проблема.
И да, на i7 с нормальной озу не думаю что обслуживать это проблема.По-моему эта фраза говорит нечто строго противоположное предыдущему комментарию. На «i7 с нормальной ОЗУ» тормоза от того, что программа написана «рыхло» и потребляет кучу ресурсов меньше заметно, да — но это не значит, что оно работает быстрее.
«Это не у нас хреновый код, а у вас компы слабые.»
Не надо так делать. С таким подходом получается фигня тормозная изнутри и уродливая снаружи.
Просто, если вместо метрик нагрузки у вас мониторится состояние (жива/мертва), то я даже не знаю… Надеюсь, это не какой-то важный, нужный людям сервис.Это нормальная ситуация при использовании autoscaling в облаке (автоматическое создание/уничтожение виртуальных серверов).
Например, есть 5 серверов (из них 4 обеспечивают нетормозную работу при текущей нагрузке, плюс 1 для горячей замены), и если один сервер по какому-то показателю оказывается «плох», то он просто прибивается. И запускается новый ему на замену.
Надеюсь, это не какой-то важный, нужный людям сервис.
А кто из людей вам важнее?
По моему опыту у владельцев ресурса, клиентов (например — покупателей рекламного трафика), администраторов и посетителей запросто могут быть различающиеся представления касательно ранжирования по важности.
Какую неочевидность в данном случае вносит своп? Ваша система мониторинга суммирует к свободной RAM своп?
Неоднозначность — приложение может в любой момент решить использовать что-то старое и перенесет это из свопа в RAM. Резко и очень много.
Отдельный такой пик мы переживаем без проблем. Но если одновременно так сделают 2-3 процесса — пик слишком большой и активные процессы свопятся и тормозят.
При этом система стабильна по производительности и имеет запас свободной памяти в 20-30%
Отсутствие свопа в продакшене дает стабильную производительность приложения в любых условиях.
«Равномерную» производительность. Равномерную вплоть до стерильности, до микросекунд.
Но отнюдь не стабильность.
Стабильность как раз ниже — так как в случае нехватки памяти приложение просто «вылетит».
Swap — это «страховка» от подобных ситуаций. И это страховка чего-то стоит, разумеется, каких то затрат.
1. Кто то не умеет сайзить сервера, увы не все понимают и умееют
2. Течет память в приложении
3. Архитектурная ошибка (вопрос об автоскейлинге), лучше в пике нагрузке добавлять серверов, чем иметь тормоза swap, так как конечному клиенту пофигу что на вас сервис пришло сразу 1000 клиентов, есть SLA и надо его держать.
А без свопа у вас просто РАЗ и упадет приложение.
Если постоянно отслеживается свободная память и потребление никогда не превышает 80% (остальное — всякие кэши, в том числе для этого нужен избыток памяти), то можно ли выключать swappiness и вообще своп.
Нельзя, нельзя выключать своп у любой организации которая не песочница для детей. Люди очень волнуются даже когда посты пропадают на форуме.
1. всё хорошо, ни что не предвещало беды
2. всё хорошо, ни что не предвещало беды
3. всё хорошо, ни что не предвещало беды
4. Мы упали, ошибки, данные потеряны
5. всё хорошо, ни что не предвещало беды
6. всё хорошо, ни что не предвещало беды
Главным образом он не раскрыл тему проблем с управляемой памятью. Например у нас есть java машина, или мощная БД (Oracle, Postgres), которые обладают собственной логикой работы с памятью (особенно jdk) и которым попадание в swap крайне мешает. Собственно тот же Google давно на многих своих машинах отключил своп.
Выгоды использования LargePages:
— сегмент памяти находится в RAM и не вытесняется в swap — обращение к страницам в памяти быстрее
— ниже затраты CPU на адресацию страниц, поскольку при том же объеме сегмента в памяти, число страниц меньше (чем при использовании обычных 4К страниц)
— меньше размер PageTable для адресации сегмента из больших страниц
Enjoy.
Надо только чтобы приложение поддерживало использование этих LargePages. Например Oracle и PostgreSQL поддерживают. В Oracle такие страницы называются HugePages.
echo 2 | sudo tee /proc/sys/vm/overcommit_memory
echo 80 | sudo tee /proc/sys/vm/overcommit_ratio
Это запретит одному приложению выжрать более 80% памяти.
Вы тем самым вырубите возможность резервировать большие куски адресного пространства, чем создадите туеву гору проблем приложениям на языках с GC.
Чтобы вся память была одним большим непрерывным куском. Так с ней банально удобнее работать, не надо держать дополнительные таблицы.
В Win32 API для этих целей у VirtualAllocEx есть флаг MEM_RESERVE, который не выделяет память, а резервирует кусок адресного пространства. Потом из этого куска можно постранично выделять через MEM_COMMIT, который в свою очередь может отрапортовать о нехватке памяти.
В Linux адекватного механизма для резервирования памяти я лично не увидел (возможно, есть какая-то магия с флагами mmap), вместо этого "выделяется" кусок памяти с оверкоммитом, а потом приходит злой дядя OOM-killer.
А зачем языкам с GC резервировать большие куски адресного пространства?Правильный ответ: потому что идиоты. Или, мягче: «всем пофиг».
Зарезервируйте себе память с PROT_NONE и, о чудо, overcommit вам мешать не будет. Но это ж думать надо!
Если я не ошибаюсь, это поверье ходит где-то со времен Windows95.
Раньше.
Я это видел на под-КОМКОНовском ХП в 1990г.
Там было 1.3Г памяти и 2х1.3Г харда. Один хард был чисто для свопа во время работы и для аварийного дампа, если придется.
Так мне тогда, по крайней мере, объясняли.
Примерно тогда же я увидел Вин2.0 и совсем не мог понять, как оно может сделать мою жизню лучше…
А что вторая винда 1987го года выпуска, так что вообще не вопрос: это сегодня вы можете скачать софт черед день после релиза. А в те годы он путешествовал гораздо медленее. А если ещё учесть, что только как раз Windows 3.0 и получила признание у разработчиков… то повода вот прям в первый же день после релиза за ней гоняться вно не было.
Как будто кроме персоналок и рабочих станций в природе никогда ничего не было. Вы ещё скажите, что Microsoft Basic в 1975м на машине без жёсткого диска писался, ага.
Когда-то описывал полезную в этих случаях комбинацию Alt-SysRq-F — принудительно запустить OOM-killer один раз. По умолчанию она (и многие другие сочетания с SysRq) запрещены по соображениях безопасности (по каким именно — нужно читать где-нибудь в первоисточнике), а вообще есть даже сочетание для того, чтобы уронить ядро в kernel panic. :) Это не в качестве замены свопу, а в дополнение (при наличии свопа иногда весьма полезное).
На всякий случай, вот документация. Там много всяких интересных штук, а вот про влияние на безопасность (локальный пользователь прибил lock screen и т.д.) нужно читать где-нибудь в другом месте. Кстати, при работе по ssh до magic sysrq key можно достучаться через /proc/sysrq-trigger
, если права позволяют.
У меня точно такой же опыт, только если IDEA
заменить на SublimeText
, а Включил
на Выключил
. Т.е. со включенным свопом ни разу не дождался момента пока запустится OOM killer, и часто не успевал закрыть вкладок или убить какой-нибудь процесс до того, как всё повиснет намертво. Сейчас выбрал размер свопа порядка 256МБ с низким vm.swappiness
— если и выжрет кто-то всю память, то как кончится своп его прибъют.
Так что по прочтении статьи, из разнобоя мнений в сети, и нашего с вами примера могу кратко и ёмко рассказать как живёт Линукс без свопа / со свопом — "Анонимус его разъеберёт"!
Так что по прочтении статьи, из разнобоя мнений в сети, и нашего с вами примера могу кратко и ёмко рассказать как живёт ЛинуксНа самом деле всё просто: если свопа нет, то Linux живёт плохо. Но если своп есть и он кончается — тогда всё, просто караул, на проблемы выкинутого из-за нехватки памяти кода накладывается ещё и то, что часть данных ушла в своп, если система попала в такое состояние, то её можно хоть сразу выключать…без свопа / со свопом— «Анонимус его разъеберёт»!
Если бы было всё просто, не было бы таких дискуссий на тему свопа в сети. В моём случае, когда свопа была ещё туева гора (8GB RAM + 8GB swap на HDD), но своп заполнялся где-то на 512MB-1GB, система начинала тормозить и в течение минуты висла совсем. На других системах включая сервера всю память мог сожрать какой-нибудь старый grep или sed, если ему случайно попадался большой файлик с монострокой, и хорошо, если ssh отваливался не сразу и успевали разобраться в чём дело и прибить его.
Так вот, при открытии снимка система висла минуты на 3 — все лишнее скидывалось в своп.
Попробовал запустить zramswap как промежуточный буфер между диском и памятью — все стало значительно лучше, тот же снимок открывался за секунды вместо минут.
Т.е. каким-то чудом простейший алгоритм сжатия спасает. Может пустые страницы вытесняются — хз.
Также в конфигах ядра встречал опцию сжатого дискового свопа. Тоже полезная штука — ценой ресурса цпу значительно ускоряет дисковый ввод-вывод при обращениях к свопу. Цимес в том, что когда система висит из-за этого ввода-вывода, цпу так и так простаивает, и выгодно пустить его на ускорение диска.
Но для ее включения нужно компилировать ядро, что очень неудобно на бинарных линуксах, которые везде и стоят.
Если имеется ввиду zswap
(или его альтернатива zram
, обычно используется когда нет возможности использовать дисковый своп), то большинство дистрибутивов позволяют включать его не просто без пересборки ядра, но и просто на лету. Например в доках Archlinux есть статья.
Или пример из жизни Ubuntu, строка из /etc/default/grub
: GRUB_CMDLINE_LINUX_DEFAULT="quiet splash zswap.enabled=1 zswap.max_pool_percent=33 zswap.compressor=lz4"
Или что-то другое имеется ввиду?
zramswap — swap на таком диске
zswap — сжатый динамический кэш между оперативкой и диском
А при конфигурации ядра перед компиляцией встречался еще один параметр.
Насколько я понял, там смысл был в том, чтобы сжимать все страницы перед выгрузкой на диск, и на диске держать их в сжатом виде, просто ради ускорения ввода-вывода: например диск работает на скорости 30мб/с, а если складывать туда сжатые данные, с коэффициентом сжатия например 2, то при тех же 30мб/с физических, скорость выгрузки памяти выйдет уже 60мб/с, профит.
Если zswap не распаковывает страницы перед сбросом на диск, и на диске хранит в сжатом виде — получаем по сути то же самое. К тому же zswap еще и пропускает странички с большой энтропией, дабы не тратить ресурсы на явно несжимаемые данные.
Оомкиллер отдыхает, видимо ему самому не хватает памяти для запуска.Ему не нужно время для запуска, он в ядре. Просто с его точки зрения — всё в порядке! Память-то есть, просто для кода её мало осталось… вот и гоняются странички туда-сюда.
Простоять так может долго, я больше получаса не ждал, еще не разу не отвисла.У меня SSD. Обычно через 1.5-2 часа отвисает. Вернее как «отвисает»? Столько времени занимает переключение на текстовую консоль, а там — уже можно найти какое-нибудь приложение и убить его… но лучше включить свап.
Ловил много раз, отпускало за 15 минут — 1.5 часа (не сохранено было много), проще действительно перезапустить.
«Так что могу кратко и емко рассказать, как живет линукс без свопа — «хреново»!»
Но у меня своп включен, сейчас там около 60 гб. Подвисания никуда не деваются, но когда добавил ещё 2 флэшки по 32 гига и сделал своп на них, стало гораздо меньше фризов. Смотрю ещё в сторону bcache. Жаль, что в лине нет штатно аналога ReadyBoost, он в винде реально помогает от лагов.
rpool ONLINEдля свопа сделал раздел на том же ssd (хотя это и неправильно)
mirror-0 ONLINE
ata-ST2000NM0011_Z1P01D61 ONLINE
ata-HGST_HUS724020ALA640_PN2134P6K564KX ONLINE
cache
zfscache ONLINE
еще установил zswap
тупки могут начинаться (при сбросе буферов), но фризов на минуты/часы ниразу не ловил
всего памяти 16Гб, DE — kde ()plasma-desktop: Установлен: 4:5.8.8-0ubuntu1~ubuntu16.04~ppa1)
постоянно открыт ФФ с туевойхучей вкладок, 2-е виртуалки (VirtualBox) по 2Гб на каждую, открываю IDEA (проекты небольшие, классов по 20), QupZilla-2.2.5.AppImage
под zfs —
cat /sys/module/zfs/parameters/zfs_arc_max
2147483648
zil на ssd не делал (т.к. он один)
Как это нет? Есть LVM cache, есть bcache. Кладёте кэш на ssd и вперёд.
Скорее всего низкая скорость случайного чтения/записи у вас, потому так долго тупит, пытаясь сбрасывать и считывать обратно кеш и пр.
Или, как вариант, если свопимся больше секунды — то kill -9 самого жирного или быстрорастущего.
Так, например, стек ядра каждого потока — это от 8k, то есть две последовательные страницы памяти, на большей части архитектур.
Плюс, большинство функций аллокации в ядре выделяют странички идущие непрерывно. Кроме vmalloc(), которым не советуют пользоваться, потому что он довольно дорогой.
Мой пример:
У одного из наших клиентов есть «очень серьезное приложение» (TM) написаное на RoR какими-то подрядчиками. Подрядчики эти уже больше года отказываются починить memory leak который случается стабильно раз в два дня и на большой скорости выжирает всю доступную память примерно за 5 минут, после чего ООМ убивал приложение.
До того как они к нам пришли за помощью оно (приложение) у них падало раза 3-4 на неделе на каждой из машин (10 серверов после HAproxy). Им критически важно чтобы для всех пользователей был 100% uptime (даже если за счет задержек в ответах). Времени среагировать просто нет (за 5 минут мы только первые сигналы увидим о том что память заканчивается).
Как временное решение — добавили своп 20ГБ на каждой из машин, vm.swappiness = 15.
Теперь у нас есть примерно 1 час чтобы среагировать на заканчивающуюся память. И больше времени для более стабильного решения.
В конце мы просто поставили unicorn-worker-killer gem и сконфигурировали его чтобы убивал worker процессы когда они отъедают больше чем X% памяти.
Так что медленный своп это в некоторых ситуациях скорее достоинство чем недостаток.
В данном примере своп — весьма тухлый костыль и нет никакого смысла ругать провайдеров за расчет на нормальные приложения
Им критически важно чтобы для всех пользователей был 100% uptime (даже если за счет задержек в ответах)
И как systemd restart=always или supervisord тут поможет? Те сессии, которые были открыты когда OOM случился отвалятся с ошибкой. Правильный подход будет — убрать ноду из LB, дождаться когда на ноде 0 сессий, прибить приложение и перезапустить. Своп помог оттянуть время ООМ чтобы все это можно было провернуть. Да — не оптимально и вручную, но это именно то что нужно клиенту и дало нам достаточно времени чтобы найти постоянное решение (тот самый unicorn-worker-killer).
Учитывая отсутствие общего хранилища сессий и общей неготовности приложения к многонодовому исполнению я-бы сказал что в вашем частном случае своп как и воркер-киллер сделал медвежью услугу подрядчику который «расслабил булки» и продолжает получать деньги за предоставление некачественной услуги
FYI: Linux умеет в файловый swap, так-что мучиться с разметкой диска если «ну совсем нужен» не обязательно
Учитывая отсутствие общего хранилища сессий и общей неготовности приложения к многонодовому исполнению
1. Я где-то написал про HTTP сессии? В этом контексте это TCP сессии. Если приложение убит ООМ что с ними случится? И какие такие «общие хранилища» для TCP сессий вы предлагаете?
2. Как подрядчик будет «продолжать получать деньги за предоставление некачественной услуги» если подрядчик проект сделал и испарился. Работаем мы с клиентом, подрядчика этого мы в глаза не видели.
3. JFYI: Я вроде нигде и не писал про «мучиться с разметкой диска». В том конкретном случае мы просто
# dd if=/dev/null of=/swapfile bs=1M count=$(1024*20)
. Быстро и просто.- TCP на RoR? Не буду спрашивать в чем принципиальная разница между сессиями кастомного tcp и http
- Ну тут уж опять-же все утыкается в недобросовестного подрядчика
- За что же облачного провайдера линейкой бить, если создание свопа никто не ограничил и проблемы это не вызвало? С другой стороны, отсутствие свопа позволило сразу обратить внимание проблему вместо «неуловимого джо» в виде непредсказуемых тормозов у клиентов
За что же облачного провайдера линейкой бить, если создание свопа никто не ограничил и проблемы это не вызвало
За то что учат всех что «no swap, no problems», хотя это далеко не так. Мой пример как раз и написан для того чтобы показать что своп это такой же инструмент, которым нужно знать как и когда пользоваться. Может они (облачные провайдеры) и хотят как лучше, но получается «как всегда». Точно также как они (облачные провайдеры) по-умолчанию отключают SElinux на всех своих образах, ну а как-же, половина интернетов отключают (потому что не знают как им пользоваться), вот мы им и поможем, заранее для них отключим.
Подрядчики эти уже больше года отказываются починить memory leak
Как временное решение — добавили своп 20ГБ
Как там кофемашины говорят, "Опорожните поддон для капель"...
Ещё стоит задуматься о типе носителя для swap'а
Сейчас я раскрою самый секретный лайфхак:
Расположите swap в zram!
Wait… oh shi~~~
— Слушай, Гена, давай я понесу чемоданы, а ты понесёшь меня…
— Это ты здорово придумал, Чебурашка!
</irony>
(с) habrahabr.ru/post/172137/#comment_5984189
А я как-то видел как в очень-очень большой компании скормили серверу очень много данных связанных с биллингом. И 300 гиг памяти оперативной просто сожрало. Потом начало жрать своп, и это кое-как успели отловить уже. И успев добавить на лету в своп (изначально 60 гиг, докидывали по 50, в итоге за 200 стало временно) смогли без падения докрутить то, что по новой было бы часов 10+.
В общем мне все это напомнило старый ролик «Mongo DB Is Web Scale».
у меня есть старая машина без возможности апгрейда и малым объёмом памяти (2GB).
чтобы хоть как-то жить, я включаю там z-ram (в 2 потока).
нужно ли что-то менять в настройках vm.swappiness (или ещё каких-то), чтобы система активнее использовала сжатую «память»?
Например, слышал, что раньше были особенности у как минимум одной из реализаций гибернации: записал в своп состояние памяти, выключился. Захотел включиться и считать память обратно — нужно бы вначале подмонтировать раздел со своп-файлом, но вот незадача: была проблема сделать так, чтобы ядро ну совсем-совсем ничего не исправляло на dirty-разделе — ведь тогда у "восстановленного" ядра будет неконсистентное представление о том, что сейчас на диске. Впрочем, частично ситуация изменилась ещё в декабре 2006 года, судя по логу. А ещё мне очень нравится big fat warning в начале этого файла...
одной из реализаций гибернации
Гибернация сравнительно новая вещь — ей лет 15-20.
А swap и соответствующему разделу — как бы не в 2 раза больше, 25-30.
Так что не поэтому.
Фишка в чём: своп-раздел банально быстрее. Там нет фрагментации. Нет лишних seek'ов. На HDD — это очень заметно. На старых SSD — нет. А если учесть, что старые SSD были гораздо меньше современных… То да — вы были правы какое-то время.
Современные SSD же, однако, настолько велики и быстры (та же история, что и с DRAM: скорость случайного доступа почти не меняется, зато пропускная способность растёт), что это снова актуально…
Отключение swap не спасает от проблемы дискового ввода/вывода при конкуренции за память — дисковый I/O просто перемещается с анонимных страниц на файловые. Это не только может быть менее эффективным, поскольку остаётся меньший пул страниц, доступных для высвобождения, но и само по себе может способствовать появлению этой высокой конкуренции.
Скажите это Chrome, который стучится к swap, пытаясь записать туда открытые вкладки, которые не используются!
Особенно интересует вариант виртуального сервера с небольшим количеством памяти. Если говорить ещё точнее — 384 МБ.
OpenVZ, система — CentOS 7, используется достаточно шустрый SSD — 200-300 МБ/с на популярном тесте с помощью dd. По умолчанию swappiness = 10.
1. Обязательно zram на количество ядер, размер зависит от сжимаемости данных. 128 основной RAM (~1/3..1/4) оставить, 256*1.5=384 на все zram-ы, по количеству ядер, 1x384, 2x192 и т.п.
2. vm.swappiness ставил 10, дичайшие фризы ловил, OOM не вызывался за разумное время от 10 минут до 2.5 часов в разных случаях. В статье говорится, что надо бы увеличивать. Буду пробовать 90.
1) Не гнаться за уменьшением размера транзистора. Но и слишком большим его делать нельзя — потребуется много кремния.
2) Имеет смысл ставить в каждый чип по несколько кристаллов. Можно будет даже использовать чипы, в которых часть кристаллов дефектные.
3) Можно подумать об отказе от FastPage. Но тут мне пока неясно.
4) Данная память может вставляться в мат.плату или в пату расширения.
Так вот, такой памяти д.б. много — в несколько раз больше, чем обычной. Использовать её можно для:
1) swap-area;
2) кэш диска;
3) RAM-FS для временных файлов.
И вопрос о свопинге на диск (HDD или SSD) отпадает.
Я достаточно давно обдумываю идею: устанавливать в компьютеры не только обычную RAM, но и специальную дешёвую SlowRAM
Уже очень много лет это реализовано.
В качестве «SlowRAM» можно было использовать даже USB-Flash
И чем это будет лучше хорошего SSD? Хотя были и устройства с оперативной памятью в качестве дисков.
Да ничем.
Не массовый продукт — дорого.
Массовым не станет — ибо и так хватает оперативки.
В ситуациях когда не хватает — есть уже Intel Optane и т.п. habrahabr.ru/company/selectel/blog/345306
Во-вторых, многие вещи изначально были не массовыми и дорогими — а потом внедрились и стали повсеместными. Да собственно, каждый новый процессор и каждый новый вид памяти проходил через это.
В-третьих, Вы сами дали ссылку на то, что моё предложение реализовали. Значит, это всё-таки актуально.
Во-первых, даже если продукт не массовый — практически все компоненты вполне массовые: медленную память делаем на старых станках, продлевая их жизнь.Так это не работает. Быстрые «новые» чипы — дешевле, чем старые «медленные».
Исключение — когда вам этих чипов нужно мало (набор масок для современных техпроцессов стоит под $100 миллионов — и там неважно: сколько вы чипов хотите «испечь» — один или один миллион), но если у вас этой SlowRAM будет мало… то кому она, нафиг, будет нужна?
В-третьих, Вы сами дали ссылку на то, что моё предложение реализовали. Значит, это всё-таки актуально.Актуально, да — но не SlowRAM, а скорее FastHDD… и производится оно по самым новым техпроцессам какие только бывают в природе (хотя фишка там не в нанометрах, а в 3D-компоновке)…
Кроме того, в наше время есть новые чипы — быстрые и медленные. Я предлагаю для оперативной работы использовать быстрые чипы, а для свопинга ставить медленные чипы.
Так, стоп. Там упоминаются слова «in-memory database» и «memcached» — это совершенно точно относится к памяти, которая теряет содержимое при выключении питания. Если использовать SSD — то там лучше применять более другие методы работы с СУБД.
Быстрые новые чипы сейчас — дешевле, чем старые медленные чипы тогда. Но если бы старые чипы не сняли с производства — сейчас он бы были ещё дешевле.Нет, не были бы. В том-то и дело, что стоимость производства чипов в пересчёте на квадратный миллиметр почти не падает со временем. Новые чипы дешевле потому, что они меньше, всё остальное не так важно. В качестве курьёзного примера: «старые» неработающие процессоры (до Pentium Pro включительно) сейчас продаются на eBay по цене, превышающей стоимость самых дешёвых новых просто потому, что столько стоит имеющееся в них золото.
Как вы с этим собираетесь бороться? Переналаживая техпроцесс? Так проще его просто обновить и получить экономию ещё и за счёт геометрических размеров…
Так, стоп. Там упоминаются слова «in-memory database» и «memcached» — это совершенно точно относится к памяти, которая теряет содержимое при выключении питания.То, что память не будет стираться при выключении питания — чему-то мешает? Полвека назад компьютеры могли использовать память, не теряющую данных при отключении питания, в качестве основной, а сейчас — не могут? Почему?
Если использовать SSD — то там лучше применять более другие методы работы с СУБД.Потому что «так принято»? SSD выглядят в системе как «жёсткий диск» не потому что так лучше и удобнее, а просто потому что установить систему на раздел «жёсткого диска» установщик Ubuntu умеет, а в память-не-пропадающую-при выключении — нет. Так-то второе удобнее и правильнее.
Об этом ещё несколько лет назад говорили — а теперь вот и до реализации дошли…
стоимость производства чипов в пересчёте на квадратный миллиметр почти не падает со временемСкорость доступа к памяти определяется массой параметров, среди которых — расстояние от процессора до памяти. Отсюда следует необходимость делать всё компактно, что вместе с ростом частоты создаёт проблемы с подачей питания и отводом тепла.
Цена кристалла зависит от площади нелинейно — ибо чем больше размер кристалла, тем выше вероятность заполучить там критический дефект. Отсюда следует, что уменьшением размера кристалла можно получить снижение себестоимости — но из-за «размазанности» время доступа станет больше.
А главное снижение себестоимости — за счёт того, что не надо делать новый станок, а можно продлить жизнь старого.
То, что память не будет стираться при выключении питания — чему-то мешает?Если память не стирается — то её содержимое не надо никуда переписывать, а эту память надо использовать как постоянный носитель. Просто организовать там файловую систему; или просто разложить там таблицы, некоторые СУБД так умеют.
Потому что «так принято»?Вообще-то, «принято» — именно хранить данные на носителе, а не «in-memory database» и «memcached».
SSD выглядят в системе как «жёсткий диск» не потому что так лучше и удобнее, а просто потому что установить систему на раздел «жёсткого диска» установщик Ubuntu умеет, а в память-не-пропадающую-при выключении — нет.Вы фееричны.
SSD выглядят в системе как «жёсткий диск» потому, что если он будет выглядеть иначе, то надо будет заменять последнюю букву «D».
SSD — это блочное устройство. Оно блочное — ради того, чтобы иметь удобную работу с контрольной суммой блока (по той же причине сети работают с пакетами данных).
Далее — операционные системы ставятся не на диск, а на файловую систему. Это две немного совсем разные вещи.
Я не знаю про Ubuntu. Но FreeBSD умеет работать с файловой системой в памяти. Правда, я не знаю, умеет ли работать с ней загрузчик системы — но переписать загрузчик не очень сложно. Т.е. вопрос — точно не в установщике.
Цена кристалла зависит от площади нелинейно — ибо чем больше размер кристалла, тем выше вероятность заполучить там критический дефект. Отсюда следует, что уменьшением размера кристалла можно получить снижение себестоимости — но из-за «размазанности» время доступа станет больше.Это стёб такой? Почему падает цена памяти с уменьшением размеров транзистора ясно даже первокласснику: потому что этой памяти на 300мм (когда-то 200мм и так далее пластину влазит больше). Всё. Все остальные эффекты — вторичны.
Да, при переходе на более тонкий техпроцесс цена обработки одной пластины растёт — но при достаточно больших тиражах это несущественно. Иначе бы никто и не переходил на новые техпроцессы, это в первую очередь для экономии делается и уже во вторую — для всего остального.
Если память не стирается — то её содержимое не надо никуда переписывать, а эту память надо использовать как постоянный носитель. Просто организовать там файловую систему; или просто разложить там таблицы, некоторые СУБД так умеют.Да — так часто и делают. Но это не потому, что так лучше. Это потому что так проще.
Сейчас, потихоньку, наконец, от этого начинают отказываться…
Я не знаю про Ubuntu. Но FreeBSD умеет работать с файловой системой в памяти. Правда, я не знаю, умеет ли работать с ней загрузчик системы — но переписать загрузчик не очень сложно. Т.е. вопрос — точно не в установщике.Кто-то сказал, что вопрос в установщике? Чтоб компьютер мог запустить систему не с блочного устройства, а с чего-то ещё нужно много чего менять — EFI, загрузчик, ядро, и многое другое.
Самое главное — исчезает страховка. Сейчас, если у вас ядро (или злоумышленник через дыру в ядре) испортило всё на счете в памяти вы просто перезагружаете системы — и, вуаля, все структуры в памяти «рисуются» заново. А если у вас просто всё находится в энергонезависимой памяти и никакого «диска», с которого это всё загружено нет — то многие решения становятся резко сомнительными.
Вы фееричны.Вас мне никогда не переплюнуть.
SSD выглядят в системе как «жёсткий диск» потому, что если он будет выглядеть иначе, то надо будет заменять последнюю букву «D».Я правильно вас понял? SSD не может выглядеть в системе как оперативная памяти потому что в этом случае аббревиатура SSD станет «врать»? О боги, кого это когда останавливало!
Читаем: Intel® Memory Drive Technology transparently integrates the SSD into the memory subsystem and makes it appear like DRAM to the OS and applications.
По-моему всё — прозрачнее некуда. С точки зрения OS и приложений «оно» выглядит как DRAM, а не как блочное устройство. Что не мешает «ему» называться Intel® Memory Drive Technology…
Маркетологам, в общем, плевать на такие мелочки как блочные/неблочные устройства.
Почему падает цена памяти с уменьшением размеров транзистора ясно даже первоклассникуОсталось объяснить, почему размер транзистора снижается скачкообразно, а цена на память снижается плавно. И при появлении транзисторов нового размера цена падает не сразу — т.е. и корреляция во времени довольно слабая, что как бы намекает на существование иной причины снижения цены, которая действует параллельно.
Да, при переходе на более тонкий техпроцесс цена обработки одной пластины растёт — но при достаточно больших тиражах это несущественно. Иначе бы никто и не переходил на новые техпроцессы, это в первую очередь для экономии делается и уже во вторую — для всего остального.Переход на новый тех.процесс делается по многим причинам, в т.ч. ради снижения энергопотребления (оно же — тепловыделение) и для увеличения скорости (без снижения размера транзистора это невозможно).
Да — так часто и делают. Но это не потому, что так лучше. Это потому что так проще.Я не понял, что именно проще. Если упоминается «in-memory database» и «memcached» — это ни разу не проще, а именно намного сложнее.
Кто-то сказал, что вопрос в установщике?(Facepalm!!!)
Вы и сказали: «установить систему на раздел «жёсткого диска» установщик Ubuntu умеет».
Чтоб компьютер мог запустить систему не с блочного устройства, а с чего-то ещё нужно много чего менять — EFI, загрузчик, ядро, и многое другое.Загружать (точнее, запускать) систему не с блочного устройства мог ещё древний убогий BIOS самых древних версий: он опрашивал UMB-блоки (я надеюсь, Вы хорошо подготовились к дискуссии и знаете, что это за блоки) на предмет наличия там определённой программы; и если находил — то запускал. А эти программы уже делали что хотели — загружались со SCSI-исков (BIOS тут ни при чём); загружались по сети (ой — ну совершенно не блочное устройство); или вообще ничего не загружали, а запускали ROM-BASIC.
Самое главное — исчезает страховка. Сейчас, если у вас ядро (или злоумышленник через дыру в ядре) испортило всё на счете в памяти вы просто перезагружаете системы — и, вуаля, все структуры в памяти «рисуются» заново. А если у вас просто всё находится в энергонезависимой памяти и никакого «диска», с которого это всё загружено нет — то многие решения становятся резко сомнительными.Вы всё-таки решили переплюнуть меня по фееричности.
Энергонезависимую память надо «запирать на ключ» — т.е. после того, как туда залили нужное содержимое, её навдо блокировать от записи. Желательно аппаратно — так, чтобы программно разблокировать было в принципе невозможно. Т.е. — перемычкой. Или ещё лучше — записывать в однократно записываемое ПЗУ. Или — записывать в ПЗУ, которое можно переписать только на специальном программаторе (например, в компьютере в слот для такой памяти просто не заведён контакт «разрешить запись», а в программаторе он есть; или напряжение для записи нужно такое, какой в компьютере на этот слот не подаётся).
Вы же предлагаете записывать программы на диск — при том, что там программы можно поменять. Наверно, про компьютерные вирусы Вы не слышали так же, как про ROM-BASIC.
SSD не может выглядеть в системе как оперативная памяти потому что в этом случае аббревиатура SSD станет «врать»? О боги, кого это когда останавливало!Ну, выть осмеянным — никому не приятно. Да и экономически это невыгодно.
Читаем: Intel® Memory Drive Technology transparently integrates the SSD into the memory subsystem and makes it appear like DRAM to the OS and applications.Ну да — надстроили ещё один слой абстракции. Типичное быдлованское индусское решение, типичное для Intel.
С точки зрения OS и приложений «оно» выглядит как DRAM, а не как блочное устройство.И это сразу снижает производительность, т.к. TRIM не используется. Впрлне типично для решений на базе уровней абстракции.
Осталось объяснить, почему размер транзистора снижается скачкообразно, а цена на память снижается плавно.Это кто ж такой богатый, что может десятки миллирдов долларов выложить, чтобы сразу все линии обновить?
Это в лабораториях новые транзисторы появляются «скачкообразно». Средний размер транзисторов в больших компаниях уменьшается очень плавно — за счёт одновременного сосуществования линий двух, а то и трёх поколений.
А вот вот менее популярные чипы (скажем процессоры) — там и цена скачком падает при переходе на более мелкий техпроцесс.
Переход на новый тех.процесс делается по многим причинам, в т.ч. ради снижения энергопотребления (оно же — тепловыделение) и для увеличения скорости (без снижения размера транзистора это невозможно).Не в случае с оперативкой. Много вы видели планок памяти с активным охлаждением? Да, такие бывают тоже — но никак не в массовых системах…
Это уже за гранью добра и зла. А если я вас скажу, что круизный лайнер не может в Москве оказаться, потому что летать не умеет — вы скажите, что нужно к нему крылья приделать?Кто-то сказал, что вопрос в установщике?
(Facepalm!!!)
Вы и сказали: «установить систему на раздел «жёсткого диска» установщик Ubuntu умеет».
Да, установщик Ubuntu в память-не-пропадающую-при выключении устанавливать систему не умеет. А Queen Elizabeth не умеет летать. И то и другое — правда.
Но как бессмысленно приделывать крылья к Queen Elizabeth, так и не нужно менять установщик Ubuntu. Для Queen Elizabeth можно, в теории, прорыть канал (токо дорого очень), а для установщика — нужно серьёзно переделать весь компьютер.
Загружать (точнее, запускать) систему не с блочного устройства мог ещё древний убогий BIOS самых древних версий: он опрашивал UMB-блоки (я надеюсь, Вы хорошо подготовились к дискуссии и знаете, что это за блоки) на предмет наличия там определённой программы; и если находил — то запускал. А эти программы уже делали что хотели — загружались со SCSI-исков (BIOS тут ни при чём); загружались по сети (ой — ну совершенно не блочное устройство); или вообще ничего не загружали, а запускали ROM-BASIC.Вы бы ещё про PDP-6 какую-нибудь вспомнили. Да, были времена, когда компьютерам блочное устройство не требовалость. А вот для EFI — так уже не умеет.
Вы бы вместо того, чтобы рассуждать про технологии четвертьвековой давности, о которых все уже забыли давно, посмотрели на устройство современного компьюетра, что ли.
Вы же предлагаете записывать программы на диск — при том, что там программы можно поменять.Это не я предлагают — это жизнь предлагает. То, что вы помните про ROM-Basic — это замечательно, но совершенно не помогает понять как можно использовать NVMM-память.
Тут речь идёт не о ROM-Basic'е, извиняюсь, а о возврате старых добрых времён, когда никакие блочные устройства не были нужны.
И это сразу снижает производительность, т.к. TRIM не используется. Впрлне типично для решений на базе уровней абстракции.Для ReRAM никакой TRIM не нужен. А NVDIMM-N позволяет обкатать софт уже сейчас.
А вот вот менее популярные чипы (скажем процессоры) — там и цена скачком падает при переходе на более мелкий техпроцесс.Сколько я себя помню — при выходе нового процессора он (новый процессор) стоил дороже старого. И при переходе на новый тех.процесс — тоже.
Не в случае с оперативкой. Много вы видели планок памяти с активным охлаждением? Да, такие бывают тоже — но никак не в массовых системах…Тогда непонятно, что мешает ставить по несколько кристаллов в один чип.
А если я вас скажу, что круизный лайнер не может в Москве оказаться, потому что летать не умеет — вы скажите, что нужно к нему крылья приделать?А зачем? С такой осадкой он может и по реке приплыть.
Да, установщик Ubuntu в память-не-пропадающую-при выключении устанавливать систему не умеет.А установить систему иным способом — религия запрещает? Например, установить на HDD и скопировать на любой другой носитель — с аналогичной файловой системой или любой другой.
Но как бессмысленно приделывать крылья к Queen Elizabeth, так и не нужно менять установщик Ubuntu.Я не знаю, как там у Ubuntu — а у FreeBSD установщик меняли. Значит — менять надо.
а для установщика — нужно серьёзно переделать весь компьютер.(Facepalm!!!)
Написать нового установщик, загрузчик, ядро, etc — может любой желающий (при наличии квалификации). Переделывать весь компьютер (или даже его часть) совершенно необязательно.
А вот для EFI — так уже не умеет.Не вижу по ссылке ни слова про «не умеет». По сети грузиться — тоже не умеет?
Вы бы вместо того, чтобы рассуждать про технологии четвертьвековой давности, о которых все уже забыли давно, посмотрели на устройство современного компьютера, что ли.С тоской и грустью я смотрю на тот маразм, который делают криворукие дебилы.
Это не я предлагают — это жизнь предлагает.Нет, это предлагают дебильные манагеры и криворукие разработчики.
То, что вы помните про ROM-Basic — это замечательно, но совершенно не помогает понять как можно использовать NVMM-память.Учитывая популярность многоуровневой системы абстракций — использовать можно как угодно, в т.ч. самыми дебильными способами.
Тут речь идёт не о ROM-Basic'е, извиняюсь, а о возврате старых добрых времён, когда никакие блочные устройства не были нужны.В отличие от магнитных сердечников — Flash-память как раз тяготеет к работе в блочном режиме.
Ну или её можно использовать как память прямого доступа — но тогда только для чтения.
Наверно, Вы не догадывеаетесь, почему так. Поэтому заранее скажу: из-за изнашиваемости надо применять CRC и ECC плюс мапирование блоков.
Для ReRAM никакой TRIM не нужен.Вот когда ReRAM будет готова к использованию — тогда и поговорим.
Причём, если получится — это как раз и будет реализацией моей идеи о дешёвой медленной памяти.
А NVDIMM-N позволяет обкатать софт уже сейчас.Какой именно софт? Технологии «in-memory database» и «memcached» — давно обкатаны!
Сколько я себя помню — при выходе нового процессора он (новый процессор) стоил дороже старого. И при переходе на новый тех.процесс — тоже.Дороже старого с той же производительностью и тем же количеством транзисторов? Покажите мне, я хочу это увидеть.
Тогда непонятно, что мешает ставить по несколько кристаллов в один чип.Цена. Дороже будет. Дешевле новый маленький чип, чем два старых больших. Там, где памяти нужно много (сервера) — там ставят.
А установить систему иным способом — религия запрещает? Например, установить на HDD и скопировать на любой другой носитель — с аналогичной файловой системой или любой другой.Нет. Но переход в другую концессию ограничение, заложенные в EFI, не исправит.
(Facepalm!!!)Могут. И пишут. Однако далеко не ко всем компонентам системы есть доступ.
Написать нового установщик, загрузчик, ядро, etc — может любой желающий (при наличии квалификации).
Переделывать весь компьютер (или даже его часть) совершенно необязательно.Серьёзно? Что заставит компонент, над которым вы не властны делать то, для чего он не предназначен?
По сети грузиться — тоже не умеет?По сети — умеет, потому что под это — его затачивали. Под загрузку из памяти — не затачивали.
Да. Но подобное использование — это как в той задачке про костёр, чайник и математика, когда задачу «сводит к предыдущей» «с высокой эффективностью» выливая воду из чайника в костёр и тем самым одновременно туша костёр и опустошая чайник.А NVDIMM-N позволяет обкатать софт уже сейчас.Какой именно софт? Технологии «in-memory database» и «memcached» — давно обкатаны!
Тут, как говорится, «не в бровь, а в глаз». Использовать «in-memory database» и «memcached» поверх NVMM — это как раз «самый дебильный способ» и есть, так как основное преимущество (не нужно загружать данные в память заново при каждой загрузке системы) — пропадает.То, что вы помните про ROM-Basic — это замечательно, но совершенно не помогает понять как можно использовать NVMM-память.Учитывая популярность многоуровневой системы абстракций — использовать можно как угодно, в т.ч. самыми дебильными способами.
Есть надежда, что всё-таки со временем NVMM научатся использовать несколько… более оптимально. Но пока — Intel продвигает именно такой подход, да.
Это вы зря, кстати. «Маразм», как вы высказываетесь, разрабатывают весьма умные люди, в большинстве своём.Вы бы вместо того, чтобы рассуждать про технологии четвертьвековой давности, о которых все уже забыли давно, посмотрели на устройство современного компьютера, что ли.С тоской и грустью я смотрю на тот маразм, который делают криворукие дебилы.
Просто в IT особенно ярко проявляется принцип, который мы между собой называем «всюду лошади». Но он не только к IT относится. Решения, которые мы принимаем сегодня ограничены тему решениями, которые мы приняли вчера… а хрустального шара у нас нет и потому учесть то, что случится послезавтра — мы не можем (иногда можем учесть то, что случится завтра — но часто оказывается что планы меняются и «задел на будущее» оказывается не использован, а ограничения, про которые и не думали — начинают играть роль).
P.S. Оригинальная байка, давшая название выражению — тут.
P.P.S. Иногда удаётся этот принцип обойти — но не сильно. Подумайте почему какой-нибудь Falcon имеет диаметр 3.7 метра (12 футов), а не, скажем, 16 метров (что было бы гораздо более выгодно).
Это вы зря, кстати. «Маразм», как вы высказываетесь, разрабатывают весьма умные люди, в большинстве своём.Конечно, умные — вот сколько бабла они поднимают на впаривании людям фуфла.
А всё это потому, что как только кто-то начинает обсуждать нетривиальные решения — так свора «охранителей» набрасываются на него и минусуют.
Собственно, Ваша логика проста и прозрачна:
1) То, что сделано — так хорошо, что лучше быть не может (по кр.мере — на нынешнем этапе развития). Потому что если бы было можно сделать лучше — то разработчики сделали бы лучше.
2) Разработчики — лучшие, т.к. их наняли в лучшую из корпораций. (Отом, что за люди проводят отбор — естественно, ни слова. Ну, собственно, в лучшей корпорации — и отбором кадров занимаются лучшие люди.)
3) То, что разработчики — лучшие, доказывается тем, что они принимают лучшие решения. А то, что решения — лучшие: ну так лучшие разработчики и не могут принять другие решения.
О том, что на монополизированном рынке (а рынок из двух фирм — именно монополизированный) нет реальной конкуренции — естественно, никто не думает. Ну как, у нас же общеизвестно, что рынок силою невидимой руки приходит к лучшим решениям!
Просто в IT особенно ярко проявляется принцип, который мы между собой называем «всюду лошади».Ну и какой же параметр играет роль ширины лошадиной задницы в IT?
Кстати, в России железнодорожная колея — шире, хотя паровозы покупались в Англии.
В IT играет роль другой фактор:
Если инновация получится удачной — разработчик получит небольшую премию, а всю прибыль заберёт себе корпорация.
Если же инновация получится неудачной — то разработчика уволят: старшие менеджеры т.о. прикрывают свои задницы.
Поэтому разработчики просто не желают рисковать и разрабатывать что-то существенно новое.
Смотрим на рынок смартфонов:
Когда-то давно было много разных вариантов, примерно половина была с клавиатурами.
Сейчас — все практически одинаковые, отличаются только закруглённостью углов корпуса. Все используют сенсорный экран, с клавиатурами остались только тупые звонилки. И никто не собирается пробовать альтернативные варианты типа Psion.
Помяните мои слова: пока в США не случится больших потрясений — ничего существенно меняться не будет. Потому что пока США сильны — они будут поддерживать Intel и Micrio$oft. А Intel и Micrio$oft вполне довольны своим положением, у них нет никакого стимула разрабатывать что-то новое.
Ну Google немного потеребил рынок — но это чисто потому, что в этот момент складывался новый рынок мобильных вычислений. Да, новые рынки (на которых непригодны старые решения) будут двигать прогресс. Но очень слабо.
Кстати, странно, что при доставке топливного бака
а хрустального шара у нас нет и потому учесть то, что случится послезавтра — мы не можемА зачем учитывать послезавтра — если мы его сами создаём?
Иногда удаётся этот принцип обойти — но не сильно. Подумайте почему какой-нибудь Falcon имеет диаметр 3.7 метра (12 футов), а не, скажем, 16 метров (что было бы гораздо более выгодно).Очевидно — потому что Илон Маск ничего разрабатывать не способен и не собирается, а пользуется разработками NASA.
А в Казахстане — нет гор и туннелей.
Смотрим на рынок смартфонов:А вот это вы бросьте. Я с этим смартфонами вожусь последние несколько лет. Как раз когда Android появился — было много сматрфонов с клавиатурой. Начиная с первого телефона на Android, далее — DROID и прочие всякие BlackBerry…
Когда-то давно было много разных вариантов, примерно половина была с клавиатурами.
Сейчас — все практически одинаковые, отличаются только закруглённостью углов корпуса. Все используют сенсорный экран, с клавиатурами остались только тупые звонилки. И никто не собирается пробовать альтернативные варианты типа Psion.
Знаете что их обьединяло? Никакие продажи. Вот просто совсем никакие. Горсточки фанатов хватало на то, чтобы создать кучу тем на форумах, но категорически не хватало на то, чтобы окупить затраты на разработку. Потому их перестали выпускать.
Или вы предлагаете производителям их в убыток себе выпускать?
Помяните мои слова: пока в США не случится больших потрясений — ничего существенно меняться не будет. Потому что пока США сильны — они будут поддерживать Intel и Micrio$oft. А Intel и Micrio$oft вполне довольны своим положением, у них нет никакого стимула разрабатывать что-то новое.Особенно классно ваши слова смотрятся после выпада на тему смартфонов. Не подскажите — как там у Intel и Microsoft на этом фронте? Всё хорошо, да?
Ну Google немного потеребил рынок — но это чисто потому, что в этот момент складывался новый рынок мобильных вычислений. Да, новые рынки (на которых непригодны старые решения) будут двигать прогресс. Но очень слабо.Достаточно. Странно, что вас удивляет, что на сложившиеся рынки сложно войти. Это же и есть, как раз, эффект принципа «всюду лошади».
Мы их уже с десяток тут обсудили. SSD (вместо прямого доступа к флешу) — потому что железо рассчитано на HDD, x86 — потому что когда-то IBM не догадалась закрыть спецификации на BIOS IBM PC и многое, многое другое.Просто в IT особенно ярко проявляется принцип, который мы между собой называем «всюду лошади».Ну и какой же параметр играет роль ширины лошадиной задницы в IT?
А зачем учитывать послезавтра — если мы его сами создаём?Потому что создаём его «мы», а не «я». Вы можете предсказать (очень и очень приблизительно) что будете делать вы лично через 10 лет. Но куда пойдёт индустрия — предсказать в деталях невозможно.
Очень хороший пример тут — как раз HDD и SSD. В своё время в известной книге был очено хорошо разобран этот случай и было показано как производители HDD погибают при переходах жёстких дисках к меньшим габаритам.
Всё было очень убедительно… и производители HDD вложились в «следуюший шаг»: 1.8" и 1" HDD.
А индустрия взяла — и перешла вместо этого на SSD!
Очевидно — потому что Илон Маск ничего разрабатывать не способен и не собирается, а пользуется разработками NASA.Вот не надо устраивать тут конспирологию, Ok? Всё дело в том, что он ракеты по шоссе возит, а там несколько полос — но не смертельно много. Так что Falcon таки шире, чем пресловутые твёрдотопливные ускорители Шаттла… но не намного.
А в Казахстане — нет гор и туннелей.Вот только автострад — там тоже нет. Потому Союзы и Протоны возят поездами. А вот Энергию — поезд уже не берёт. Потому она и летала 2 раза всего, что вся экономия на отличной компоновке сьедается тратами на воздушный транспорт (собственно Мрия была под транспортировку Энергии разработана).
И есть второй вариант успещного стартапа — когда человек раскручивает стартап не на развитие, а на продажу его какой-нибудь крупной фирме. Вот только тут важен пиар (как у Илона Маска), а не реальная полезность для общества.
В остальных случаях стартап или загибается, или продаётся за бесценок крупной фирме. Причём в случае продажи — покупатель с высокой вероятностью загубит покупку.
Да и вообще — стартап обычно покупают не для того, чтобы его развивать, а чтобы заранее закрыть потенциального конкурента.
1) Скорость — не надо обнулять память перед записью туда новых данных.
2) Надёжностью: RAM не изнашивается.
3) Ценой. В частности, туда не нужен продвинутый контроллер.
4) Вероятно — энергопотреблением.
Прибавить оперативки — идеально. Но этому мешают три вещи:
1) Ограничение на размер оперативки, накладываемый мат.платой (чипсетом).
Как-то раз я очень долго ругался, когда обнаружил, что мат.плата (чипсет i815) имеет три слота под память, держит и правильно понимает модули вплоть до 512 мегабайт — и при этом суммарный объём памяти не может превышать те же 512 мегабайт. Феерично, не правда ли?
А до того у меня была мат.плата для процессора 486, восемь 30-пиновых слотов. У меня на ней стояли четыре модуля по четыре мегабайта, ещё четыре слота пустовали, но попытка добавить память провалилось — такое ощущение, что то ли мат.плата, то ли процессор не понимали, что памяти м.б. больше. При этом заполнение всех слотов одномегабайтными модулями — работало прекрасно.
2) Количество слотов и максимальный размер модуля памяти.
3) Тощий кошелёк. Обратите внимание: я недаром сказал про дешевизну памяти, которая д.б. достигнута за счёт снижения скорости.
Наиболее удобно работать с микрофлешками — сд/микросд
Создаем девайс с кучей портов под флешки, представляем их единым массивом — получаем дешевую медленную постоянную память
Плюсами — горячая замена вышедших из строя блоков. Синхронизацию запилить на fs с избыточностью, замененный блок тут же будет восстановлен, можно не париться с процедурой замены флешек, вытащил, воткнул и готово.
К тому же у нас МНОГО параллельных каналов данных к памяти (флешек много) — можно значительно все ускорить, грамотно распределяя данные по физическим устройствам
С точки зрения железа все предельно просто: контроллер просто раздает адресное пространство портам, т.е. просто роутер, без логики. Все остальное наращиваем программно
Если очень захотеть, можно это все упаковать в корпус и продавать как бюджетные программные ссд, повторно используя устаревшие флешки. В принципе ничто не мешает и обычные ссд лишить контроллеров, а логику оформить программно.
Значительно увеличит эффект технология исключения битых ячеек. Флешки выходят из строя не целиком, а блоками, которые можно исключить из массива, и продолжить использовать флешку
Также значительно увеличит эффект технология равномерного распределения износа по всему обьему накопителя
Имеет смысл не разбивать пространство по накопителям, а сливать его в единое, а дырки затыкать ФС с избыточностью данных — это одновременно убережет от сбоев в ненадежной основе, и избавит от необходимости переконфигурировать массив при изменении количества накопителей
* Трудно собрать старые флешки. Это сейчас кажется, что их много — а как начнёшь собирать, так этот запас быстро исчерпается. И придётся заказывать на фабриках новые.
* Мало кто согласится доверить свои данные попользованным флешкам. Мало ли в каких условиях они побывали. Рейдование. конечно, вещь хорошая — но при внезапном массовом отказе и это не спасает.
* Файловая система с избыточностью и умеренной ресурсоёмкостью — пока мне не известна. Такую ФС вообще надо выносить на отдельный процессор (без FPU) с отдельной памятью.
* Дальше мне не совсем понятно, как Вы собираетесь отслеживать порчу данных, т.е. изменение состояния бита. Средствами CPU считать контрольные суммы — получится безумно дорого.
* Подобная система будет нуждаться в постоянном присмотре человека, готового заменять умершие элементы. Сама файловая система сможет переносить данные на работающие флешки — но по исчерпании свободного места она уже ничего не сможет сделать.
Хотя идея, безусловно, интересная.
Но я могу предложить альтернативу: HDD большого размера (пятидюймовый; полновысотный, т.е. два пятилдюймовых отсека) с малой скоростью вращения и одновременной/параллельной работой головок. Время доступа будет большое, но скорость чтения/записи будет высокой. Позиционируется как накопитель для больших файлов последовательного доступа типа архивов, фильмов или музыки.
Причём ремонтопригодный: с возможностью легко заменить плату и мотор: производитель гарантирует доступность запчастей в течении длительного времени, доступ к заменяемым узлам достаточно лёгкий.
Средствами CPU считать контрольные суммы — получится безумно дорого.Ну вам же крипто-хеш не нужен! А CRC32 — за один такт вычисляется. BTRFS контролирует целостность всех файлов — и это не сильно её замедляет (у неё другие проблемы есть, но замедление от вычисления CRC к ним не относится).
Хотя идея, безусловно, интересная.Идея совершенно дурацкая, потому что вся электроника, выпущенная несколько лет назад — гораздо дороже, чем современная. Вот когда Закон Мура, пресловутый, себя исчерпает совсем — тогда да. А пока — бессмысленно.
Почему? Да потому что, блин, математика! Геометрическая прогрессия, блин!
На одну чашу весов кладём всё, что выпущено с доисторических времён до 2015го года включительно. Вот все флешки, всю память, всё-всё-всё-что-только-бывает.
На другую — флеш-память, встроенную в смартфоны выпущенные за 2016й-2017й годы.
Где будет больше флеша? Правильно — справа.
Ни и какую, нафиг, вы собираетесь делать «дешёвую» память при таких раскладах?
Один человек — да, может что-то такое «для души» спаять. Но такой умелец и без того зарабатывает достаточно, чтобы нормальной памяти купить, скорее всего.
А в рамках индустрии — оно не работает и работать не будет. Потому что нет ни старой памяти, ни старых флешек в достаточных обьёмах! Просто нету в природе! Закон Мура это гарантирует!
Ну вам же крипто-хеш не нужен! А CRC32 — за один такт вычисляется.Я Вам про
Допустим, в блоке данных инвертировался один бит, причём мы не знаем, какой именно. Функция, вычисляющая номер сбойнувшего бита (она же проверяет целостность — даёт ноль, если всё в порядке, а биты нумеруются с единицы) — довольно сложная, за один такт не делается.
Ну, если может сбойнуть только один бит, то всё не так уж плохо. А вот если могут сбойнуть два или более произвольных бита — то всё намного хуже.
BTRFS контролирует целостность всех файловОй, и что же она делает, если обнаруживает сбой в файле?
Где будет больше флеша? Правильно — справа.Ну, использовать старые флешки — не я предложил.
А Вы не учли, что слева хоть и мало флеша — но он очень дешёвый. И на начальном этапе можно будет собирать носители во вполне приличных количествах. На старье вполне можно сделать мелкий или даже средний бизнес.
«В реальности, как мы понимаем, все совсем не так. Автор пишет правду, вот только по опыту своп делает не лучше, а хуже. Автор даже отмечает, почему — oom killer приходит позже, чем мог бы. О чем автор не пишет, так это о том, что при интенсивной конкуренции за память система становится неуправляемой — sshd оказывается в свопе, и привет.
В рамках использования cgroups из свопа, возможно, удастся извлечь пользу, но это требует исследования. А на обычном сервере своп не нужен — допускать высокой конкуренции за память мы все равно не должны, а при низкой осмысленность минимальная.
Ну и последнее. Ненужные анонимные страницы — это какие-то копейки в современной системе. Стоит ли ради них возиться со сложным механизмом?»
Полностью согласен с доводами, что статья… кхм… однобокая. Надо не загонять проблему нехватки памяти под ковер, путем включения свопа, а наоборот — выпячивать ее. Что и позволит наконец-то писать программы в условиях ограниченного кол-ва ресурсов, т.е. заставлять их фиксировать.
В защиту swap'а [в Linux]: распространенные заблуждения