PetaBox или где живет Интернет-архив archive.org

Не так давно, 25 октября 2012 года, Internet Archive (archive.org) объявил о том, что объем архивированных из Интернета сайтов превысил 10 петабайт (10 240 терабайт). Но как и где это все хранится?

Узнать некоторые подробности, а также увидеть само хранилище, Вы сможете благодаря нашему небольшому обзору. Так как Хабрасторедж временно не работает, мы были вынуждены загрузить изображения на сервер ua-hosting.com.ua. Надеюсь, что выдержим, если нет — не пинайте сильно, позже изображения загрузим как надо :)

image

Для хранения столь большого объема данных специально для Интернет-архива был разработан PetaBox. PetaBox — сторедж-решение от Capricorn Technologies, которое было разработано сотрудниками Интернет-архива и C. R. Saikley для хранения и обработки 1 петабайта информации.

image

Спецификация:

— Вместимость: 650 терабайт / стойку;
— Потребляемая мощность: 6 кВт / петабайт;
— Нет кондиционирования, вместо этого избыточное тепло используется для обогрева помещений.

image

Используемая инфраструктура по состоянию на декабрь 2010 года:

— 4 дата-центра, 1300 нод, 11 000 жестких дисков;
— «Машина времени»: 2,4 петабайт;
— Книги / видео / музыка в коллекции: 1,7 петабайт;
— Всего хранится: 5,8 петабайт.

image

История создания


PetaBox (tm) специально разработан сотрудниками Интернет-архива для безопасного хранения и обработки 1 петабайта информации. Цели при разработке были такими:

— Низкая потребляемая мощность: 6 кВт на стойку, 60 кВт для всего кластера хранения;
— Высокая «плотность» размещения данных: 100+ ТБ / стойку;
— Использование локальных вычислительных машин для обработки данных (800 low-end PC’s);
— возможность использования нескольких ОС;
— Возможность размещения в стандартных 19” шкафах / стойках;
— Возможность размещения в транспортном контейнере 20х8х8 м;
— Простота обслуживания: один системный администратор / петабайт;
— Программное обеспечение для автоматизации полного резервирования (зеркалирования);
— Легко масштабировать;
— Недорогая конструкция;
— Низкая цена хранилища.

image

История


Первая 100 ТБ стойка европейского архива начала свою работу в июне 2004 года. Вторая стойка на 80 ТБ начала функционировать в Сан-Франциско в том же году. Интернет-архив затем создал компанию Capricorn Technologies, которая специализировалась исключительно по разработке и внедрению PetaBox.

image

В период 2004-2007 гг. Capricorn Technologies делает реплики PetaBox для крупных академических институтов, государственных учреждений и других предприятий. Их крупнейший продукт использует 750-гигабайтные диски. В 2007 году центр обработки данных Интернет-архива хранит около 3 петабайт информации при помощи технологии PetaBox.

Сейчас используется четвертая версия PetaBox, главные спецификации которой: 24 диска на 4U-единицу оборудования, 10 таких единиц оборудования в стойке под управлением Ubuntu, 240 дисков по 2 ТБ в одной стойке.

image

Интернет-архив в контейнере


Ну и в завершение, хотелось бы обратить внимание на транспортный контейнер, который был разработан SAN для Интернет-архива. Вместительность контейнера 20х8х8 метров позволит сохранить всю библиотеку конгресса США 55 раз!

ua-hosting.company
381.06
Хостинг-провайдер: серверы в NL / US до 100 Гбит/с
Share post

Comments 96

    –28
    Прочитал, что-то даже не знаю как реагировать.
      +17
      Проходить мимо, вестимо…
      +15
      Всего лишь красный корпус, а как стильно выглядит.
        +1
        Там вообще-то в комментариях к той странице есть куча новых фотографий. Странно, что вы выложили такое старье.

        ps: сорри, не совсем туда )
          +1
          Я думал они на лентах все хранят и роботизированное хранилище типа как тут на фото ru.wikipedia.org/wiki/%D0%A1%D1%82%D1%80%D0%B8%D0%BC%D0%B5%D1%80#.D0.9B.D0.B5.D0.BD.D1.82.D0.BE.D1.87.D0.BD.D0.B0.D1.8F_.D0.B1.D0.B8.D0.B1.D0.BB.D0.B8.D0.BE.D1.82.D0.B5.D0.BA.D0.B0
          Интересно бы узнать кто реально пользуется такими хранилищами в датацентрах? Или возможно там только всякие крупные банки логи транзакций архивируют? Но тогда откуда такой объем опять же будет.
            0
            При использовании этого типа хранения вряд-ли возможно пользоваться таким сервисом, как «Машина времени».
          +2
          > — Вместимость: 650 терабайт / стойку;

          На самом деле такая вместимость далека от рекордной, и в целом решение такое… ну на сегодня совсем не выдающееся по параметрам емкости и энергоэффективности. Я так понимаю, что основная цель была не емкость, а дешевизна хранения. В этом случае — да, наверное, достижение. Но тогда стоило бы именно на стоимсоти гигабайта заостриться.
          Потому что емкости в полтора петабайта на стойку 42U уже вполне широкодоступное и «серийное» в индустрии решение, если оно кому-то необходимо.
            0
            Можно немного пруфлинков?
              +5
              Про других другие расскажут, я расскажу с чем сам знаком:
              NetApp DS4486 — полка на 48 дисков 3TB SATA в 4U
              www.techcolumnist.com/wp/2012/07/03/netapp-ds4486-shelf-released-in-june/

              При примерно 2500 «правильных» GiB на диске «3TB» и 10 полках в 42U, получается 2500 * 48 * 10 = 1.2 PB на стойку.

              Другой вариант у того же вендора в моделях E-series, бывшие LSI/Engenio, есть дисковая полка на 60 дисков в те же 4U E5400.
              www.netapp.com/us/products/storage-systems/e5400/e5400-product-comparison.html

              При том же расчете получается 1,5 PB, причем это, отмечу, именно двоичных, а не десятичных петабайта, на таких объемах разница уже весьма существенную роль играет.
                0
                Беспощадно дорого :)
                www.aicipc.com/ProductDetail.aspx?ref=SS102-HE
                32 диска на 3U
                www.aicipc.com/ProductImage.aspx?ref=XJ3000-4603
                60 дисков на 4U
                  0
                  1. Кому дорого, вам?
                  2. Цены бывают разные. Там приведены — самые высокие из возможных. В реальной жизни они ниже. Сильно.
                  3. Вы знаете цены на устройства PetaBox? Или с чем именно сравниваем? с домашними торрентокачалками?
                    0
                    Я про приведенные вами устройства. Как правило любые специализированные NAS и SAN стоят дороже чем то из чего собран PetaBox. Плюс можно собрать аналогичные по плотности устройства из доступных на рынке деталей.
                      0
                      Собрать — можно. Работать — вряд-ли :)
                        0
                        Старый миф. Все работает. Причем с аналогичной надежностью.
                          0
                          Вы хотите об этом поговорить? ;)
                            –1
                            Я уже рассказывал тут про самосборные рековые сервера :) Вон в гугле в фейсбуке и прочих уже давно поняли, что критерий надежности 50/50 сломается или нет.

                            И в случае если у вас есть критичный к сбоям бизнес и мало денег. То лучше купить две дешевых железяки и положить одну в зип. Чем купить одну крутую и не иметь зипа.
                              +2
                              Вы на гугл и фейсбучик не кивайте. Лучше сходите у amarao спросите чего, как там у них их DRBD поживает.

                              Гугл и фейсбук могут купить себе разработчиков, которые им за полгода сядут и напишут новый линукс, а вы — нет. И не стоит пример гугла приводить, пока вы сами не гугл. Это не масштабируется.
                                0
                                Причем тут новый linux? Существующие в данный момент компоненты достаточно надежны для таких задач. У меня есть собранный на коленке NAS и он работает уже третий год. И не чихает. Можно подумать, что если вы купили у вот этих вот людей то решение сразу приобрело +100500 к надежности. Ничего подобного. Вы просто перенесли ответственность за решение на вендора и не более.
                                  +1
                                  Я понимаю, что вы хотите о наболевшем поговорить, но, извините, я не психолог :)
                                  У нас с вами разные подходы. Вы теоретик, и конструктор «НАСов на коленках», а я практик, и делаю решения для компаний, у которых сутки простоя стоят как вся ваша зарплата за 10 лет. Вы можете быть оптимистом, а я вынужден быть пессимистом, мне свои яйца жалко, извините за прямоту ;)

                                  К тому же «пессимист — это хорошо информированный оптимист», как говорят, а я достаточно хорошо информирован в этой области, уже не первый десяток лет всем этим занимаюсь, и всякого насмотрелся.
                                    +1
                                    Вы теоретик, и конструктор «НАСов на коленках», а я практик, и делаю решения для компаний, у которых сутки простоя стоят как вся ваша зарплата за 10 лет.

                                    Ни что меня так не умиляет как когда мне говорят, что я теоретик :)

                                    делаю решения для компаний, у которых сутки простоя стоят как вся ваша зарплата за 10 лет.

                                    Это совсем другой класс задач. Я думаю вы и сами отлично это понимаете. Тут можно хоть решения на коленке ставить. Что у них в целом и продемонстрировано.

                • UFO just landed and posted this here
                    0
                    А это потому, что у них цели разные.
                    DS4486 это «емкость во что бы то ни стало», а MetroCluster — «надежность во что бы то ни стало», а это плохо сочетающиеся между собой в одном решении принципы. Полка с SATA дисками, включенными в тандемный конструктив, на 3TB, это негодное решение для обеспечения максимально возможной доступности хранения данных (но вполне подходящее для максимальной емкости хранения), поэтому, собсно.
                    В общем DS4486 это очень узконишевой продукт, вот для таких задач, как в топике, и не более.
                    • UFO just landed and posted this here
                  +7
                  Еще можно энергоэффективность посчитать. Полка DS6600 потребляет в полной набивке 1,22kW и тепловыделяет 4180 BTU, соответственно будет 12,2kW на стойку из 10 полок и 41800 BTU тепла. DS4486, полагаю, того же порядка цифры.

                  У показанного выше при всего 100TB на стойку — аж 6kW,
                  Но, строго говоря, это нельзя сравнивать в лоб, так как выше примеры — чистое хранилище, а у archive-org это скорее grid какой-то, у них, как я понимаю, каждый блок имеет свой процессор, что, при задаче высокоплотного хранения, безумно избыточно (собственно очень плохие показатели энергоэффективности это демонстрируют), но, видимо, они как-то архитектурно построили вот именно что grid, а не просто хранилище, и что-то этим интересного достигают. И вот именно про последнее было бы более всего интересно почитать.
                    +1
                    Не силен в сей сфере, но тоже обратил внимание на выходы мыши/клавы/ЛПТ/КОМ/видюхи. Соглашусь, что это ну очень не оптимально для такого рода хранения данных.
                  –1
                  Ну, я думаю — данное решение — оптимальное соотношение цена/качество.
                    +2
                    «качество» чего? ;)
                  +24
                  т.е. вы хотите сказать, что сервер хостинговой компании может не выдержать нагрузку хабра?
                    +4
                    Нагрузку с хабра выдерживает обычный десктоп с обычным дефолтным апачем, даже без nginx'а сверху.

                    («выдерживает» — громко сказано, её просто не заметно).
                      +4
                      Что-то вроде этого я и имел ввиду. Странная фраза от имени хостинговой компании.
                        –3
                        Да просто к слову пришлось. Повышают цитируемость (странно, что без ссылки).
                          +5
                          Зная этого уважаемого провайдера, могу предположить, что не выдержит
                          –1
                          а хабраэффект тогда откуда появился?
                            0
                            Как клон slashdot-эффекта. Там да, могут много кого прийти. Но уж точно не на сайты с статикой. Проблемы вообще могут быть только у пользователей с динамикой, то есть там, где серьёзное приложение крутится. А на статику — большинство современных серверов и софта на них может отдавать статику со скоростью среды.
                              0
                              Картинки конечно же статика, но даже их просмотры временами могут создавать нагрузку. Особенно, когда одну и туже картинку начинает запрашивать бот в несколько тысяч раз одновременно. Это уже получается подобие дос-атаки.
                                +6
                                Мы как-то с программистом поспорили на тему «завалит ли он с помощью ab мне апач на домашней машине», Не завалил. Хотя мне пришлось ради теста закрыть один из трёх запущенных браузеров и гимп. Остались thunderbird, opera, ff, mypaint, krusader, deluge, smplayer с недосмотренным кином, всякая мелочь вроде пары десятков открытых консолей. Ну и там в уголке ютился апач, обрабатывавший запросы со скоростью среды.

                                Очевидно, что с гигабита на фулфилд мои 100мбит завалятся в пол-пинка. Но вот говорить о том, что современный браузер не способен отдать пару тысяч картинок в секунду — это чушь и глупость.

                                Минимальный же набор телодвижений позволит её (нагрузку) на статике выдерживать до тех пор, пока канал терпит.

                                Все, кто рассказывает о том, как им сервер статикой в 2к запросов в секунду завалили, либо ютятся на мелком VDS'е, либо имеют руки из задницы.
                              +2
                              Отчасти от кривых скриптов :).
                              0
                              Меня всегда умиляет как люди сравнивают несильно обозначенные величины.
                              Сравните: отдать сервером одну картинку или заход на sUpeR-Puper-nEw-curved-hand-made-CMS, которая каждый раз между запросом клиента и возвратом контента произведет расчет погоды на марсе исходя их его IP и курса доллара?
                              А они это делают, поверьте. А потом говорят, что хостер говно, ресурсы ограничил, редиска, что житья нет совсем.
                              Не совсем IT, но так же часто смешно сравнивают:
                              — Я заправляю машину раз в три дня, у меня нормальный расход?
                              — Что-то многовато, я раз в три дня заправляю!!!
                              И больше НИКАКИХ данных.
                                +1
                                ошибка во втором примере: сравнение раз в неделю и раз в три дня.
                            +2
                            А, если не секрет, за счёт чего у интернет-архива доход?
                              +4
                              archive.org/about/faqs.php#31
                              What is the nonprofit status of the Internet Archive? Where does its funding come from?

                              The Internet Archive is a 501(с)(3) nonprofit organization. It receives in-kind and financial donations from a variety of sources, including, but not limited to: Alexa Internet, the Kahle/Austin Foundation, the Alfred P. Sloan Foundation, the William and Flora Hewlett Foundation, and you.
                                +1
                                Понятно)
                              +1
                              Может кто знает как хотя бы окупается, ни то что зарабатывает всё это дело?
                                0
                                Некоммерческая организация. Очевидно же: им Госдеп США платит, чтобы иметь контроль над новейшей мировой историей.
                                +1
                                Вертикальное расположение розеток вдоль всей высоты стойки — практично.
                                  +1
                                  Вы упомянули транспортный контейнер. Только его размер 20х8х8 футов, а не метров. Он так и называется, 20-футовый контейнер.
                                    +2
                                    Чортовы имперцы! ;)
                                      +3
                                      Ну тогда еще в вдогонку — название компании которая разработала контейнер правильно пишется SUN, а не SAN.
                                        0
                                        А еще этому контейнеру уже далеко не один год, он совсем-совсем не новинка. А у нас выпускаются функциональные аналоги, предназначенные для наших широт (например с тамбуром для севера). Я работал в компании, которая эти контейнеры-серверные выпускала.
                                          0
                                          И кто в основном покупает такие контейнеры?

                                          Если это не секрет, как решалась проблема охлаждения/отопления?
                                            0
                                            Ну, в частности, Комус купил себе такой. Охлаждение решалось 3мя кондиционерами, 2 в рабочем режиме, один в оперативном резерве. Кондиционеры снимались для передвижения и устанавливались на новом месте. Довольно быстро. С обогревом справляется сам датацентр — контейнер утеплен, а тепловыделение не маленькое. Первоначальный обогрев можно сделать тепловой пушкой быстро и просто.
                                            Покупают в основном те, у кого нет места на полноценный датацентр или нужен недорогой резервный датацентр, или невозможно получить нужную площадь или мощность в центре города (с энергоснабжением очень часто проблемы). Такой контейнер можно поставить грубо говоря на заднем дворе под навес.
                                            Производство и сертификация их — непростое дело. Но посильное. У Sun все круто — водяное охлаждение, плотность упаковки, но очень дорого и срок изготовления на заказ (а в наличии как понимаете их не бывает) — от 3х месяцев. Плюс не все заказы принимаются. Ну и не всегда их вариант пригоден — открывать вот так контейнер при -30 на улице и высокой влажности я бы не стал, а что делать, если сервер нужно обслужить, заменить, добавить?
                                              0
                                              Мне кажется что в Сановском варианте не очень здорово именно водяное охлаждение. Необходимость наличия воды — само по себе является проблемой (где брать, куда отводить), ну а при отрицательных температурах становится еще одной головной болью.
                                              Кондиционеры — большой плюс к мобильности, но опять же, нужен зимний пакет и дополнительная нагрузка на сеть.
                                              Собственно меня интересует такой тривиальный вопрос, если контейнер делается в том числе и для северных широт, можно ли организовать охлаждение естественным образом за счет вентиляции?
                                              Летом, понятно, пусть работают кондиционеры, но зимой-то что мешает, образно выражаясь «открыть форточку»? Очень интересно было бы узнать почему так не делают.
                                                0
                                                Не могу вам этого сказать. я этим проектом не занимался, знаю о нем постольку -поскольку выступал фотографом для него, а вообще я руководил другим направлением.
                                      +6
                                      "… А знаешь как они там в Париже называют четвертьфунтовый чизбургер?
                                      — Что, они не называют его четвертьфунтовый чизбуогер?
                                      — У них метрическая система, они вообще ни… я не понимают что это такое четверть фунта.
                                      — И как же они его зовут?
                                      — Они зовут его «Королевский чизбургер».
                                      — «Королевский чизбургер»?
                                      — Да, вот так." © pulp fiction
                                        +1
                                        Да ладно вам, диагональ монитора все равно же в дюймах меряете.
                                          +2
                                          54 советских сантиметра!
                                            0
                                            Да что там мониторы. Если верить классикам, то уже в постреволюционное время даже фиговый дворовый механик не мог найти плашек именно на 7/8" :)
                                              0
                                              А вот с этим надо быть осторожнее. Есть тут у нас в сибирской глубинке здание, которое построили канадцы. Построили под ключ. Все здорово. Но со временем эксплуатации выясняются не очень приятные нюансы.
                                              Подвесной потолок типа армстронг, стандартный для офисных зданий, в нашей стране имеет сетку 0.6х0.6м, в свою очередь американский стандарт 0.5х1.0м. Ладно бы просто плитки потолка. Но в потолок встроены светильники. Светильники часто перегорают, так как параметры нашего напряжения далеки от стандартов северно-американского континента.
                                              Приходят электрики, что они видят. В светильнике 3 лампы дневного света, и вся внутренняя начинка рассчитана на 3 лампы. У нас такой начинки ни где нет. Только на 2 лампы, так как в наших светильниках устанавливают по 4 лампы.
                                              Представляете какой геморрой имеют электрики при перегорании чего-то там в светильнике? И это только светильники.
                                        0
                                        Вместительность контейнера 20х8х8 метров

                                        Футов, не метров. Вы сами то представляете себе такой контейнер в метрах?)
                                          0
                                          Ага контейнер с высотой потолков 8 метров впечатляет, не меньше серверных стоек :)
                                          0
                                          Эти красненькие корпуса сильно напоминают дешевые петабайты от blackbaze.
                                          Я вообще-то думал что они также используют ленточные библиотеки. Интересно, сейчас ленточные библиотеки имеет смысл при объемах приближающихся к считанным петабайтам?
                                            0
                                            У ленточек совсем другое применение.
                                              0
                                              По лентам непоищешь, эта информация должна быть не только сохранена, а и доступна для быстрого чтения.
                                                0
                                                Ну, вообще говоря, «по лентам» прекрасно ищется поиском по индексу, который создается на дисках софтом копирования, а потом уже считывается нужный кусок с нужной кассеты.
                                                  0
                                                  И сколько займёт считывание и генерация одной страницы? :)
                                                    0
                                                    Это вы меня спрашиваете? Я-то откуда знаю. Вы спросили «как ищется?» — ищется вот так.
                                                      0
                                                      Дело в том, что мало просто найти где находится информация, её нужно отобразить. Для этого нужно получить данные с архива, и для веба это неприменимо. Более того индекс может занимать довольно большой процент памяти.
                                                0
                                                Ленточные библиотеки имеют смысл при объёмах в петабайты, вон Амазон новый сервис хранения вроде как на ленточках организовал.
                                                +2
                                                Автор, по поводу „всё это храниться“ — tsya.ru.
                                                Фотки интересные.
                                                  +2
                                                  tsya.ru слишком сложно, проще проверять «что делает? хранится». В «делает» нет мягкого знака, значит и в «хранится» нет.
                                                    0
                                                    Спасибо, очепятался, сразу исправить не мог, хотя заметил после публикации, но из-за отрицательной кармы требовало, чтоб убрал рубрику ИТ-инфраструктура, а убирать как-то было жаль, но сейчас карма восстановилась и исправил :)

                                                    Именно это правило самое удобное, если вопрос «что делать?» можно поставить — мягкий знак ставится, а если можно задать вопрос «что делает?» — тогда нет.

                                                    Ох уж этот русский язык :)
                                                  +2
                                                    +8
                                                    Скорее даже так :)


                                                      +1
                                                      Первую картинку я знаю. А это откуда?
                                                        +2
                                                        it crowd
                                                    +4


                                                    Интересная у вас реклама.
                                                      +3
                                                      simplix, да мы работаем в основном на украинском рынке, но продвигаем нашу нидерландскую площадку, так как там качественно. Вы наверное считаете, что если провайдер украинский, то должна быть украинская локация серверов?

                                                      Она у нас есть, просто на ней остались только трафикогенераторы, всех клиентов, которые генерируют в пределах 100 Мбит / с трафика или которые способны оплатить более качественный гигабит мы перевели на нидерландские серверы, потому что там недорого, качественнее и надежнее, последние 2 пункта превосходят украинскую локацию на порядок. До такого качества Интернет-каналов увы Украине еще расти и расти, как минимум лет 5-10. Но самое главное — там хорошее законодательство, последние события в Украине заставили задуматься, а стоит ли в Украине вообще размещать серверы, мы приняли решение, что не стоит… Куда безопаснее иметь пиринг в UA-IX из Нидерландов.

                                                      Что касается «выдержим» и «надежный». То надежность нашего сервера с сайтом никак не влияет на качество услуг для других абонентов, тем более, что наш сервер расположен в Украине и его время от времени атакуют. Есть такое понятие, как Хабраэффект, я не знаю сколько просмотров картинок будет одновременно, если будет 1000 запросов — может быть проблема, потому это и указал.
                                                        0
                                                        Картинки конечно же статика, но даже их просмотры временами могут создавать нагрузку. Особенно, когда одну и туже картинку начинает запрашивать бот в несколько тысяч раз одновременно. Это уже получается подобие дос-атаки.
                                                          0
                                                          Моё замечание конструктивное и касается только откровенных ляпов в рекламе. Фраза «надеюсь выдержим» несовместима с надёжностью, можно было сразу разместить картинки в Нидерландах и не делать себе антирекламу этой фразой (чуть выше уже пошутили по этому поводу). А название компании, дословно «Украинский хостинг», логически несовместимо с Голландией. Разумеется, это никак не влияет на качество.
                                                            +1
                                                            Дело не в локации картинок, а в том, что сервер с нашим сайтом, куда я поместил картинки, не настроен под сверхнагрузку (на него обычно не поступает много запросов, наш сайт не столь популярен) и если боты обнаружив картинки на Хабре создадут кучу одновременных запросов или посетители самого Хабра — то может быть проблема, хотя и маловероятна конечно.

                                                            На счет "«Украинский хостинг», логически несовместимо с Голландией" — мы предоставляем услуги в Нидерландах в том числе для украинских пользователей, а не только для пользователей в РФ и других русскоговорящих стран, так что логику найти можно, хотя в 2009 году серверы были только в Украине. Теперь мы работаем в Нидерландах, а завтра может быть начнем сотрудничать с США. Но тем не менее мы будем продолжать быть ориентированными на украинскую аудиторию, платить в Украине налоги и т.п.
                                                            0
                                                            Странно конечно. Арендую 2 сервера в украине с гигабитом. Каналы от укртелекома. Гигабит используется почти круглосуточно! В чем тогда проблема у вас с каналом на украине?

                                                            По поводу Хабраэффект. Неужели это что-то страшное? На любой из моих серверов идет гораздо больше запросов чем посещаемость хабра.
                                                              0
                                                              Я думал, Вы в той фразе кокетничаете и это такая плохо скрытая реклама…
                                                              Но если Вы всерьез опасались хабраэффекта от десятка картинок, будучи хостинг-провайдером — это просто эпик фейл.
                                                            0
                                                            100+ ТБ — это… эээ… Это ж мало до жути.
                                                            В 45U можно накидать 30 JBOD'ов по 16 дисков. Это на 2 ТБ дисках получится 480ТБ. В RAID1/репликации по сети — 240 ТБ.
                                                              0
                                                              Вы явно порядками ошиблись. Речь идёт о 10 Петабайтах ( 10000 [десять тысяч] терабайт ).
                                                                0
                                                                Ну ым. Увидел уже, что реальная ёмкость — 650 ТБ на стойку. И непонятно, двукратное ли там резервирование.
                                                                Планировали же 100ТБ+ — это мало.
                                                                Сейчас дисками по 4TB можно легко набить стойку почти петабайтом (или полупетабайтом, если по 2TB) дисков без всяких изобретений и придумываний — так что на сегодняшний день ничем таким гениальным эта разработка уже не выглядит.

                                                                И опять же, я рассчитываю, что к одному серверу подключается только 2 JBOD'a.

                                                                В общем я всё это к тому, что восторг эта статья может вызвать только у тех, кто совсем не следит за рынком.
                                                                  0
                                                                  Надо еще разобраться как они считают. Т.е. вот эти 650ТБ это чистые байты на винтах или же с учетом резервирования, дублирования или что там еще. Если чистые, то — да мало. А если уже с учетом избыточности, то наверное ок.
                                                                    0
                                                                    Так вы посмотрите откуда там эта история берёт начало — в те времена еще никаких дисков на 3-4тб не было даже в мечтах.
                                                                0
                                                                24 диска на 4 юнита норма для серверов с 2006 года, сейчас норма 45, но есть решения на 60+ винтов. Одним из таких решений является СХД BitBlaze. Производится в России! “Грязный” объем массива 240Тб при использовании 4Тб дисков, или 2,4 Тб на стойку! Промо сайтик BitBlaze.ru, на данный момент проц Xeon E5 2600.
                                                                  0
                                                                  Сам себя не похвалишь — никто не заметит :)
                                                                  0
                                                                  В начале статьи маленькая ошибка, которая может ввести вас в заблуждение. На самом деле, они заархивировали 10'000'000'000'000'000й байт, то есть, степени двойки тут ни при чём.
                                                                    –2
                                                                    Напрашивается применение магнитной ленты для хранения таких объемов. Если это архив, то 99.99% информации лежит статично. Можно было бы иметь горячий резерв винтов, куда по запросу выгружать информацию и работать с ней. Недавно статья была на хабре, IBM 35 TB на пленку поместили, цена хранения байта данных сильно бы упала.

                                                                    [humor]
                                                                    > «Машина времени»: 2,4 петабайт;
                                                                    А зачем им столько Макаревича?
                                                                    [/humor]
                                                                      0
                                                                      archive.org это такой интернет-сайт. расскажите нам всем — как пользоваться лентами в таком случае?
                                                                        0
                                                                        Какой вы скучный и неинтересный.

                                                                        > The Internet Archive, a 501©(3) non-profit, is building a digital library of Internet sites and other cultural artifacts in digital form. Like a paper library, we provide free access to researchers, historians, scholars, and the general public.

                                                                        Архив существует на гранты и частные пожертвования, в случае нехватки финансирования, хранение данных на лентах будет приемлемым решением, ибо цена в многие разы дешевле. А дальше как и в обычной библиотеке, получили информацию, записали на несколько лент, каталогизировали и отправили в фонды. В случае запроса пользователя, данная информация извлекается, записывается на быстрый носитель информации, проводится проверка, в случае необходимости перезапись и обратно храниться на полке. Тот, кто ищет эту информацию может и подождать. Автоматизация процесса сократит время выборки информации в лучшем случае до десятков минут или пары часов, что согласитесь приемлемо.

                                                                        Через 10 лет объем хранимых данных возрастет в 10-100 раз, если линейно плодить сервера, то рядом придется разместить маленькую электростанцию. Энергопотребление в случае хранения на пленках не сильно растет от объема хранилища.
                                                                          0
                                                                          а если распечатать архив — то это будет может быть даже ещё дешевле…

                                                                          arhchive.org это _онлайн_ хранилище. хорошо тем что есть мгновенный доступ к информации. то что вы описываете делает библиотека конгресса США
                                                                            0
                                                                            Распечатать дешевле? Да вы фантаст :)
                                                                      0
                                                                      держать такое количество информации в одном месте? Может, лучше брать пример с Google — там пропадание десятка городов с поверхности планеты не отразится на контенте.

                                                                      Only users with full accounts can post comments. Log in, please.