Pull to refresh

Comments 125

Интересно, какие задачи выполнял сервер с (максимум) 1.6GB дискового пространства? И как сами винты выжили такой срок?..
Нынче винты уже не те! (sarcasm mode: on)
Винты действительно пошли хлипкие и такие сроки им даже на складе пролежать и запуститься не светит. А вот если бы это горе рекордсмены вовремя чистили пыль и не допускали разогрева подшипников шпинделя и парковочного механизма HDD, то на сервак ещё лет пять никто бы внимания не обратил. А вот блок питания мне очень интересно бы посмотреть и померить напряжения.
Действительно интересно — как за такой срок ни один конденсатор не «распух».
UFO just landed and posted this here
Ну и судя по тому, что он помер от пыли,

Кто умер от пыли?
Но ведь аптайм ведь 16 лет?
Был в гостях у не компьютерных людей. Заметил bsod. Посмотрел логи — 9 bsod за последние полгода. Спрашиваю — что-то не так с компом — нет, отвечают, отлично работает!
Качество питания уже не то!
Конденсаторы (емкости) работают только на момент включения (плодачи питания). Устройство с распухшим конденсатором может работать годами, если его не выключать. Если выключить — включить уже не получиться…
А по поводу «нетвари» — полностью подтверждаю: очень живучая и практически неубиваемая ОС. Для файловых серверов лучше ничего не видел. У самого работал один файл-сервер с аптаймом около 4-лет. Пришлось выключить для ТО, когда CD-диски перестал читать.
Вот вы сейчас сказали глупость ужасную. Электролитические конденсаторы большой емкости в цифровой технике, как правило, используются в цепях питания (фильтрации), и работают (накапливают и отдают заряд) всё время, правда величина их заряда в процессе работы меняется незначительно. Распухание или взрыв конденсатора — это стопроцентный его выход из строя, а значит либо замыкание, либо значительное отклонение параметров (снижение емкости, неспособность накапливать заряд). Я согласен, что есть некоторая вероятность того, что устройство может продолжать работать в таком режиме, но рано или поздно это скажется на других элементах. То что устройство работало, но после остановки перестало включаться — объясняется изменением переходных процессов, так что да — здесь вы правы. Хотя и в этом случае есть вероятность, что устройство включится и продолжит работать.

Так что если заметил «пухлика» на работающем железе — лучше остановить и заменить, пока беда не распространилась на более важные элементы цепи. А заодно проверить питание и температурный режим.
Распухание или взрыв конденсатора — это стопроцентный его выход из строя, а значит либо замыкание, либо значительное отклонение параметров (снижение емкости, неспособность накапливать заряд)
Видеокарта на моём первом компьютере проработала около года с взбухшими электролитами. Не было денег что б заменить ни её ни сами электролиты.
Электролиты стоят копейки. Ну и читайте комментарий целиком: вероятность, что устройство будет работать, есть, но очень маленькая.
Я не буду распинаться перед вами и рассказывать про мою тогдашнюю ЗП и сколько стоил мой проезд на работу + квартплата.
С официальной теорией, описанной Вами согласен полностью. Однако практика говорит об обратном: конденсаторы «вспухающие» в некоторых блоках питания не мешают работать устройствам месяцами и даже годами… до выключения. Всключить их уже не получается. Говорю, потому что сам лично развинчивал 8 шт. анализаторов для мониторинга СКС производства TYCO AMP NETCONNECT. Причина и симптомы везде одинаковые: после отключения обнаруживается «вспухание» конденсаторов. Были и другие устройства с аналогичным «эффектом», но не в таком массовом количестве.
В устройствах, работающих в больших промышленных системах (СКС, ЛВС), «вспухание» конденсатора обнаруживается только по факту выхода его из строя: сетевое оборудование и сервера работают в режиме 7/24 с аптаймом, исчисляющимся месяцами и даже годами… Пока все работает никто ничего не вскрывает и платы на предмет «вспухания» конденсаторов не изучает. А питание и температурный режим обеспечивается соответствующими подсистемами.
Бывает, что и мешают. У меня из-за вздутия конденсаторов на мамке один сервер ушёл в Kernel Panic и никак не хотел загружаться. После замены оных всё заработало снова.
Как говорит автор, сервер в основном не использовался как файловое хранилище, а лишь как сервер печати. В статье это, в общем-то, указано.
Да, моя вина — невнимательно прочитал этот абзац.
Это просто опупителтные объемы, по тому времени… Серверный диск 1Gb тогда стоил ~5000$!
По тому времени — безусловно, но не последние ведь лет 10.
Интересно, сколько бы он еще проработал?
UFO just landed and posted this here
Нда… пыль.
Если бы инженеры, которые разрабатывали процессор и матплату, об этом узнали, не поверили бы наверное.
UFO just landed and posted this here
Вы это так воспринимаете, потому что несколько поколений инженеров разрабатывали отказоустойчивые системы на кристаллах.
А для инженера 60х с ламповыми технологиями было вполне естественно ожидать выход из строя определённое кол-во ламп за определённое кол-во времени. Подход к надёжности был иным.

Я это к тому, что сильно вложившись в отказоустойчивость интегральных микросхем, инженеры тем самым выдвинули на передний план другие проблемы — например, тепловыделение и пыль. Когда научатся бороться с пылью, ещё какая-нибудь фигня вылезет, о которой сейчас мало кто вообще задумывается.

Кстати, сделать антипылевое покрытие для деталей компьютеров не проблема вообще. Представьте, например, вентиляторы, на которые не прилипает пыль. Внутренности корпуса, поверхности плат, провода. Тогда бы пыль не собиралась в корпусах вообще.
Проблема пыли очень просто решается герметизацией корпуса или отказом от классического обмена воздухом с внешней средой (и использованием либо пассивного охлаждения, либо теплоносителей и отводом на внешнем радиаторе).
В идеале — помещение в жидкость с подходящими характеристиками по теплоотводу и удельному сопротивлению.
Погружное охлаждение на минеральном масле — не новость, правда вы автоматом (скорее всего) лишаетесь гарантии на оборудование, да и банальное обслуживание тановится затруднительным. И грязным.
Если делать все кустарно, то да гарантии скорее всего лишитесь, но сейчас производители железа снова начали смотреть на эти технологии из-за повышения плотности упаковки оборудования.
Ну, может быть, графические станции в ближайшее время одни из мервыми получат раздельное охлаждение, все железо — погружено в масло, а теплообменник просто в виде гофрированной крышки-теплораспределителя. Но, думаю, не раньше, чем интел перейдет на BGA — корпусировку, то есть когда сама система станет сильно непригодной к апгрейду и ремонту «по частям». А винты и модули расширения, не имеющие особого теплопакета, будут цепляться через шлейфы в «сухих» отделах.
Я не думаю, что это пойдет на десктопы, из-за большой сложности и опасности протечек. А вот на сервера сверхплотной упаковки вполне возможно… А винты и модули расширения тоже необходимо охлаждать. В современном сервере разве что корпус охлаждать не надо, так как он пассивный и тепла сам не выделяет :)
SSD, я думаю, без проблем будут работать в масле.
Ничего вы не понимаете в колбасных обрезках погружных охлаждениях. Медицина нам поможет. Как помогла суперкомпьютеру Cray II:
В 1981 году Сеймур Крэй внес радикальное предложение по конструкции Cray-2. Он предложил поместить весь компьютер в инертную жидкость под названием Fluorinert компании 3M, которая использовалась в то время в медицине при операциях на сердце.
(Википедия)

image

На переднем плане колонна жидкостного охлаждения «Watherfall». Эх, красивые всё-ж раньше машины делали, в 70-х — 90-х
Dyson? Там банально некуда прилипать пыли :)
Ну с лампами всё проще — у них с течением времени уменьшается эмиссия, даже у самых «долгоиграющих» есть свой срок.
Держим пару серверов в одном из московских дата-центров — за несколько лет ни разу вообще не пришлось чистить их от пыли. Её там в машзале просто нет. А в другом из-за этого в среднем раз в год приходится серверы тормозить, разбирать и вычищать.
Старение полупроводников. Современная электроника построена на том, что электроны и дырки мигрируют через p-n переходы. Атомы легирующих примесей на 3 порядка тяжелее электронов и намного менее подвижны, но тоже пытаются мигрировать (в обратном направлении), и, в нагретом кремнии им это медленно, но удается. Пока технологические нормы были микронными, это было несущественно, но сейчас толщина затвора транзистора составляет всего сотни атомных слоев. Поэтому у современных чипов даже теоретическое количество часов «наработки на отказ» весьма ограничено.
UFO just landed and posted this here
Что за бред? Раньше точно так же сыпались, причем целыми партиями. Сигейт знает.
Device: COMPAQ BD0186349B Version: 3B05

Elements in grown defect list: 0

Vendor (Seagate/Hitachi) factory information
number of hours powered up = 99761.83
number of minutes until next internal SMART test = 48

Кхем, кхем, кхем. Не надо путать SCSI и остальное.
Этот диск ещё живее всех живых.
Вам повезло, поздравляю. У меня и еще целой кучи покупателей была обратная история. Я вообще к тому говорил, что всегда был брак и всегда делали хорошо. Деревья просто были большими когда-то, а не винчестеры качественнее.
root@damned:~# smartctl -A /dev/sda | grep -Ei '(hours|realloc)'; smartctl -i /dev/sda | grep Model
  5 Reallocated_Sector_Ct   0x0033   099   099   036    Pre-fail  Always       -       59
  9 Power_On_Hours          0x0032   042   042   000    Old_age   Always       -       51362
Model Family:     Seagate Barracuda ATA IV
Device Model:     ST360021A



Кстати диск был в прямом смысле слова найден на помойке, года 4 назад =)
А вашем дистре можно читать блочные устройства из под обычного пользователя? :)
Ну как-то так, не?

> sudo smartctl -A /dev/sda | grep -Ei '(hours|realloc)' && sudo smartctl -i /dev/sda | grep Model
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always — 0
9 Power_On_Hours 0x0032 090 090 000 Old_age Always — 4313
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always — 0
Device Model: TOSHIBA MK5076GSX

Вообще, не принимайте близко к сердцу, я не со зла ))
внезапно sudo что делает?
Предположу, что devpreview имел ввиду то, что надо использовать sudo вместо постоянного сидения от root. Это традиционный совет из "$distr_name для чайников".
Приоткрою завесу — у меня ещё родная HPшная сказя (именно произведенная самой HP, а не оемом каким-то) 50 пиновая жива.
Даже больше того, акромя провальных IBMных DDYS-ок (первые ихние 10к оборотистые скази) у меня остальное в эксплуатации/обслуживании находящееся имеет наработки порой выходящие за 150000часов. Сигейт компаковский я для примера кинул, консоль к девайсу была какраз открыта. Да, DDYSки насколько помню обычно доживали до 70000часов.

А вот с современными хардами увы ситуация похуже, SASов уже штук пять выкинуть пришлось — посыпались, причем от разных производителей.

Сейчас ситуация такова, что потребителя вынуждают делать абгрейд, хочет он того или нет.
Не надо идеализировать прошлое, диски тогда были ещё тем гавном. Вы не учитывате количества чтений-записи сейчас и тогда.
У меня на рабочем сервере IBM'овский 1гб винт жил с 2000'го, до прошлого года, точнее он и сейчас жив, но скрипел страшно, и не всегда определялся при перезагрузках. Там старая база 1С была, которой кладовщица изредка пользовалась.
Это не тот который «дятел» (DTLa)? Дык вы ему контакты восстановите и он еще поработает ;)
DTLA, если мне память не изменяет, выпускались на 30 и 40 гигов. Гигабайтники были более ранних серий.

Те самые «дятлы» со стеклянными пластинами были на 10 Гб. Я точно знаю. Именно с ним я перешёл в категорию людей, которые уже делают бэкапы.

10 гиг может быть, только я видел именно тридцатки и сороковки. А гигабайтные — это более ранние.
1Гб в 2000 году? Как-то подозрительно мало. Помню в 1998 собирал себе свой первый комп, максимально экономя деньги. Самый маленький и дешевый хард на тот момент нашел WD Caviar на 1.2 Гб
В 2001м самый дешевый винт мне купили на 10 гб…
Его, кстати, уже не хватало дико =)
Самое удивительное это непрерывная подача электроэнергии без сбоев такое продолжительное время.
Да, а если был UPS — как они батарейку меняли?
Читайте original post:
This server is (was) in the data center of a large financial company backed by a central UPS system. It's in a major metro area with reliable power. I can recall two power outages of about an hour each, and some quick brown-outs. The facility can sail through this no problem.
Ну тогда ничего удивительного в подаче электроэнергии без сбоев такое продолжительное время.
Есть UPS с двумя аккумуляторами. Один отключается и меняется на ходу. Тоже самое и с блоком питания компа, серваки имеют два паралельно запитанных БП, которые можно менять по одному или питать серв от двух независмых упсов.
шепотом: а есть ещё и байпас!
не ругайся непонятными словами
Суровый промышленный UPS на здание размером с объёмом даже половину 1 этажа здания и чётко выделенной веткой куда подключаются только ПК вполне спасет. Не считая двух блоков питания, на которых вполне могут висеть еще свои UPS'ы.
Я ткое видел в некоторых очень суровых конторах, и в министерствах некоторых. Десяток управляющих модулей и десятки стоек батарей. Вышла из строя, отщёлкнули, поставили свежую. И да, аптаймы внутренних серверов там исчисляются годами.
Только в очень «суровых» конторах ставят комнаты аккумуляторов, чтобы бесперебойник тянул нагрузку сутками. В конторах попроще хватает одного батарейного шкафа, а нагрузку подхватывает дизель, и это очень правильное решение. Ибо работать будет пока солярка не закончится в стране.
Только в очень «суровых» конторах ставят комнаты аккумуляторов, чтобы бесперебойник тянул нагрузку сутками.

Комнаты аккумуляторов не всегда нужны чтобы тянуть нагрузку сутками. Иногда они нужны, чтобы просто дотянуть нагрузку до момента запуска дизелей, так как нагрузки может быть очень много.
Ну не знаю, на сотню килловатт бесперебойника хватает одного шкафчика батарей и 10-15 минут работы гарантированы. Чем ставить более мощные, лучше параллелелить бесперебойники и делить нагрузку. Ибо если ИБП мощный, ему и ДГУ потребуется тоже недетский.
А вот ребят, которые для 10 кВт бесперебойника организовали целую комнату с батарейными шкафами (8 шкафов в параллель) я встречал.
Сотня киловатт это всего 5-10 современных стоек, а бывает, что и 2-3, да и кондиционирование тоже на бесперебойном питании иногда должно быть.
Суммарно же оборудования может быть куда больше (раз так в 100, например, если это ДЦ)…

Ибо если ИБП мощный, ему и ДГУ потребуется тоже недетский.

ИБП бывают кластерные и многоканальные(не знаю, как это по научному), когда у него несколько выходных линий и несколько входных линий. А стеллажи с батареями у всей конструкции общие, да и канонически батареи должны работать в отдельном помещении со своим микроклиматом, требования к которому значительно жестче, чем для помещения с серверами.
А суммарная мощность дизелей в любом случае должна быть не меньше потребляемой системой.
Хочу заметить что у ДГУ также есть максимальное время непрерывной работы.
Обычно это не более 24 часов, после чего начинается износ.
По крайней мере так декларируют производители ДГУ.
Понятное дело что никто не отменял резервные ДГУ.
Хочу заметить что у ДГУ также есть максимальное время непрерывной работы.

Это недели и месяцы непрерывной работы, а есть системы с неограниченным временем работы (в пределах интервала технических работ).
Обычно это не более 24 часов, после чего начинается износ.

Износ начинается сразу-же, при этом в момент пуска и выхода на режим нагрузки удельный износ максимальный, после чего он падает с момента начала подачи масла под давлением в трущиеся узлы и стабилизации режима работы двигателя.
По крайней мере так декларируют производители ДГУ.

Не надо покупать такие типы ДГУ в случае, если возможны серьезные перебои с внешним питанием.

А если серьезно, то существуют разные типы ДГУ и среди них есть как системы ориентированные на решение краткосрочных проблем с питанием, у которых время непрерывной работы сильно лимитировано (те-же 24 часа), и есть установки, рассчитанные на работу неограниченное время. И в случае, если система требует большой живучести, то явно будут установлены вторые дизеля, которые будут работать условно пока солярка не кончится.
Это уже не ДГУ, а электростанции и практически никто не делает их на дизелях.
Сколько пересмотрел ДГУ различных фирм и расценок, везде описано что для непрерывной работы необходим резервная установка, которая может принять нагрузку.
Можно конечно гонять генераторы круглосуточно, но положительно это на них не скажется.
В любом случае в Tier3 ДЦ уже ставят 2 ДГУ с общим хранилищем соляры, с синхронизаторами и автоматикой для переключения нагрузки между ними.
Это уже не ДГУ, а электростанции и практически никто не делает их на дизелях.

Это именно ДГУ для систем с повышенными требованиями к надежности электропитания. И никто на практике не будет их делать не на дизелях, так как перекопанный газопровод будет восстанавливаться гораздо дольше, чем будет ехать второй бензовоз, если с первым что-то случиться в дороге.

везде описано что для непрерывной работы необходим резервная установка, которая может принять нагрузку.

Все правильно, но в каком случае потребуется эта резервная установка? Если первая начнет накрываться медным тазом или если не запуститься?

В любом случае в Tier3 ДЦ уже ставят 2 ДГУ с общим хранилищем соляры, с синхронизаторами и автоматикой для переключения нагрузки между ними.

Это требование резервирования, чтобы можно было остановить один ДГУ в случае нештатной ситуации, а ДЦ продолжил работу.
Мы ставим FG Wilson, а у них как раз время работы не ограничено. И 60 тысяч часов наработки на отказ.
Аналогично стоит Wilson на 200КВт и есть информация про 24 часа.
Вот интересно мне — что будет банально дешевле — на 3 тысячи человек покупать 3 тысячи упсов с заменой их батарей раз в полгода или всё таки купить один большой упс на всё здание…
Один УПС на всё здание. Ибо я е**л менять батарейки в 3 тысячах УПСов. Покупка 3000 УПСов [возможно] будет дешевле на старте (а это сумма в $300000), но тот же ДГУ к ним не подключишь, да и замена батарей — чудовщино затратна по трудочасам => деньгам.
ну вот я ж о том же…
один дурной на всю голову упс явно проще обслуживать, чем следить да пыщупицот мелких упсов 2/3 если не 80-90% из которых к компьютеру то и не подключено для мониторинга

Если UPS на всё здание, то КЗ или утечка выключит все компьютеры, подключенные к одному автомату или УЗО.

Дочего-же наверное обидно было его отключать, помню горевал, когда гасил сервер с трехлетним аптаймом, а тут аж 15…
Я в 2006 видел промышленную стойку FIDIA на PDP-11 аптайм которой был уже лет 20, т.к. грузилось все это с древних 8 чтоль дюймовых дискет (как пластинка виниловая размером), а дискеты все в кал убиты и не факт, что с них можно будет загрузиться. В общем его не выключали никогда, был собран UPS из мощных аккумуляторов и еще рядом генератор на стреме стоял.
Ага, помню когда ты про него писал. Вот жаль только фото нет.
Почему, есть там фотки
dihalt.ru/img/geek/pdp/front.jpg вот спереди. Монитор выключен, т.к. он и так дико выгоревший и на нем не видно нифига.

Вот его система охлаждения
dihalt.ru/img/geek/pdp/holod.JPG
холодильная установка на фреоне, встроена в заднюю стенку.

dihalt.ru/img/geek/pdp/inside.jpg
Ну и немного внутренних потрохов.

Ну и немного под передней крышкой. Только это уже другая стойка, аналогичная
dihalt.ru/img/geek/pdp/mob/Image00016.jpg
dihalt.ru/img/geek/pdp/mob/Image00017.jpg
dihalt.ru/img/geek/pdp/mob/Image00018.jpg
Так, увидев холодильник — вспомнил что я их, таки, видел.
Странна человеческая память…
Интересно, как у него с интерфейсами. Т.е. можно ли, не прерывая аптайма, заменить хотя бы монитор и клавиатуру.
Вообще все интерфейсы там по оптике развязаны. Заменить можно:
dihalt.ru/img/geek/pdp/mob/Image00015.jpg

Монитор наверное тоже можно, не смотрел. Просто непойми там что за монитор и какая у него развертка, сколько строк. Найди еще аналог. Так что не особо парятся. Работает и все. Обработка одной детали длится порой несколько недель. А включать его надо ну от силы раз-два. В принципе данные на нем видно, хоть и блекло. Тем более в цеху довольно темно.
Если действительно PDP-11, то можно… Помнится на СМ-3 (отечественная урезанная копия PDP-11/20) шина позволяла «на лету» переставлять интерфейсные платы, если на них были распаяны правильные буферы. А уж на PDP-11 сам бог велел…
Интересно, сколько можно сэкономить на электричестве, если портировать софт на что-нить современное и заменить этот шкаф на Raspberry Pi… :)
На работу больше потратить придется. Дело-то не в электричестве, а в возможном простое цеха.
Давно существуют эмуляторы PDP-11, как открытые/бесплатные, так и коммерческие.
Так что можно и обычный PC поставить.
Но проблема что совместимость нужно поддерживать не только по софту но и по интерфейсам, а многих из них у PC просто нет.
Очень напомнило мою историю (в меньшем масштабе).
В далеком 1999-м принесли мне ноутбук. Toshiba T1910 (выпуска 1994 г.). Дело было спустя пару недель после поступления в ВУЗ. Нашел недельку — съездить в деревню к дедушке. Там у меня была своя еще детская комнатушка на чердачке. Взял «новую» железку с собой, с идеей настроить, поставить Win 3.11 да приобщить дедушку к IT. Все прошло успешно, за исключением последнего. У ноута был мертвый Ni-Mh аккумулятор. Аккум не выкидывал, но купил небольшой 12-В. соляной, необслуживаемый. Деревня, свет часто «прыгает». Спустя 2 дня меня срочно зовут назад, в город. Потом все закрутилось, ВУЗ, переезд в другой город, самостоятельная свободная жизнь в 1000 км. от дома, 6 лет универа, работа, командировки… Семья..., в общем 12 лет пролетели незаметно…
Прошлым летом звонит дедушка, и говорит, слушай, Саш, я думаю у меня на чердаке воробьи завелись, приезжай, на море покупаешься, крышу почистим, перекроем… Приехали…
На чердаке меня встретила, под скрип и хруст 200-метрового винчестера, Win 3.11 c 12-ти летним ап-таймом и запущенным «сапером».
Слегка космическая история… Во-первых, это наверняка был не ноут, а лептоп (похоже, но чуток не то). Второе — я слабо верю, что в «деревне у дедушки» за 12 лет не выключалось электричество хотя бы часа на 2 (предположительное максимальное время работы старого акка). Ну, и 200 метров винт в лептопе 94-го года — тоже фантастика. Просто я в конце 93-го года купил первую IBM-ку, еще 386SX с 2Мб памяти и 120Мб винтом — отдал примерно полторы штуки баксов и ездил за ним в Одессу — цена была значительно ниже, чем в Киеве. И при этом аналогичного аппарата не было не только во всем нашем техническом университете, но и на всем потоке — ко мне на экскурсию приходили посмотреть. Хотя можно было купить и винт на 240 Мб (кажись, 200-ток тогда не было), но это было очень дорого. Речи о том, чтобы в ноутах лептопах такие стояли — нонсенс. У приятеля через год Хьюлетт 386-той на монохроме появился — не то 12, не то 20 метров винт. И такая балалайка — килограмм на 5! Это при 11-12-дюймовом дисплейчике…
UFO just landed and posted this here
Если не ошибаюсь, изначально лаптопами назывался теперь уже вымерший форм-фактор переносных компьютеров, по размеру больших, чем ноутбуки. Примерно вот такой девайс:

image
Вообще-то, лаптопами всегда назывались и называются девайсы, которые ставятся на колени.
Ну да, а ноутбуками — бумажные записные книжки.

Есть два разных слова, исторически обозначавших два разных вида компьютера. Вот здесь ещё подтверждают.

Ну и The American Heritage Dictionary гласит, что notebook — это «A light, portable computer that is generally thinner than a laptop.»
Естественно, что никак не противоречит тому, что я сказал. Эти два слова и сейчас обозначают два разных вида компьютера, просто в силу того, что лаптопы стали сами по себе очень лёгкие, слово «ноутбук» некорректно начало применяться к ним, причём эта тенденция в основном проявляется у нас. «За бугром» как правило говорят «лаптоп».
Заступлюсь за автора поста: в 90-х мы отставали от мира на несколько лет. То, что на Западе было уже нормой, до нас доходило спустя 3-5 лет в виде самосбора из разношерстных запчастей. Так что винт в 200Мб в 94 году — не фантастика. Вот и подтверждение моих слов: www.toshiba-europe.com/bv/computers/products/notebooks/t1910/product.shtm
Выглядит фантастически, но забираю свои слова обратно )))… таки да.
Представляю, сколько стоил этот новенький Тошиба в 94-95 году ))). Понятно, в 99-ом это был почти шлак, хотя…
Честно говоря, не знаю разницы между ноутбуком и лептопом. У меня было то, что на картинке ниже:
image.
С характеристиками вы можете ознакомиться на официальном сайте Тошибы.

Кратко:
SL Enhanced Intel 486SX, 3.3 volt, 25 MHz
Memory 4 MB
Hard Disk 120 or 200 MB
Battery Removable NiH2 Up to 4.5 hrs battery life
Weight 2.9 kg

По-поводу акумулятора я написал, что в 1999-м году ноут (или лептоп) достался мне с мертвым Ni-Mh акумулятором, и я был вынужден прикупить для бесперебойной работы в условиях деревни необсуживаемый соляной 12-вольтовый акумулятор (такие в мопедах стоят и квадроциклах, да и в бесперебойниках аналогичные). Сейчас емкость тяжело уже припомнить, но то, что не ниже 12 А*ч — это точно.
image
Понятно, что такое решение убило мобильность, но зато позволило нормально работать в условиях просадки/отключений напряжения, что не редкость в деревнях с их слабыми вводными трансформаторами 10 кВ/0.4 кВ.

Слегка космическая история…

Надеюсь, подробности позволили мне слегка приземлить мою космическую историю?
Еще бы! Я уже извинился )))
Оценка историй интерпретируется собственными взглядами и архивом памяти. Наложив прочитанную историю на собственную память, получил когнитивный диссонанс, что сразу подверглось сомнению и вылилось в критику.
Хотя прикольно. Люблю такие посты на Хабре «о прошлом», так как тоже являюсь свидетелем эры становления ПК )))
Аналогично :)
Просто мне эта железка уже досталась в эру доступных целеронов и дюронов, и с практической точки зрения, этот пк не представлял особой ценности. Были идеи программить на нем в Паскале, но с покупкой современного пк — решил «отправить» в деревню.
А в далеком 94-м безумно радовался Парусу (клон ZX-Spectrum) и НГМД 5", это единственное, что было доступно тогда для нашей семьи.

Кстати, этот Тошиба — был списан с завода оборонной пром-ти, и покупался, по словам, в 94-95-м. Представляю, какое это тогда было приобретение.
О да, в одной конторе до сих пор такой ноутбук для настройки\подстройки АТС используют :)
Полноценный UART — сейчас непозволительная щедрость в новых ноутах. Иногда — действительно, выхода нет.
В том-то и дело, что ноут тот вполне живой, я его брал на дом на сутки, поигрался немного. Жаль, не догадался сделать обзор, а сейчас в ту контору доступа мне нет.
Заинтересовался вашим упоминанием солевых аккумуляторов, но быстрый гуглеж ничего не дал, кроме того что их производит концерн FIAMM.
APC же поставляет необслуживаемые/малообслуживаемые свинцово-серные аккумуляторы с загущенным электролитом.
Если путаю, пожалуйста поясните — ведь по идеи солевые должны быть легки в производстве и дешевы.
Прошу прощение за очень запоздалый ответ. И за внесенную смуту: аккумулятор, конечно же, не солевой, а обычный свинцово-кислотный.
Почему-то засело слово «солевые», когда писал пост. Сам когда-то инетресовался солевыми аккумуляторами, при всех положительных моментах, там есть одно очень досадное требование — рабочая температура электролита (минимум 160 °С).
Просто я в конце 93-го года купил первую IBM-ку, еще 386SX с 2Мб памяти и 120Мб винтом — отдал примерно полторы штуки баксов и ездил за ним в Одессу — цена была значительно ниже, чем в Киеве.

Ели верить pcmag, то в 93 тошибы тоже комплектовались 120-ками, а в 96-м ставили уже 1.3Гб. К сожалинию информация о линейке за 94й с наскоку не гуглится, но в принципе 200-ка в 94м не выглядит настолько нереальной, да и вполне возможно что это была-таки 120-ка, а неточность спишем на погрешности человеческой памяти. Да и не родной он могла быть, винт этот. Про скачки напряжения автор упоминал, так-же как и о замене аккума на какой-то другой, как я понял, внешний.
В общем я оптимист и хочу верить в Санту, тем более сам не раз наблюдал годичные аптаймы на своих старых железках :)

P.S.: тупанул и не обновил комменты перед постингом. Ну да ладно.
UFO just landed and posted this here
К сожалению, при всем своем желании, доказательств, на текущий момент, я вам предоставить не могу. Так что, ваше право считать историю за сказку :-)
Эх, ностальгия… я такой в школе админил.
Действительно ностальгия.
Был у нас железный шкаф с ключом. Там стоял старенький P1. Но как я удивился, что по документам — серверу больше 12 лет. За всё время меняли ему только БП и винт. Аптайм не такой аццкий, как в статье, а всего лишь до года — больше не выдерживал либо бесперебойник (дох аккум), либо винт-бп.

Но функции Netware выполняла без вопросов — авторизация пользователей, домашние директории, файлопомойка. Черт, даже ни разу не приходилось лезть для переконфигурации — всё работало с момента установки! Сейчас про Windows Server такого не напишешь…
Смотря какие задачи. Вполне бывали у нас конторы, у которых годами ничего не менялось в серверном хозяйстве.
2-3 года назад (предположительно, лето 2010-го) делал для амеров веб-проект. Конторка в свое время была состоятельной, но со временем обеднела. Мне дали доступ к веб-серверу и дата-серверу, причем на веб-серваке ничего ценного не было для них (сайт переделывался, а адвертайзинговые проекты были в разработке или вовсе не фунциклировали). Все было на ПэХаПэ. Так как я джавист, то потребовалось установить свой софт в виде JVM, Tomcat и библиотек. На серваке был Windows Server 2000 и IIS 5.1. Каково же было мое удивление, что сервер не только не обновлялся с момента установки (2003 год), но даже ни разу не перегружался с 2004-го года! То есть проработал 6 лет, ни разу не перегружаясь… Количество логов, темп-файлов и прочей дребедени было колоссальное количество. Когда я поставил свой набор софта, сервер завис из-за нехватки места на диске — не помню точно размера, вроде винт на 4Гб, пополам на С и Д диски. Скорость работы тоже была соответствующей… но работало!
Такой сервер должен был найтись!
Novell 3й версии был прост, быстр, и вообще дьявольски хорош.
В свое время я администрил файл-сервер под этой системой. Там несколько лет стоял 386SX компьютер и три платы 10mbit ethernet.
Время от времени он ругался на потерянное прерывание диска. После замены на что-то более новое выяснилось, что машина работает под DOS около 3х минут, а потом виснет, а нетварь жила там _годами_.
За кадром осталось самое интересное — смог ли он включится обратно и что внезапно в сети отвалилось.
Шум становился всё более и более явным, и сервер начал напоминать автомобиль, скребущий по асфальту собственным глушителем. Внутри сервера накопилось столько пыли, что было невозможно разглядеть отдельные детали плат; машина напоминала птичье гнездо. Наконец, из-за жалоб на шум сервер пришлось остановить.

Изверги. Всего-то надо было пропылесосить и винчестеры поменять, ну и кулеры поменять или просто смазать.
А подскажите, на Хабре как-то выкладывали ссылку на сайт, который ведёт топ самых больших аптаймов?
Sign up to leave a comment.

Articles