Как стать автором
Обновить
Игорь @Igor_Oread⁠-⁠only

Пользователь

Отправить сообщение

Странно как-то… Куда нужно много места? У меня мышь гигантская, конечно… Что-то типа 65х120 мм. Удобные компактные мыши больше не выпускают…
Чувствительность мыши у меня настроена какая-то не очень высокая.
Ну и да, два монитора 24", один горизонтально, второй вертикально сбоку. Пробег мыши по коврику при не быстром перемещении курсора от левого края левого экрана до правого края правого экрана — 20 мм. От верха вертикального экрана до низа — что-то около 12 мм. Если двигать мышкой резче — можно уложиться в 15х8 мм перемещений или даже меньше. Итого "футпринт" не считая пальцев — 85х130 мм. Существуют ли трекболы, которые бы поместились в эту площадь? Сейчас настолько маленьких мышей-то почти никто не делает.
Но да. Я использую мышку нестандартно… Я не "елозю" всей рукой от плеча по всему столу. Запястье почти не сдвигается и отрывается от стола только чтобы перенести руку на клавиатуру. За счет этого, в том числе, примерно невозможно промахнуться мимо мышки. По крайней мере, мне пока ни разу не удалось...

допустим в датацентре уже стоит отопление земля-вода

Ээээ… а при чем тут отопление ЦОД? ЦОД сам себя вполне отапливает даже на холостом ходу. Требуется только отопление служебных и офисных помещений — на фоне общей мощности оборудования — мелочь. Вплоть до того, что окупается отопление электрокалориферами. (Ага. Был у меня проект ЦОД. Под пять мегаватт ИТ нагрузки. Небольшой офис и комната охраны. Оказалось дешевле "топить" электричеством следующие 15 лет, чем строить ИТП и получать ТУ на отопление.)
Речь же всегда ведут про использование тепла ЦОД для отпления теплиц, соседних жилых районов и т.п. И вот такие проекты — не могут окупаться. Не в технологиях дело. 90% технологий известны уже больше 200 лет и доведены до оптимума 100 лет как. Остальные — известны больше 100 лет и доведены до совершенства лет 50. Проблема в том, что все это стоит денег. Просто там много меди, много железа, много труб, много задвижек и клапанов, компрессоров и вентиляторов. Много проектирования. Это все деньги. Одного проектирования там на миллионы рублей. Добавляем землеотвод для прокладки труб до потребителей тепла, затраты на резервное отопление на случай, если ЦОД не выдает необходимой мощности… Резервное охлаждение на случай, если на улице +30 и отапливать ничего не надо. И выходим на сроки окупаемости в большие десятки лет при условии, что все это будет эти большие десятки лет идеально работать и не будет ломаться.


что выгодней строить (сложную?) систему вентиляций или проложить трубы с охлаждающей жидкостью

Если вы про внутри ЦОД, то "сложная" система "ветиляций" — это как максимум немного панелей из поликарбоната и немного дверей. И это ни в одной точке не противоречит идее проложить трубы с охлаждающей жидкостью.


Системы чиллер-фанкойл — давно используются в ЦОДах и очень себя хорошо зарекомендовали. Очень надежно, очень эффективно. Не очень дешево, но в некоторых ситуациях окупается при первом перерыве подачи электричества "снаружи".


А вот когда мы начинаем тянуть трубки непосредственно в сервер. Или погружать сервер в жидкость… Вот тут начинаются ужасы и математика. Ага. Просто когда у нас на машзал общей мощностью 2 мегаватта что-то типа 80 гибких подводок и пары сотен задвижек — все хорошо. Вероятность аварии и протечки относительно невелика. Когда у нас на те же 2 мегаватта 8000 гибких подводок, 8000 быстроразъемных соединений, 20000-30000 задвижек и еще сотня теплообменников в нагрузку — в этой системе не может образоваться ситуация, что ничего и нигде не протекает. Просто чисто математически вероятность того, что все соединения, задвижки, трубы, подводки и теплообменники не протекают одновременно — примерно равна нулю. Ну т.е. сервисники приехали, отремонтировали, уехали… И как только они отъехали достаточно далеко, потекло что-то еще…

А крепости-звёзды, это как раз просто

Не так все просто. С точки зрения защиты от артиллерии "звезды" — бесполезны.


Зачем тупо лупить в толстую низкую стену, если исторически первый вид артиллерии — мортира. Стреляет навесом. Стреляющие из мортиры по "звезде" никогда не узнают, что там была стена (и это подтверждается гравюрами, показывающими обстрелы "звезд" навесным огнем). Кстати, большинство "звезд" построено в низинах. Т.е. где-то рядом часто есть высота/холм/гора, с которой внутренность просматривается и простреливается. А вот при высоких каменных стенах — попасть гораздо сложнее, с соседнего холма видно меньше, "пристреляться" труднее. Приходится из пушек долбить дырку в стене. А это процесс не быстрый и не дешевый.


И да, очень много мест, где крепость с высокими стенами построена поверх "звезды". Например, Московский Кремль и Лондонский Тауэр — построены на "звездах".

я думаю вся выгода водяного охлаждения для дата центров — это возможность вывести тепло на обогрев воды или просто отопление строений рядом.

Я знаю про один завершенный проект такого типа. В суперкомпьютерном центре в Швейцарии пытались делать теплый пол в фойе. Кажется все.


Все очень здорово, пока мы рисуем красивые картинки и показываем презентации. Но… Как только начинаем считать деньги… Вся красота рушится.


Самая-самая мелочь. ЦОД не является гарантированным источником тепла. Если мы используем ЦОД для отопления чего-либо, то нам нужно иметь или подключение к центральному отоплению от ТЭЦ, или иметь резервную котельную. Котельная на режим выходит почти сутки. Это значит, что нам нужно котельную поддерживать в подогретом состоянии… Это значит, что мы в любом случае расходуем деньги на котельную, деньги на поддержание котельной в состоянии готовности выйти на режим за час, деньги на кучу разнообразной автоматики, чтобы переключить отопление с ЦОД на котельную, если вдруг тепла ЦОД не хватает. Но если мы уже построили котельную и уже в любом случае ее "топим" — не строим сложную автоматику и не подключаем отопление к ЦОД и… О чудо! На эти деньги можно отапливаться котельной десятки лет.
С ТЭЦ — еще хуже. Если ты подключился к централизованному теплоснабжению но тепло потребляешь только изредка — это может обходиться намного дороже, чем круглогодичное отопление.


Вторая большая проблема: ЦОД — это "низко потенциальное тепло". Температура воды на выходе — хорошо, если 40 градусов. Чтобы пустить это тепло на отопление нам нужно поднять температуру, чтобы на всех отопительных приборах температура была не ниже 55 градусов. А лучше 60. Иначе — легионелла… А такой подъем температуры даже самым эффективным тепловым насосом — это постоянный расход энергии, это стоимость оборудования и автоматики, это обслуживание. Мне несколько раз доводилось просчитывать подобные проекты. Окупаемость — от 15 лет. За 15 лет в ЦОД три раза поменяются все серверы и два раза поменяются требования к охлаждению. Это означает, что при смене требований к охлаждению, скорее всего, всю прекрасную "зеленую" систему придется выкинуть и построить новую...


Ну и про "использование дорогих жидкостей". Вы видели сумму денег? Это десятки тысяч долларов на стойку. Экономия электроэнергии по сравнению с нормальными чиллерами — на единицы тысяч долларов на стойку. Т.е. окупаемость — от 10 лет при стойках по 70+ кВт, от 20 лет при стойках менее 35 кВт. И это только окупить начальные затраты на жидкость. А жидкость — испаряется, проливается… Ее приходится докупать. Срок службы у нее тоже не бесконечный. В результате — окупаемость стандартная для большинства "зеленых" решений — "никогда".


особенно учитывая разные зеленые законы и налоговые поблажки

"За чей счет банкет?" (с) Но даже не вдаваясь в подробности источников финансирования зеленых законов и гарантированности налоговых поблажек (которые сегодня есть, а завтра, упс, деньги на налоговые поблажки кончились...). За счет этих поблажек можно сократить окупаемость с больших десятков лет до небольших десятков лет. Но ЦОД должен полностью окупиться за максимум 10 лет. Т.к. через 10 лет придется проводить глобальную модернизацию электрики и охлаждения в любом случае. От исходного ЦОД хорошо если бетонная коробка останется.


а люди сразу начинают красноглазить про "эффективность в вакууме"… смешно же.

Не вы ли "красноглазите" про "эффективность в вакууме"? Чтобы не быть голословным, расскажите про какой-нибудь проект утилизации тепла ЦОД и покажите расчет эффективности и окупаемости, какие именно налоговые "поблажки" получил ЦОД и как это повлияло на окупаемость.

Ну тут как всегда… есть варианты и другие случаи… Когда еще лучшим из доступных компьютеров был Yamaha MSX, так же известная как КУВТ… Запускаешь компилятор C… Идешь с четвертого этажа на первый в кафе, отстаиваешь очередь, пьешь кофе. Возвращаешься на 4-й этаж по лестнице (лифт был, но у студентов на нем ездить было не принято), смотришь на экран… идешь снова на первый этаж "покурить" с курящими друзьями… Возвращаешься… Ура, освободился соседний компьютер! Запускаешь Zanac и… на самом интересном месте… оно скомпилировалось… Правда, был еще "Трубо-поскакал"… Хоть над ним все и смеялись, но компилировал того же уровня сложности код за минуту-две… Ну да, была тонкость. Примерно максимум объема кода был около 32 килобайт… На C можно было сделать include и скомпилировать пару сотен килобайт кода за раз. Правда толку-то? В компьютере всего 64 килобайта оперативной памяти из которых что-то около 12 килобайт съедал DOS… (А как я радовался, когда придумал способ заменить 3 "матрицы" 64x64x64 float, которые требовались формально для расчета, на две матрицы 64x64! Что такое полтора мегабайта в наше время? У меня сейчас эта небольшая страница Хабра почти 200 мегабайт памяти скушала...)


PS: И не надо говорить про контрол с текстовым редактором. Я в свое время уместил текстовый редактор с синтаксической подсветкой кода в .exe файл 12 килобайт размером. Без сжатий и чего-то подобного. (исходников было что-то около 20 килобайт, ЕМНИП).

Я нашёл, что в Вене по проводам вроде 120 кВ.

Чисто формально, если по проводам идет 120 киловольт, они должны находиться минимум в 30 метрах от жилых зданий и что-то типа 15-20 метров от земли. Вряд ли такое будут размещать просто так над улицами в городе.
Аккуратнее надо с единицами измерения...


Если все же речь идет о 120 кВт… С учетом потерь это позволяет зарядить за 6 минут примерно до 10 кВтч. Но. Тут есть второй момент. Какова емкость батареи? Если что-то типа 80-100 кВтч или меньше — такие заряды несколько раз в день очень могут означать, что батарея проживет далеко не 10-15 номинальных лет, а скорее год-два.

надо считать с добыча нефти-транспортировка-переработка

Ну так посчитайте! Кто вам запретил? Самый дорогой способ доставки (не считая вертолетом в тундру или на остров в Тихом океане) — автоцистерна. Типичная фура с 40-кубовой бочкой кушает в пределах 50 литров топлива на 100 км. (50/40000)*100%=0.125%. ЖД — в разы меньше расход топлива на перевозку. Морем — на порядки меньше.


или не начинать в который раз этот спор

Какой спор? Доставка нефтепродуктов — примерно бесплатна, т.к. основной расход на доставке — те же самые нефтепродукты, расходуются на доставку доли процента от доставляемого нефтепродукта, а себестоимость самой дорогой в мире нефти — около 6 долларов за баррель на входе в НПЗ (до которого от месторождения танкером почти 2000 миль ехать...).


PS: про 4% потерь в доставке электроэнергии — тоже надо тщательно считать, проверять, спрашивать про методику подсчета… Типично, от генератора до потребителя живет 5 трансформаторов. И да, конечно, например Сименс, декларирует КПД трансформатора ">99%"… Но в том же документе:


Transformer losses and efficiencies Losses and efficiencies stated in this guide are average values for guidance only. They are applicable if no loss evaluation figure is stated in the inquiry (see following chapter) and they are subject to the tolerances stated in IEC 76-1, namely +10% of the total losses, or +15% of each component loss, provided that the tolerance for the total
losses is not exceeded. If optimized and/or guaranteed losses without tolerances are required, this must be stated in the inquiry

На самом деле — как раз вот такой разъем на очень похожих коробочках для диска я встречал на ноутах десятка разных производителей. И у некоторых из них этот диск доставался снаружи методом подвинуть защелку, потянуть. Внутри коробочки — обычный IDE разъем совместимый примерно со всеми тогдашними 2.5" дисками.

А у меня с леновами — проблема. Любимая уже почти антикварная мышь Logitech синезубая — курсор дергается и не ездит плавно, а если все же пытать Ленову и не отключить мышь, то через 15-20 минут синий-зуб отключается и чтобы подключить мышь обратно — нужно удалить мышь в системе, выполнить полный аппаратный ребут с отключением от сети и вытаскиванием батареи, загрузиться, снова все настроить. Повторить через 20 минут...


0xC0CAC01A Сложно с этим… Что-то вспомнилось… В середине 90-х… Тогда сканеры было круто. И были сканеры Genius, и были сканеры Mustec. И была между ними непримиримая война за покупателя. Но половина моделей Genius выпускались на заводе Mustec, а половина моделей Mustec — выпускались угадайте на каком заводе? Правильно, Genius.
В общем, сейчас, кажется, та же ерунда с ноутбуками. Те же ThinkPad-ы — есть в совсем других корпусах из того самого магниевого сплава. Когда я этим интересовался в прошлый раз пару лет назад, еще были модели, которые, как когда-то T40, можно носить горизонтально держа за угол экрана… Dell есть неплохие модели, но у моего рабочего 5 лет назад (на тот момент это был примерно самый-самый ультрабук) пластик около петли экрана лопнул. Ни на что не влияло, но…
В общем, лотерея.


панель для ладоней проламывается без усилий.

Трудно быть сильным программистом в наше время. Зачем вы так сильно давите на панель для ладоней? Если просто руки положить — ничего не проламывается.

Уже даже я утомился...


Искать ссылку на что? На ПДД?

Именно. Если бы вы потратили на поиск ссылки на ПДД 5% времени, которое вы потратили на спор здесь, вы бы узнали, что в ПДД нет понятия "виноватый".
В ПДД может даже отсутствовать понятие "ДТП" (в ПДД РФ — понятие "Дорожно-транспортное происшествие" введено в пункте 1.2 (определения), но нигде больше по тексту не используется и не упоминается).


Еще в ПДД РФ есть пункт 1.6.: "Лица, нарушившие Правила, несут ответственность в соответствии с действующим законодательством." Всё. Других упоминаний нарушения нет.


А вот слова "виноват" во всех его вариантах в ПДД вообще нет.


Степень вины и ответственность участников — определяет суд. Если ситуация очевидная и виновник понятен — в некоторых странах в некоторых ситуациях допустимо не идти в суд для определения степени вины.

Ох… Видать, Стим подключился к CloudFlare… Не самая плохая система защиты от DDoS и, вроде бы, с весьма гуманным ценником. Но IP из России — примерно всегда считает подозрительными и запускает каптчу… Если повезет, то пару раз в день перепроверяет. Если не повезет — может при каждом клике по каждой ссылке…
Со стороны Стим, к сожалению, действительно, единственное решение — переезд на какого-нибудь другого провайдера защиты от DDoS. Я общался с парой владельцев сайтов, кто через CloudFlare работает — повлиять на настройки примерно никак нельзя. Выбор — или уходить на более дорогую защиту, или мириться. В целом, конечно, лучше, чем поступают некоторые сайты, которые просто по IP блокируют всех, кроме США, Канады и ЕС.


Но, в данном случае, значительная доля вины — на Steam. Проверка должна происходить при первом попадании на сайт и дальше — не дергать как минимум до конца сессии.


PS: моего провайдера CloudFlare не любит чуть сильнее, чем большинство российских, но "тьфу-тьфу-тьфу", проблем со Стимом пока нет...

Нелепые ограничения 40кмч на некоторых шоссе в московской области, хотя они только формально относятся к городу, а по сути там лес глухой. И, наверное, есть ещё целая пачка.

Вот как раз когда лес глухой — ограничение может быть очень даже и правильное. Лоси, бывает, не только за рулем встречаются. Время от времени, лось любит выйти на дорогу и просто постоять. Посмотреть по сторонам, подумать о чем-то о своем, лосином… И если в этом месте ехать 120 км/ч… То получается машина, наполненная лосятиной вперемешку с человечиной… А если ехать 40 км/ч и успеть начать тормозить, то получается просто побитый лось (иногда со сломанными ногами) и мятая машина…
Другое дело, что рядом с таким знаком 40 должен быть знак 1.27 "Дикие животные".

И как это изменит ситуацию, когда робо-грузовику нужно развернуться (в разрешенном месте), а робо-легковушка этого его не видит?
Создать единую сеть для всех робомобилей? А что помешает подключить к этой сети обычные автомобили и выводить водителю на лобовое стекло, например, предупреждение: "тормози! впереди разворачивается робо-грузовик!"?
Создавать ТС, умеющие удерживать полосу по разметке, человечество научилось уже лет 70 как (или больше?). Проблема в том, что гарантировать видимость разметки — так и не научились. То дождь, то снег, то песчаная буря, то солнце светит в датчик...

Характерно то, что из четырех иллюстраций в статье — одна картинка из учебника, одна почти фотография и две матерых гипно фотожабы…
Первые "экспериментальные" инсталляции "в полях" систем бесперебойного питания ЦОД на водородных топливных элементах, кстати — 2005-й год. В новости, конечно, пишут, что "it does not currently have any early adopters using or testing the system", но тут же приводят цитату представителя компании, который говорит, что "We have units on order, [but] we don't have any named accounts we're sharing yet." Что-то мне подсказывает, что заявление представителя компании — немного о другом...


Первое успешное применение водородных топливных элементов для энергоснабжения объекта в течение более чем недели подряд без перерывов и остановок — это вторая половина 1960-х… Аполлоны. У них не было солнечных батарей.
(Но, правда, и первый взрыв — примерно тогда же. Аполлон 13, апрель 1970-го года...)


Ну и здесь уже высказывались вопросы про ресурс мембраны, а я добавлю, сколько времени требуется на переход топливного элемента из режима "генерации водорода" в режим производства электроэнергии? (топливные элементы — классная штука, но ДГУ запускается и выходит на режим… чуть чуть быстрее, обычно)
Какая потребляемая мощность компрессора, который закачивает водород в баки?
Какой пусковой ток у этого компрессора? Что его компенсирует?..
Там реально еще сотни технических вопросов, каждый из которых может катастрофически влиять на себестоимость системы в целом. Собственно, отдельные ученые и большие корпорации работают над разрешением этих вопросов уже более 60 лет. И тут вдруг из ниоткуда возникает компания, которая решила все проблемы не засветившись ни разу?..

С охлаждением там проблемы понятные…
Во-первых, поток воздуха практически полностью перегорожен дисками и бэкплэйном. На корпусе есть "воздухозаборники" сверху, но их явно мало и воздух туда идет больше уже нагретый из "горячей" зоны стойки.
Во-вторых, зачем-то сдвинуты назад вертикальные направляющие в стойке… Даже на фото видна большая щель сбоку. Эта щель ни на что не влияет, пока в стойке 2-3 кВт тепловыделения. Когда в стойке больше 4 кВт тепловыделения — уже начинается рециркуляция горячего воздуха и оборудование начинает греться лишнего… Так что, начинать надо не с дополнительного охлаждения, а с устранения лишних щелей и юнитов без заглушек. (Как правило, просто устранения щелей хватает без дополнительных мер до 7-10 кВт на стойку. Дальше, если хватает мощности кондиционеров, изолировать горячий коридор… или холодный, если воздух раздается из под фальшпола. Что важно — это почти бесплатно по сравнению со всякими охлаждающими дверями, "активными фальшполами" и т.п.)

А зачем в центральном ядре мультимедиа?
Не, я понимаю, сейчас чем поставить нормальный новый манометр с энкодером проще повесить вебкамеру и натаскать нейросеть писать сообщения "человечьим языком", когда на слое вековой пыли что-то поменялось. Но. А на самом деле, зачем в ядре системы управления государством мультимедиа?

Речь-то шла про систему управления государством. Примерно всем примерно целиком. В управлении такого масштаба на персоналках что-то делать пытались очень короткий период "там" — где-то в самом конце 80-х, "у нас" — с небольшим смещением прошло, закончилось в районе 1992-93-го года. Уже к 1995-му году начали вымирать файловые серверы и шло массовое внедрение "архитектуры клиент-сервер" во все.

А в чем, собственно ошибка? В том, что предсказал, что персоналки — это (для бизнес-ПО) короткий бзик, который быстро пройдет? Уже к 1995-му году самый шик в "бизнес-ПО" был "клиент-серверная архитектура" с централизованным сервером приложений, централизованным сервером БД, централизованным почтовым сервером… И да, тогда еще эти серверы были относительно локальными, в радиусе 100 метров по кабельному каналу от клиента, но уже это не были просто хранилища файлов. Потом изобрели три десятка разных "buzz words", "порталы", "шины" и прочие модные сейчас "микросервисы". Но в глобальном плане сущность — не изменилась совсем: "Где-то" есть центральное ядро, которое считает, ищет, формирует результат. А у пользователя — есть экран, клавиатура, мышь и, иногда все еще отдельная, коробочка, которая формирует изображение. Единственное, для чего пока еще нужны локальные вычислительные мощности — некоторые компьютерные игры. Все. Но даже они уже… Много игр, где все вычисления ("для предотвращения читинга") происходят на центральном сервере, а на клиенте — только формируется картинка.

В начале 2000-х довелось побывать на футбольном стадионе то ли в Барселоне, то ли в Лиссабоне… Уже не помню. Но запомнилась как раз таки гениальная технология "виртуальных фанатов". На чистой механике и отсутствии тогда еще более-менее массовыx HD телевизоров.
Просто кресла на трибунах были нескольких разных цветов, разбросаны более-менее случайно. В результате, на общих планах создается впечатление заполненных трибун. Добавляем туда немного живых людей, и уже даже на довольно крупных планах нужно приглядываться, чтобы заметить, что не все эти цветные пятна — люди.
Дешево. Сердито. Работает с любой камеры, при любой погоде, при любом освещении…
На совсем крупных планах, когда надолго камера задерживается — видно, что некоторые места пустые. Но при настолько крупных планах — не бросается в глаза, что кресла разноцветные...


Edit. Это был Лиссабон… Там до сих пор некоторые трибуны так устроены. Самые популярные и заполняемые — однотонные, а галерка, менее заполняемые области и, как ни странно, низ северной трибуны — разноцветные.
https://goo.gl/maps/dBAw4LWRHkb7j2cF7

Все здорово, но… Не так все просто. Я время от времени "на удленке" с 1993-го года. Иногда год за заход, иногда два. Иногда по 10 лет подряд без номинальной "удаленки", но как назвать, когда сидишь в командировках по 6-8 месяцев в году два-три года подряд?..
Лично у меня случаи когда коллеги меня "обходили на карьерной лестнице" чаще случались, когда я сидел в офисе. А когда был на удаленке — так я на удаленке. У меня уже все хорошо. Если доходы адекватны затраченным усилиям — так хорошо же?
Способов "борьбы с домочадцами" — много разных. В общем случае если аккуратно объяснить ребенку, что его присутствие в поле зрения камеры и звуки от него означают, что следующие полгода он сам находит способы оплачивать завтраки, обеды и майнкрафт — лечит примерно любых ребенков в возрасте старше 5 лет. А до 5 лет — там другая история, но тоже есть способы и варианты. Вплоть до того, что коллеги, как правило, понимают, что наличие младенца в доме — значит, что какую-то часть времени придется посвятить младенцу.

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность