Как стать автором
Обновить

Комментарии 68

«Мы решили эту проблему, используя более тонкие провода» – так проблему можно только усугубить :) Решить ее можно наооборот, проводами потолще, что собственно и написанно в оригинале.
«После анализа цепи, мы нашли сопротивление величиной 1-2 Ома в проводах, которое и было причиной падения напряжения. » — Тоже хорошо сказано. Видимо переводил человек, далёкий от электроники!
1-2 Ohm resistance in the wires was causing this voltage drop.

Буду рад услышать рекомендации специалиста по переводу данной фразы и с удовольствием внесу изменения в статью.
Ну например так: Сопротивление проводов в 1-2 Ома послужило причиной падения напряжения.
Ну или так: Оказалось, что соединительные провода имели сопротивление 1-2 ома, что вызвало ощутимое падение напряжения.
Благодарю!
НЛО прилетело и опубликовало эту надпись здесь
тоже первое, что пришло на ум.
Because we can, just for fun. imho, конечно же.
Есть вполне нормальное практическое применение.

Например, вы разрабатываете ПО для распределенных научных расчетов. Большой и серьезный кластер, скорее всего, принадлежит какой-нибудь организации вроде универститета, надолго вас туда не пустят (обычно там есть система очередей, которая дает вам не больше какого-то машинного времени в месяц или как-то аналогично вас ограничивает).

Вам нужно отладить ваше ПО. Сначала вы, конечно, его отладите на одной машине, но в нем могут остаться ошибки, которые проявляются только при реально параллельной работе на большом числе узлов. Чтобы проверить этот режим работы, вам нужен кластер. Кластер из кучи RPi, конечно, не особенно быстрый, и памяти на каждом узле немного, зато в смысле параллельной работы это самый настоящий кластер и он гораздо дешевле, чем «большой и серьезный». Вы можете отладить свое ПО на нем, чтобы быть более уверенным, что оно будет правильно работать на «большом и серьезном».
Кросс-компиляция — то ещё развлечение. Намного проще поднять сотню самых мелких виртуалок в амазоне.
Почему обязательно кросс-компиляция? Почему нельзя компилировать на RPi?
1. Это очень долго
2. Почти наверняка нужны будут дополнительные библиотеки, которых нету в репах убунты/дебиана, стоящего на RPi. То есть их тоже надо будет собирать. А это — см пункт 1.

У меня дома есть RPi, поверьте, компилировать плюсовый код на ней — ужасно долго, настоящее мучение.
Если конфигурационные скрипты написаны нормально, то обычно проблем не возникает. Я lvm как-то кроскомпилил и ничего
Если хорошо написаны, и если не используется никаких заточек под архитектуру, и ещё пара каких нибудь если. Но согласитесь, виртуалки от амазона всё равно проще и дешевле.
В предложенном варианте виртуалки у себя дома ещё лучше. :) 14 вирутальных ядер (2 на хост), по 4 инстатнса получаем 56 виртуалок, для любой отладки по уши.
В этом контексте амазон лучше только с той точки зрения, что между виртуалками настоящая сеть будет, с задержками — это может повлиять на работу распределённого софта. Но наверняка их тоже можно сэмулировать.
20 штук расберри пи стоят (со всей обвязкой) тыщи полторы баксов. Поднять в Амазоновском облаке 20 микроинстансов на пару часов будет стоить 1-2 доллара.
Проще за 200 долларов купить 32 гб оперативки или 48 если на материнке 6 слотов и крутить пару десятков виртуалок. И хоть год пользуйся.
Ага и 20 процессоров как-то на материнку поставить чтобы тянуть пару десятков вируталок.
Вы судя по всему не в теме. Нормальные гипервизоры держат свободно минимум по 4 машины на одном ядре CPU.
Запустить может и 50 штук можно. Но изначальное предположение было о том, что мы гоняем какой-то серьезный софт, который много чего считает и предназначен для работы на кластере. Какой толк его гонять в режиме «4 машины на одном ядре», если его суть как-раз в масшабируемости и многопоточности?
Если надо протестировать масштабируемость и многопоточность, то и виртуалки, и кластер и RPi будут одинаково бесполезны. Только реальное железо с реальной производительностью. А то иначе легко можно будет посчитать, что все нормально, а при запуске на кластере все развалится или оценки будут отличаться от реальности на пару порядков в неизвестную сторону.

А вот для отладки на ранних стадиях разработки действительно набор виртуалок на мощном сервере будет удобнее чем кластер. Виртуалки всегда можно поставить на паузу и посмотреть в них микроскопом, можно притормозить какую-нибудь виртуалку и посмотреть, как софт на это отреагирует, можно выключить «питание» виртуалкам и смотреть на устойчивость к потере части узлов и много что еще…
А дисковую полку вы тоже за 200 баксов купите? Пару десятков виртуалок сгенерируют такой объём ввода-вывода что обычный контролер просто даст вам усреднённую скорость 15Кб сек и 15 операций в секунду.
Вычислительная мощность процессора Pi — 175 Mflops.
Вычислительная мощность бытового core I5 — 100 000 Mflops
Пара часов — это очень оптимистично. Кстати, а EC2 все еще берут деньги за каждый перезапуск виртуальной машины?
а что, раньше брали? за что именно? по доллару за каждый ребут?
Время тарифицируется почасово на каждый инстанс, т.е. если включить 20 виртуалок на 15 минут — заплатите за 20 часов. А нафига их часто перезапускать?
Насколько я помню, раньше, если вы выключали виртуальную машину и включали ее снова, начинался «новый час» даже если машина была выключена через минуту после включения.
Вообще, если через минуту после выключения машины её снова нужно включать — у вас что-то не то с алгоритмами распределения нагрузки. По-хорошему, такие события должны быть очень редкими.
Это правда. Но речь шла об отладке — может возникнуть необходимость переинициализировать виртуальную машину после того, как она пришла в «негодное» состояние.
«Мы решили эту проблему, используя более толстые провода и сконструировали плату так, что падение по мощности составляло меньше чем 0.5V, что, кстати, меньше чем падение на обычном диоде.» — наверное все-таки имелось в виду падение напряжения, а не мощности.

А вообще круто. Не ясна только область применения такого решения. Хотя, конечно, интересно такими вещами заниматься.
А «гений электроники» -это потому что блоки питания разобрал и навесным монтажом на плате USB-разъемы развел?
А еще ведь и гений плотницкого дела — собрал табуретку из бруса.
Все эти проводочки и RPi меня приводят в восторг :3
Но необоснованное самолюбование авторами (оригинала, разумеется), меня насторожило. А когда я увидел и услышал видео… Гений провода и гвоздя :(
НЛО прилетело и опубликовало эту надпись здесь
Самый главный в мире вопрос: зачем?
Bitcoin генерить :)
ага и погоду рассчитывать) на самом деле это скайнет проектирует себе независимые блоки
Скорее брелоки)
just for fun
Ну не так уж и много для команды такого размера за 23 дня
Интересно, почему они не догадались поставить платы вертикально. Можно же взять 2 доски, сделать в них пропилы и вставлять в них платы raspberry Pi. И место экономится и можно обдув нормальный приделать.
[шуткуя]Плотник штатный сказал, что подконструкцию для вертикального размещения делать «It's too complex»[/шуткуя]
НЛО прилетело и опубликовало эту надпись здесь
С англицким плохо к сожаленью.

А в принципе вариантов много, можно было соорудить некий интерфейс горячей замены, как например картриджи в приставках, или жёсткие диски в тех же корзинах и сделать одну большую плату с этими разъёмами. Тогда была бы решена проблема с быстрой заменой модулей при выходе их из строя. Но на это нужно время. А судя по тому, что время как раз тут минимизировали, то получилось громоздкое решение.
Представил себе классический картридж от приставки с Raspberry Pi внутри. Это офигенно!
У авторов тоже с англ не все гладко ;)
Имхо, это надо кардинально менять плату. Возможно всё таки стоило сделать по углам платы отверстия для монтажа, как в большинстве плат pandaboard/odroid/hackberry, и стал бы возможет монтаж на шпильках.
Насчёт того что вы говорите, предложения есть: habrahabr.ru/post/144896/ habrahabr.ru/company/hp/blog/132733/.
Кстати да, тоже вариант. Хотя можно сделать некий пластиковый «контейнер» который бы имел отверстия для крепления и захватывал плату. Но это вероятно тонкая работа и руками столько креплений не сделаешь. Хотя если отверстия и крепление на общие полозья лишают систему возможности горячей замены модуля — придётся или вытаскивать полозья или снимать с них всё до повреждённой платы.
Насчет отверстий для монтажа — они появились. Две дырки. Правда, не не по краям.
Видимо ты давно не видел и/или не работал с Ланкийцами. Они немного иначе думают в принципе.
И для них это таки да, неплохой прогресс.
Я с ними не работал вообще и о ходе их мыслей судить не могу, я посмотрел на конструкцию и сделал вывод о том, что можно было её соорудить компактней. Может они в этот момент были заняты чем-то другим и не думали о компактности решения. Кто знает.
А почему слово «ланкиец» Вы пишете с большой буквы?
Ну, что вы, это индийский гений гвоздя и молотка! Им виднее ;)
Я не понял зачем этот кластер, чем он будет нагружаться?
Типа мап-редьюс будет работать или как?
Ну почти как мапредьюс, только в меньших масштабах. Кластер будет обрабатывать запросы приложения конференции. Про приложение написано, что оно будет использоваться для трансляции сессий, для назначения встреч с докладчиками, отображения twitter ленты по тегу #wso2con, чатов и всего в этом роде.
Все равно не ясно нафиг зачем там кластер, кроме как для красоты и попонтоваться.
Понятно, почему уже второй месяц заказ висит оплаченный но «out of stock»
> что полный “apt-get update” после “apt-get upgrade”

Должно быть наоборот (в оригинале как раз в правильном порядке).
Мне больше интересно что они подняли на таком кластере и как. Понял что что-то на джаве, а что не ясно.
Нагрузочные тесты провели, а линпак не запустили… шикарно потестили...)
Как только народ не извращается. Но все равно аплодисменты, Вы молодцы.
Использовали продукты WSO2 на проекте. После этого кластер на Raspberry Pi и плотники-затейники для меня не выглядят чем-то неожиданным :)
Спасибо, поправил!
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.