Получать энергию вы будете, пока ваши элементы не превратятся в железо. Это касается как синтеза, так и распада.
Ядро атома железа наиболее энергетически выгодно и превращаться ни во что не будет.
Например, синтез элементов тяжелее железа идет только при взрыве сверхновой, с большим расходом энергии, когда соседние ядра впечатываются друг в друга.
При всем уважении к автору статьи, проблема несколько преувеличена.
Если у вас есть кластер из 50 хостов и 49 из них отказало, очевидно, что виртуалки со всего кластера вряд ли смогут взгромоздиться на единственный оставшийся хост.
Ну то есть чисто гипотетически могут, но MS к этому не цепляется.
Мы проходили аудит полгода назад и лицензировали виртуалки по Standard, исходя из их текущего расположения.
Выглядит это так: MS присылает утилиту, говорит: запустите ее 3 раза в разное время в течение рабочего дня, утилита сгенерит несколько xls файлов, вы их ни к коем случае сами не открывайте, а сразу присылайте нам.
В течение рабочего дня виртуалки у нас сидели смирно, по хостам не прыгали и скользких вопросов при лицензировании не возникло.
P.S. За винду гнобить не надо :) сами мы не местные, на linux/docker переползаем, но в один вжух это не делается.
Полагаю, первые двое — CIO и VP-IT.
Позже к ним присоединились VP of Engineering, IT Director, Chief Data Scientist и Chief Security Officer.
Собственно, после этого смешного несоответствия названия должности и полномочий даже не хочется задавать вопросы:
как при росте команды могло снизиться втрое количество времени на митинги? Особенно удивляет осень 2015 — там есть участок, где в течение 5 недель не было ни одной встречи по проекту. Одними коммитами сыт не будешь, в реальных командах без человеческого общения никак.
почему для интерполяции была выбрана логарифмическая регрессия, при том, что совершенно очевидно, что в данных никакой логарифмической зависимости нет?
как вообще можно делать далеко идущие выводы, если тренды меняются так слабо? и вдобавок, как признает сам автор, можно легко ошибиться в теге события.
В общем, пост легкомысленный и дискредитирует идею работы с данными.
Хочется аналитики — можно выделить какие-нибудь явные тенденции, например, увеличение задач по QA перед релизом.
Исландии смогла добиться почти 100 % генерации электроэнергии из возобновляемых источников энергии (ВИЭ).
В 2013 г Исландия 71 % своей электроэнергии выработала благодаря ГЭС.
Около 24 % пришлись на геотермальные электростанции.
Всего около 5 % электроэненргии — это невозобновляемые источники.
Формализма ради, если дом стоит прямо на полюсе, то его окно заметает довольно большой угол дуги (для стороны комнаты 4 м и окна 2 м получится около 30 градусов). Так что, если я стою у края окна перпендикулярно стене, я буду смотреть не точно на юг, а на азимут 165 или 195.
У нас есть n человек.
Тройку из них можно выбрать Cn3 = n(n-1)(n-2)/6 способами. Можно считать, (n-1)3/6, нас устроит не аналитически точное решение.
Вероятность того, что в случайно выбранной тройке все дни рождения совпадут = 1/3652 (обозначим как 1/m, где m = 3652), а что не совпадут = 1-1/m.
Если мы возьмем m троек, то вероятность несовпадения ни в одной из них = 1/e (замечательный предел: (1-1/m)m = 1/e).
Если мы возьмем m*ln(2) троек, то вероятность несовпадения ни в одной из них = (1-1/m)m*ln(2) = ((1-1/m)m)ln(2) = (1/e)ln(2) = 1/2. И вероятность совпадения хотя бы в одной тоже = 1/2.
Получается, что число троек (n-1)3/6 должно быть больше, чем m*ln(2).
Ответ: нужно 1+(6*ln(2)*3652)1/3 людей.
The time to compute 20,000! using gmaxfact or gkg and pentium-4 (Пентиум-4, Карл!) GMP arithmetic is about 0.021 seconds.
А если применить разложение на простые множители, получится 15 мс: By intertwining a prime-number sieve with the computation, we can beat the split-recursive idea as embodied in programs kg and gkg also using GMP, by about 25 percent, for numbers of the size of 20,000!..
Основной вывод — используйте GMP. И вот почему: A simple profiling of factorial of 20,000 shows that most of these algorithms use 98 percent or more of their time in bignumber multiplication.
В чем смысл статьи?
Автор открыл для себя дельта-кодирование?
2/3 текста занимает листинг программы, считающей (обожемой) статистику по расстоянию между соседними простыми числами. Зачем он? Кому он может оказаться полезен?
В чем состоит тайна простых чисел, анонсированная в первой строке? В том, что они… хммм… простые?
Ядро атома железа наиболее энергетически выгодно и превращаться ни во что не будет.
Например, синтез элементов тяжелее железа идет только при взрыве сверхновой, с большим расходом энергии, когда соседние ядра впечатываются друг в друга.
Если у вас есть кластер из 50 хостов и 49 из них отказало, очевидно, что виртуалки со всего кластера вряд ли смогут взгромоздиться на единственный оставшийся хост.
Ну то есть чисто гипотетически могут, но MS к этому не цепляется.
Мы проходили аудит полгода назад и лицензировали виртуалки по Standard, исходя из их текущего расположения.
Выглядит это так: MS присылает утилиту, говорит: запустите ее 3 раза в разное время в течение рабочего дня, утилита сгенерит несколько xls файлов, вы их ни к коем случае сами не открывайте, а сразу присылайте нам.
В течение рабочего дня виртуалки у нас сидели смирно, по хостам не прыгали и скользких вопросов при лицензировании не возникло.
P.S. За винду гнобить не надо :) сами мы не местные, на linux/docker переползаем, но в один вжух это не делается.
> команда выросла с 2 до 6 человек
Полагаю, первые двое — CIO и VP-IT.
Позже к ним присоединились VP of Engineering, IT Director, Chief Data Scientist и Chief Security Officer.
Собственно, после этого смешного несоответствия названия должности и полномочий даже не хочется задавать вопросы:
В общем, пост легкомысленный и дискредитирует идею работы с данными.
Хочется аналитики — можно выделить какие-нибудь явные тенденции, например, увеличение задач по QA перед релизом.
Память уменьшили с 96 ГБ до 64.
Ядра — с 10 до 4 (!!!). Да еще и кеша меньше стало — 8 МБ вместо 10-15.
Обидно, потому что конфигурация 4 SATA 3.5" + SSD 1.8" выглядит очень интересно. Но с такими процессором и памятью ноды брать нельзя.
Маркетинг, маркетинг… Теперь минимальным полезным семейством становится R4x0.
portal-energo.ru/articles/details/id/511
neftegaz.ru/news/view/129327
Исландии смогла добиться почти 100 % генерации электроэнергии из возобновляемых источников энергии (ВИЭ).
В 2013 г Исландия 71 % своей электроэнергии выработала благодаря ГЭС.
Около 24 % пришлись на геотермальные электростанции.
Всего около 5 % электроэненргии — это невозобновляемые источники.
Ситуацию спасла бы идеально круглая комната :)
Ход рассуждений проверил — все верно.
А ваша программа просто рассчитывает приведенную выше длинную сумму или моделирует саму ситуацию — выбирает тройки, считает число совпадений?
У нас есть n человек.
Тройку из них можно выбрать Cn3 = n(n-1)(n-2)/6 способами. Можно считать, (n-1)3/6, нас устроит не аналитически точное решение.
Вероятность того, что в случайно выбранной тройке все дни рождения совпадут = 1/3652 (обозначим как 1/m, где m = 3652), а что не совпадут = 1-1/m.
Если мы возьмем m троек, то вероятность несовпадения ни в одной из них = 1/e (замечательный предел: (1-1/m)m = 1/e).
Если мы возьмем m*ln(2) троек, то вероятность несовпадения ни в одной из них = (1-1/m)m*ln(2) = ((1-1/m)m)ln(2) = (1/e)ln(2) = 1/2. И вероятность совпадения хотя бы в одной тоже = 1/2.
Получается, что число троек (n-1)3/6 должно быть больше, чем m*ln(2).
Ответ: нужно 1+(6*ln(2)*3652)1/3 людей.
The time to compute 20,000! using gmaxfact or gkg and pentium-4 (Пентиум-4, Карл!) GMP arithmetic is about 0.021 seconds.
А если применить разложение на простые множители, получится 15 мс: By intertwining a prime-number sieve with the computation, we can beat the split-recursive idea as embodied in programs kg and gkg also using GMP, by about 25 percent, for numbers of the size of 20,000!..
Основной вывод — используйте GMP. И вот почему: A simple profiling of factorial of 20,000 shows that most of these algorithms use 98 percent or more of their time in bignumber multiplication.
CLI (FA)
HLT (F4)
Мой вам совет: не переводите время попусту.
Автор открыл для себя дельта-кодирование?
2/3 текста занимает листинг программы, считающей (обожемой) статистику по расстоянию между соседними простыми числами. Зачем он? Кому он может оказаться полезен?
В чем состоит тайна простых чисел, анонсированная в первой строке? В том, что они… хммм… простые?
И, наконец, при чем тут вообще Big Data?
Детский сад какой-то, чесслово.