Только поминая Германию не надо забывать про прогрессивную шкалу — такой налог там платят только с ОЧЕНЬ высоких доходов.
А 2000$/месяц (из обсуждаемого примера выше) там считается невысокой з/п. На такую эффективная ставка налога будет порядка 15%-20%
В теории — да. Но на практике сейчас среди идущих в WCG проектов нет ни одного поддерживающего GPU.
Пару таких проектов раньше было, но сейчас они уже закончены, последний из них завершен уже больше года назад.
В каждом из проектов свое ПО, свои программисты, своя группа ученых (или как минимум один + помощники) никак не связанные с другими проектами. В этом смысле от WCG ничего не зависит — они представляют оболочку, систему управления и доступ к базе волонтеров готовых помогать (запуская свой собственный проект на BOINC платформе одно из самых сложных задач не технического плана, а в том чтобы его «раскрутить» — т.е. привлечь достаточное количество волонтеров). Иногда еще безвозмездно предоставляют серверные мощности или дисковые массивы для хранения данных, если в этом есть необходимость.
А как все это будет использоваться полностью зависит от ученых и программистов конкретного проекта входящего в WCG.
Да, сложный момент
С этого места начинается одна из самых «наркоманских» частей, за пределами обычной логики.
можно в подсказках (где меню сохранении игры) маркером порисовать для открытия подсказок.
Правда маркер быстро кончается, а каждый новый стоит 2 BTC :)
Если и подсказки не помагают, то под спойлером подсказка для застрявших:
Приключения биткоин наркомана
На нелегально рынке нужно купить «волшебный порошок», приняв его полезть читать форум, где прочитать о рынке «киллеров» в даркнете с оплатой за биткоины
— потом так же под дозой пойти искать в даркнете этот самый рынок
— найдя его, принять заказ на ликвидацию «луны» :)
— луну можно увидеть как раз на острове
если все-равно застряли
после попытки «грохнуть» луну(так же можно взять заказ на ликвидацию дорожного знака), опять же под дозой порошка выйти на улицу (в обычном режиме игры — карта), становятся доступны новые приключения
А майнеры действительно не майнят. Косяк автора, понятно что он биткоин-хейтер и вся игра изначально задумана как обсирание биткоина и идей на которых он основан (правда выполнена на отличном уровне и с юмором, в отличии от первой части) и автор хотел наглядно показать что майнинг приносит только убытки, но этот момент сделан неправильно — они все-равно должны генерировать BTC, просто нужно было сделать чтобы стоимость добываемых BTC была всегда ниже чем расходы в USD на электричество, чтобы постепенно загонять игрока в минус.
Пункты WCG нужно делить на 7 для перевода в обычные «булыжники» BOINC (cobblestone), которые в свою очередь:
1 — по классическому их определению начисляются из расчета 1 полные сутки работы 1 стандартной машины условной мощностью 1 Гигафлоп (вычислений двойной точности) со 100% нагрузкой = 200 булыжников.
2 — на практике современное x86 ядро (уровня Intel iCore или AMD Phenom-2 или FX) c частотами 3.5-4 Ггц оценивается в 500-700 булыжников за сутки непрерывной работы с максимальной загрузкой т.е. порядка 3 Гигафлоп
Из чего можно сделать вывод, что текущие оценки указываемые в статистике занижены раза в 3 минимум, т.к. по Linpack (как оценивают например мощности суперкомпьютеров), каждое такое ядро имеет оценку в районе 10 Гигафлопс и более. Вероятно это происходит из-за сильного устаревшего классического бенчмарка используемого в BOINC: там какой-то древний эталон принятый десятки лет назад и который не учитывает возможности и оптимизации современных CPU типа специализированных SIMD SSEx и AVX блоков, под которые сейчас обычно и оптимизируют ПО критическое к скорости вычислений.
Так вот — на данный момент WCG выдает около 100 миллионов BOINC очков или 700 миллионов своих собственных внутренних попугаев — они историческое наследие времен, когда WCG существовал отдельно от BOINC на собственной платформе. Возможно слышали о UnitedDevice? Это был один из первых РВ проектов в мире, он позже превратился в WCG и перешел на BOINC платформу, а стандарт учета остался еще с тех времен для совместимости и сопоставимости баз данных.
Исходя из этого можно оценить вычислительную мощность WCG:
1. по классической методике принятой с момента появления BOINC = около 500 Терафлопс
2. по более реалистичной оценке — скорее порядка 1500 Терафлопс
3. так же в WCG есть второй тип учета — по использованному процессорному времени, и сейчас проект собирает около 450 лет процессорного времени в сутки, т.е. это эквивалент 160 000 процессорных ядер работающих в режиме 24х7 и только над WCG задачами.
При этом что характерно ВСЯ эта мощность обеспечена только за счет классических CPU, т.к. сейчас в WCG просто нет ни одного проекта который использовал бы вычисления на видеокартах или других специализированных чипах.
Т.е. по x86 части мощность проекта даже выше чем у мирового лидера Folding@Home (у которого 99% заявленной мощности обеспечивается за счет GPU и только около 400 Терафлопс приходится на CPU)
Аналогично можно оценить и любой проект входящий в WCG. Например описанный в моей статье Help Fight Childhood Cancer работал со среднем уровнем порядка 60 млн. WCG очков в сутки, что можно ценить как порядка 40/120 Терафлопс (так же чисто x86 CPU).
Ну еще до риплов, WCG была одной из крупнейших в мире РВ-сетей. Даже наверно крупнее чем сейчас (если не по суммарной выч. мощности оценивать — которая все-таки выросла за счет постоянного роста средней мощности железа, а по количеству активных волонтеров), потом у них был значительный спад, связанный в том числе со влетом популярности криптовалют и завершением множества интересных проектов WCG.
Риплами они частично восстановили потерянные позиции.
Кстати сейчас подобные схемы так же существуют, только уже в виде отдельных криптовалют базирующихся на РВ. Где научные вычисления используются в качестве Proof-of-Work вместо (или как дополнение) перебора криптографических хэшей. Например:
CureCoin — эмиссия монет распределяется пропорционально очкам набранным в Folding@Home
GridCoin — монеты идут за РВ вычисления на BOINC платформе
Да, это проект долгожитель — самый длительный из поддерживаемых IBM в рамках WCG (хотя если другие рассматривать, то rosetta@home и folding@home еще большие долгожители — они по своей сути и целям фактически бесконечные несмотря на уже имеющийся значительный прогресс).
Правда его окончание не означает что лекарство уже практически найдено. Это просто одно из обязательных требований WCG — все допущенные к участию проекты должны быть конечны. Если проект слишком сильно затягивается и применяемыми методами и ПО не получается достичь заявленных целей (какими бы благами они не были), то надо сворачиваться и освобождать ресурсы волонтеров для поддержки других проектов.
Так где-то к концу лета завершится расчетная часть (в конце скорость значительно падает когда начинают «подчищать хвосты»). Потом пару месяцев уйдет на закрытую пост-обработку всех собранных данных (уже на выделенных серверах, или даже выч. кластере IBM — где будет обрабатываться наиболее ресурсоемкая часть, слишком сложная для домашние-офисных ПК), потом еще минимум несколько месяцев на лабораторно-пробирочную часть — практическое тестирование лучших найденных кандидатов.
И где-нибудь в начале 2016 года узнаем — помогли ли все эти расчеты продвинуться в лечении спида или значимых результатов (т.е. превосходящих уже существующие хоть и не особо эффективные лекарства) не будет.
Нет речь об отдельной сущности, которую называют Темной Материей — начать можно как обычно с Wiki там довольно неплохо про ТМ написано
Черные дыры обычно не относят к ТМ, хотя ЧД тоже в некотором смысле «темные» (т.к. сами напрямую ничего не излучают).
ТМ это неизвестное нечто, судя по гравитационному воздействую в несколько раз превосходящее по массе всю известную нам материю (включая все планеты, все звезды, в т.ч. известные нейтронные звезды и черные дыры, облака газа и пыли), но при этом относительно равномерно распределенную в пространстве галактик и около них (по свойствам напоминает скорее тяжелые газо-пылевые облака, чем например звезды).
В этом большое отличие от очень компактных, практически точечных черных дыр. (размеры обычных ЧД кроме сверхгигантских в центрах крупных галактик по космическим размерам просто крошечные — счет идет обычно всего на десятки км, т.е. в сотни раз меньше планет, не говоря уже о звездах).
Стоит чего-нибудь написать интересного (небольшую статью или хотя бы качественный перевод зарубежной если идей никаких не приходит) — иначе К так никогда и не появится. Это на случай если подзабыли местные правила: пользователи даже при большом желании(например за очень хороший комментарий) не могут добавить вам К, если у вас нет хотя бы одной опубликованной статьи.
Это имеет неприятный побочный эффект — чудовищное потребление энергии на транспорт.
США мировой лидер по ее потреблению как по абсолютным показателям, так и удельным.
Большинство стран не могут себе позволить так же жить на «широкую ногу» не экономя энергию.
Возможно одного — в таких исследованиях наблюдают как «линзируется» свет не той самой галактики, вокруг которой изучают скопление темной материи — а идущий от более дальних галактик, расположенных условно «за линзой» (с точки зрения наблюдателя находящего на Земле).
Если бы такие «линзы» из темной материи находились в пустом космосе (не заполненном видимой материей) — сам эффект линзирования все-равно никуда не делся и эти скопления можно было бы обнаружить. Причем это было вероятно даже проще — т.к. не мешал бы свет ближних галактик «налипших» на сгусток темной материи и искажения света были бы четче выражены на полученных снимках.
Такой вывод напрашивается из логики, однако расчеты проводимые с разных сторон:
— исходя из квантовой механики и текущего понимания учеными физического вакуума
— исходя из наблюдаемых космологических эффектов приписываемых темной энергии
Очень сильно не совпадают друг с другом — причем принципиально (на много порядков), т.е. это нельзя списать просто на неточность/погрешность.
Что говорит либо о том, что эти эффекты вообще друг к другу отношения не имеют. Либо о том, что текущие используемые теории в чем-то фундаментально неверны. Например как раз может оказаться, что квантовые флуктуации вакуума и темная энергия распределены совсем НЕ равномерно по вселенной (как считается сейчас). И мы оценив «густоту» вакуума у себя на Земле и сделав предположение что она везде во вселенной такая же получаем ошибку на много порядков.
Ну а конкретно в статье выше речь вообще идет о темной материи (а не энергии) — она точно распределена неравномерно, на данный момент это общепринятая теория, пока подтверждающаяся известными экспериментальными данными.
Может кто-нибудь подскажет — возможно ли уже в опубликованную статью опрос добавить?
Вопросы в конце должны были быть в виде опроса(голосовалки), но пока статья была в «песочнице», возможности вставить форму опроса не было. И сейчас при открытии статьи на редактирование — так же нет.
А вот при открытии редактора для создания новой статьи — опрос доступен
Ну в этом плане, ничем помочь не могу.
Сам я ни в одной РВ разработке не участвовал и использую только клиентскую часть этого ПО как обычный (пусть и очень продвинутый) конечный пользователь + периодически читаю и пишу о научной части проектов, которая меня собственно интересует даже больше чем IT-техническая или «спортивная»
Что понимать под «шаблоном»? Есть целая готовая OpenSource платформа для организации собственных РВ-проектов: ru.wikipedia.org/wiki/BOINC
Она включает в себя как клиентскую часть, так и серверную. И за последние годы стала настолько популярной, что фактически стала стандартом.
Но расчетную часть, выполняющую непосредственно полезные расчеты нужно естественно писать самостоятельно и интегрировать в нее.
А чего обвинять-то если это на самом деле было и тоже не скрывалось? Такой проект по взлому шифра был, да и сейчас его аналоги существуют. Например Moo! Wrapper (взлом шифров в рамках «RC5-72 challenge») или DistrRTgen (генерация «радужных таблиц» для взломов шифров). Или близких к ним по смыслу, например Enigma@Home — расшифровка перехваченных сообщений времен 2й мировой войны зашифрованных знаменитой немецкой Энигмой
И находится немало людей добровольно в этом участвующих. Как говорится на вкус и цвет — все фломастеры разные. И каждый сходит с ума по своему.
Конкретно я впрочем разделяю ваш подход и ни в каких подобных проектах не участвовал и не участвую. Более того, я состою в одной из российских команд РВ вычислений основное отличие которой от подобных как раз аналогичный подход к выбору проектов среди ее участников. Но при этом есть и специализирующиеся например на астрономии или математике или универсальные, занимающиеся всем сразу.
Впрочем по текущим актуальным проектам нужно отдельную статью писать, жаль не получилось вставить опрос в эту статью(когда статья была в песочнице — почему-то нельзя было опрос добавлять и сейчас при редактировании это тоже недоступно), но судя по комментариям как раз к этому основной интерес, ну и к тому как подключится.
А насчет остального. Как писал в другом комментарии практически все современные РВ проекты это задачи класса HTC=High-throughput computing которые весьма существенно отличаются от класса задач HPC=High-performance computing для решения которых и создаются суперкомпьютеры. В частности:
— масштабирование этих задач при увеличении количества вычислительных ядер в N раз практически 100% линейное
— задержки и пропускная способность сети значения практически не имеют
Есть всего несколько РВ проектов исключений, которые пытаются решать задачи близкие по своей сути к HPC не совсем подходящим способом. И я знаю только один крупный/известный из таких (Folding@Home).
А так для всех остальных РВ сеть оказывается намного ЭФФЕКТИВНЕЕ чем супер компьютер. Непосредственно для научной группы она вообще эффективнее на порядки, т.к. они содержат (и оплачивают) только работу нескольких серверов занимающихся координацией, распределением, сбором, учетом и контролем заданий в распределенной сети, а вся наиболее тяжелая вычислительная часть вынесена так сказать на оутсорс и оплачивается и обслуживается добровольцами-волонтерами. Так что это можно рассматривать как своего рода Краудфандинг интересующего научного исследования — т.к. участвующий несет доп. расходы (как минимум на доп. оплату электроэнергии) и этим косвенно финансирует выбранный проект, который иначе невозможно было бы осуществить (т.к. выделенных денег просто не хватит на постройку собственного мощного суперкомпьютера или длительную аренду существующего)
Но даже в глобальном масштабе (планеты/цивилизации) это оказывается эффективнее использования суперкомпьютеров — т.к. обычно используется железо «бытового» класса, которое в несколько раз дешевле серверного и в большинстве случаев используется то, которое и так уже куплено(и оплачено) в любом случае для других целей + значительная экономия на: помещениях, охлаждении, обслуживании.
P.S.
Причем речь идет именно о сравнении с самыми мощными суперкомпьютерами — наиболее популярные РВ проекты в HTC задачах аналогичны суперкомпьютерам из мирового ТОП-500, стоящих сумасшедших денег. Никаким небольшим выч. кластером из нескольких многопроцессорных серверов приличную РВ сеть просто нереально заменить. Например описанная в статье сетка (причем далеко не самая мощная, скорее крепкий середнячок) проделала работу эквивалентную 2 годам круглосуточной работы ~20 000 ядерного суперкомпьютера, который мог бы претендовать на место в ТОП-100 самых мощных машин Земли того времени (когда основная часть расчетов была выполнена, т.е. в 2011-2012 годах) и доступных в основном военным и крупнейшим гос. научным центрам (да и то врядли кто-то отдал такую машину на целых 2 года под одну единственную задачу)
Да, после того как компания №1 пройдет все нужные этапы и внесет новое активное вещество в реестры (что нужно для официального допуска на рынок и начала продаж), все остальные запуская продажу своего аналога просто могут ссылаться на него — вещество уже известное, проверенное и допущено к применению. В общем дженерик как он есть: ru.wikipedia.org/wiki/%D0%94%D0%B6%D0%B5%D0%BD%D0%B5%D1%80%D0%B8%D0%BA
Только в обычном случае (собственной разработки силами фарм. компании) для этого приходится ждать много лет пока не закончится действие патента — за это время компания №1 державшая довольно высокие цены успевает снять сливки — не только окупить все исходные затраты на исследования и внедрение, но и получить хорошую прибыль за счет большой маржи (цена/себестоимость производства). А все остальные потом «подбирают остатки» когда патент закончится.
В таких же так сказать OpenSource разработках компания №1 наоборот оказывается в проигрышной позиции. Из плюсов относительно конкрурентов у нее разве что будет +к репутации (т.к. несмотря на отсутствие формальной юр. защиты, прорыв в лечении какой-то болячки большинство будет связывать именно с ее брендом) и отношение пациентов: это дескать оригинал, а все остальное лишь копии. И хотя разницы в эффективности с мединской точки зрения обычно нет, но на уровне психологии это играет в пользу выбора 1го препарата, за счет чего можно получить больше объем продаж и все-таки держать цены несколько выше аналогов.
Фармацевтические компании под «разработкой» обычно понимают вообще все расходы не связанные непосредственно с производством и продажами уже запущенного в оборот лекарства. И кроме редких сложных случаев эти расходы действительно намного (в разы или даже на порядок) выше чем собственно производство.
Не знаю как у нас, а в случае Западной медицины этапы между научным открытием (выделением какого-то нового эффективного действующего вещества — о чем была статья) и запуском в серийное производство обходятся обычно даже дороже чем собственно научно-исследовательская часть. В нее входит:
— тестирование на других разных видах животных помимо стандартных для научной части мышей — в первую очередь для оценки безопасности и возможности перехода к следующей стадии
— потом тестирование на людях-добровольцах, что в конкретном случае с детьми имеет дополнительные сложности (и участникам обычно за это платят)
— на основании собранных результатов проводится доказательство безопасности для людей (и тут возможен провал — если на людях вдруг выявятся тяжелые побочные эффекты, которые не наблюдались на животных — лекарство не допустят к применению и все расходы можно списывать в чистый убыток)
— выявление наиболее эффективной схемы применения (как вводить — перорально/внутримышечно/внутривенно, в каких дозах, в какой периодичностью и продолжительности курса и т.д.)
— доказательства эффективности, обычно через двойное слепое тестирование — нужно подтвердить что лекарство действительно лечит заявленную болезнь, причем эффект сильнее чем плацебо и как минимум не хуже чем уже существующие и допущенные к применению аналоги (тут тоже возможен провал — то что было эффективно на животных, может оказаться не столь эффективным на людях)
— согласование с регулирующими гос. органами, сертификация, регистрация в разных медицинских реестрах
— разработка метода синтеза пригодного для массового производства (для лаборатории сейчас можно практически что угодно синтезировать, а вот над методикой синтеза пригодной для массового производства чаще всего приходится отдельно поработать)
И только потом можно начинать производство, продажи и получать какую-то отдачу со всего этого. При этом любые другие компании не занимавшиеся всем перечисленным(кроме может быть последнего пункта — он может быть непубличным и защищен как «ноу-хау») могут просто дождаться окончания этого процесса и после этого выпустить свои аналог на базе этого действующего вещества такой же эффективности только существенно дешевле — благо у них расходы меньше: только на производство и рекламу. Компания №1 запретить этого другим не может — препарат не патентуемый.
Начинается конкуренция по цене, что быстро приводит к падению цен к уровню себестоимость серийного производства + небольшая маржа. Всем компаниям это неплохо — прибыль небольшая но есть, доп. объемы пр-ва, реализации. Пациентам тоже хорошо — получили новый более эффективный препарат по минимально возможным ценам.
В общем хорошо всем — кроме собственно компании №1 которая и вывела новый препарат на рынок — прибыли ей досталось меньше всего, а вполне вероятно останется и в убытке. Риски неудачи на любом этапе — тоже на ней.
В общем компании и не против заняться производством — но в отличии от собственных (коммерческих и патентуемых) разработок никто не хочет становиться №1, все ждут когда кто-то другой пройдет начальные этапы за них.
Обычно это решается через долгие и нудные поиски желающих и переговоры — иногда находятся желающие рискнуть в надежде отбыть начальные затраты за счет грамотных рекламы и пиара (выставив именно себя открывателями, а всех остальных лишь копирующими). Или бывает компания пытается сначала чем-то улучшить исходное вещество (например использовав общую идею из научного исследования найти близкое вещество с другой хим. формулой которое можно запатентовать).
А если желающих так и не находится, то обычно заканчивается выделением правительственного (или из благотворительного фонда) гранта, который покрыл бы расходы на эти этапы предшествующие производству и лекарство выходит на рынок сразу как Дженерик.
Поправка к 8му пункту — в конкретном случае там надо указать наоборот «существующий участник» (т.к. регистрация происходит через сайт на 2м пункте).
А вот для большинства других BOINC проектов (не из состава World Community Grid), действительно можно указывать «Новый участник» и регистрироваться прямо из программы.
А 2000$/месяц (из обсуждаемого примера выше) там считается невысокой з/п. На такую эффективная ставка налога будет порядка 15%-20%
Пару таких проектов раньше было, но сейчас они уже закончены, последний из них завершен уже больше года назад.
В каждом из проектов свое ПО, свои программисты, своя группа ученых (или как минимум один + помощники) никак не связанные с другими проектами. В этом смысле от WCG ничего не зависит — они представляют оболочку, систему управления и доступ к базе волонтеров готовых помогать (запуская свой собственный проект на BOINC платформе одно из самых сложных задач не технического плана, а в том чтобы его «раскрутить» — т.е. привлечь достаточное количество волонтеров). Иногда еще безвозмездно предоставляют серверные мощности или дисковые массивы для хранения данных, если в этом есть необходимость.
А как все это будет использоваться полностью зависит от ученых и программистов конкретного проекта входящего в WCG.
С этого места начинается одна из самых «наркоманских» частей, за пределами обычной логики.
можно в подсказках (где меню сохранении игры) маркером порисовать для открытия подсказок.
Правда маркер быстро кончается, а каждый новый стоит 2 BTC :)
Если и подсказки не помагают, то под спойлером подсказка для застрявших:
— потом так же под дозой пойти искать в даркнете этот самый рынок
— найдя его, принять заказ на ликвидацию «луны» :)
— луну можно увидеть как раз на острове
А майнеры действительно не майнят. Косяк автора, понятно что он биткоин-хейтер и вся игра изначально задумана как обсирание биткоина и идей на которых он основан (правда выполнена на отличном уровне и с юмором, в отличии от первой части) и автор хотел наглядно показать что майнинг приносит только убытки, но этот момент сделан неправильно — они все-равно должны генерировать BTC, просто нужно было сделать чтобы стоимость добываемых BTC была всегда ниже чем расходы в USD на электричество, чтобы постепенно загонять игрока в минус.
1 — по классическому их определению начисляются из расчета 1 полные сутки работы 1 стандартной машины условной мощностью 1 Гигафлоп (вычислений двойной точности) со 100% нагрузкой = 200 булыжников.
2 — на практике современное x86 ядро (уровня Intel iCore или AMD Phenom-2 или FX) c частотами 3.5-4 Ггц оценивается в 500-700 булыжников за сутки непрерывной работы с максимальной загрузкой т.е. порядка 3 Гигафлоп
Из чего можно сделать вывод, что текущие оценки указываемые в статистике занижены раза в 3 минимум, т.к. по Linpack (как оценивают например мощности суперкомпьютеров), каждое такое ядро имеет оценку в районе 10 Гигафлопс и более. Вероятно это происходит из-за сильного устаревшего классического бенчмарка используемого в BOINC: там какой-то древний эталон принятый десятки лет назад и который не учитывает возможности и оптимизации современных CPU типа специализированных SIMD SSEx и AVX блоков, под которые сейчас обычно и оптимизируют ПО критическое к скорости вычислений.
Так вот — на данный момент WCG выдает около 100 миллионов BOINC очков или 700 миллионов своих собственных внутренних попугаев — они историческое наследие времен, когда WCG существовал отдельно от BOINC на собственной платформе. Возможно слышали о UnitedDevice? Это был один из первых РВ проектов в мире, он позже превратился в WCG и перешел на BOINC платформу, а стандарт учета остался еще с тех времен для совместимости и сопоставимости баз данных.
Исходя из этого можно оценить вычислительную мощность WCG:
1. по классической методике принятой с момента появления BOINC = около 500 Терафлопс
2. по более реалистичной оценке — скорее порядка 1500 Терафлопс
3. так же в WCG есть второй тип учета — по использованному процессорному времени, и сейчас проект собирает около 450 лет процессорного времени в сутки, т.е. это эквивалент 160 000 процессорных ядер работающих в режиме 24х7 и только над WCG задачами.
При этом что характерно ВСЯ эта мощность обеспечена только за счет классических CPU, т.к. сейчас в WCG просто нет ни одного проекта который использовал бы вычисления на видеокартах или других специализированных чипах.
Т.е. по x86 части мощность проекта даже выше чем у мирового лидера Folding@Home (у которого 99% заявленной мощности обеспечивается за счет GPU и только около 400 Терафлопс приходится на CPU)
Аналогично можно оценить и любой проект входящий в WCG. Например описанный в моей статье Help Fight Childhood Cancer работал со среднем уровнем порядка 60 млн. WCG очков в сутки, что можно ценить как порядка 40/120 Терафлопс (так же чисто x86 CPU).
Риплами они частично восстановили потерянные позиции.
Кстати сейчас подобные схемы так же существуют, только уже в виде отдельных криптовалют базирующихся на РВ. Где научные вычисления используются в качестве Proof-of-Work вместо (или как дополнение) перебора криптографических хэшей. Например:
CureCoin — эмиссия монет распределяется пропорционально очкам набранным в Folding@Home
GridCoin — монеты идут за РВ вычисления на BOINC платформе
Правда его окончание не означает что лекарство уже практически найдено. Это просто одно из обязательных требований WCG — все допущенные к участию проекты должны быть конечны. Если проект слишком сильно затягивается и применяемыми методами и ПО не получается достичь заявленных целей (какими бы благами они не были), то надо сворачиваться и освобождать ресурсы волонтеров для поддержки других проектов.
Так где-то к концу лета завершится расчетная часть (в конце скорость значительно падает когда начинают «подчищать хвосты»). Потом пару месяцев уйдет на закрытую пост-обработку всех собранных данных (уже на выделенных серверах, или даже выч. кластере IBM — где будет обрабатываться наиболее ресурсоемкая часть, слишком сложная для домашние-офисных ПК), потом еще минимум несколько месяцев на лабораторно-пробирочную часть — практическое тестирование лучших найденных кандидатов.
И где-нибудь в начале 2016 года узнаем — помогли ли все эти расчеты продвинуться в лечении спида или значимых результатов (т.е. превосходящих уже существующие хоть и не особо эффективные лекарства) не будет.
Черные дыры обычно не относят к ТМ, хотя ЧД тоже в некотором смысле «темные» (т.к. сами напрямую ничего не излучают).
ТМ это неизвестное нечто, судя по гравитационному воздействую в несколько раз превосходящее по массе всю известную нам материю (включая все планеты, все звезды, в т.ч. известные нейтронные звезды и черные дыры, облака газа и пыли), но при этом относительно равномерно распределенную в пространстве галактик и около них (по свойствам напоминает скорее тяжелые газо-пылевые облака, чем например звезды).
В этом большое отличие от очень компактных, практически точечных черных дыр. (размеры обычных ЧД кроме сверхгигантских в центрах крупных галактик по космическим размерам просто крошечные — счет идет обычно всего на десятки км, т.е. в сотни раз меньше планет, не говоря уже о звездах).
США мировой лидер по ее потреблению как по абсолютным показателям, так и удельным.
Большинство стран не могут себе позволить так же жить на «широкую ногу» не экономя энергию.
Если бы такие «линзы» из темной материи находились в пустом космосе (не заполненном видимой материей) — сам эффект линзирования все-равно никуда не делся и эти скопления можно было бы обнаружить. Причем это было вероятно даже проще — т.к. не мешал бы свет ближних галактик «налипших» на сгусток темной материи и искажения света были бы четче выражены на полученных снимках.
— исходя из квантовой механики и текущего понимания учеными физического вакуума
— исходя из наблюдаемых космологических эффектов приписываемых темной энергии
Очень сильно не совпадают друг с другом — причем принципиально (на много порядков), т.е. это нельзя списать просто на неточность/погрешность.
Что говорит либо о том, что эти эффекты вообще друг к другу отношения не имеют. Либо о том, что текущие используемые теории в чем-то фундаментально неверны. Например как раз может оказаться, что квантовые флуктуации вакуума и темная энергия распределены совсем НЕ равномерно по вселенной (как считается сейчас). И мы оценив «густоту» вакуума у себя на Земле и сделав предположение что она везде во вселенной такая же получаем ошибку на много порядков.
Ну а конкретно в статье выше речь вообще идет о темной материи (а не энергии) — она точно распределена неравномерно, на данный момент это общепринятая теория, пока подтверждающаяся известными экспериментальными данными.
Вопросы в конце должны были быть в виде опроса(голосовалки), но пока статья была в «песочнице», возможности вставить форму опроса не было. И сейчас при открытии статьи на редактирование — так же нет.
А вот при открытии редактора для создания новой статьи — опрос доступен
Сам я ни в одной РВ разработке не участвовал и использую только клиентскую часть этого ПО как обычный (пусть и очень продвинутый) конечный пользователь + периодически читаю и пишу о научной части проектов, которая меня собственно интересует даже больше чем IT-техническая или «спортивная»
Она включает в себя как клиентскую часть, так и серверную. И за последние годы стала настолько популярной, что фактически стала стандартом.
Но расчетную часть, выполняющую непосредственно полезные расчеты нужно естественно писать самостоятельно и интегрировать в нее.
И находится немало людей добровольно в этом участвующих. Как говорится на вкус и цвет — все фломастеры разные. И каждый сходит с ума по своему.
Конкретно я впрочем разделяю ваш подход и ни в каких подобных проектах не участвовал и не участвую. Более того, я состою в одной из российских команд РВ вычислений основное отличие которой от подобных как раз аналогичный подход к выбору проектов среди ее участников. Но при этом есть и специализирующиеся например на астрономии или математике или универсальные, занимающиеся всем сразу.
Впрочем по текущим актуальным проектам нужно отдельную статью писать, жаль не получилось вставить опрос в эту статью(когда статья была в песочнице — почему-то нельзя было опрос добавлять и сейчас при редактировании это тоже недоступно), но судя по комментариям как раз к этому основной интерес, ну и к тому как подключится.
А насчет остального. Как писал в другом комментарии практически все современные РВ проекты это задачи класса HTC=High-throughput computing которые весьма существенно отличаются от класса задач HPC=High-performance computing для решения которых и создаются суперкомпьютеры. В частности:
— масштабирование этих задач при увеличении количества вычислительных ядер в N раз практически 100% линейное
— задержки и пропускная способность сети значения практически не имеют
Есть всего несколько РВ проектов исключений, которые пытаются решать задачи близкие по своей сути к HPC не совсем подходящим способом. И я знаю только один крупный/известный из таких (Folding@Home).
А так для всех остальных РВ сеть оказывается намного ЭФФЕКТИВНЕЕ чем супер компьютер. Непосредственно для научной группы она вообще эффективнее на порядки, т.к. они содержат (и оплачивают) только работу нескольких серверов занимающихся координацией, распределением, сбором, учетом и контролем заданий в распределенной сети, а вся наиболее тяжелая вычислительная часть вынесена так сказать на оутсорс и оплачивается и обслуживается добровольцами-волонтерами. Так что это можно рассматривать как своего рода Краудфандинг интересующего научного исследования — т.к. участвующий несет доп. расходы (как минимум на доп. оплату электроэнергии) и этим косвенно финансирует выбранный проект, который иначе невозможно было бы осуществить (т.к. выделенных денег просто не хватит на постройку собственного мощного суперкомпьютера или длительную аренду существующего)
Но даже в глобальном масштабе (планеты/цивилизации) это оказывается эффективнее использования суперкомпьютеров — т.к. обычно используется железо «бытового» класса, которое в несколько раз дешевле серверного и в большинстве случаев используется то, которое и так уже куплено(и оплачено) в любом случае для других целей + значительная экономия на: помещениях, охлаждении, обслуживании.
P.S.
Причем речь идет именно о сравнении с самыми мощными суперкомпьютерами — наиболее популярные РВ проекты в HTC задачах аналогичны суперкомпьютерам из мирового ТОП-500, стоящих сумасшедших денег. Никаким небольшим выч. кластером из нескольких многопроцессорных серверов приличную РВ сеть просто нереально заменить. Например описанная в статье сетка (причем далеко не самая мощная, скорее крепкий середнячок) проделала работу эквивалентную 2 годам круглосуточной работы ~20 000 ядерного суперкомпьютера, который мог бы претендовать на место в ТОП-100 самых мощных машин Земли того времени (когда основная часть расчетов была выполнена, т.е. в 2011-2012 годах) и доступных в основном военным и крупнейшим гос. научным центрам (да и то врядли кто-то отдал такую машину на целых 2 года под одну единственную задачу)
Только в обычном случае (собственной разработки силами фарм. компании) для этого приходится ждать много лет пока не закончится действие патента — за это время компания №1 державшая довольно высокие цены успевает снять сливки — не только окупить все исходные затраты на исследования и внедрение, но и получить хорошую прибыль за счет большой маржи (цена/себестоимость производства). А все остальные потом «подбирают остатки» когда патент закончится.
В таких же так сказать OpenSource разработках компания №1 наоборот оказывается в проигрышной позиции. Из плюсов относительно конкрурентов у нее разве что будет +к репутации (т.к. несмотря на отсутствие формальной юр. защиты, прорыв в лечении какой-то болячки большинство будет связывать именно с ее брендом) и отношение пациентов: это дескать оригинал, а все остальное лишь копии. И хотя разницы в эффективности с мединской точки зрения обычно нет, но на уровне психологии это играет в пользу выбора 1го препарата, за счет чего можно получить больше объем продаж и все-таки держать цены несколько выше аналогов.
Не знаю как у нас, а в случае Западной медицины этапы между научным открытием (выделением какого-то нового эффективного действующего вещества — о чем была статья) и запуском в серийное производство обходятся обычно даже дороже чем собственно научно-исследовательская часть. В нее входит:
— тестирование на других разных видах животных помимо стандартных для научной части мышей — в первую очередь для оценки безопасности и возможности перехода к следующей стадии
— потом тестирование на людях-добровольцах, что в конкретном случае с детьми имеет дополнительные сложности (и участникам обычно за это платят)
— на основании собранных результатов проводится доказательство безопасности для людей (и тут возможен провал — если на людях вдруг выявятся тяжелые побочные эффекты, которые не наблюдались на животных — лекарство не допустят к применению и все расходы можно списывать в чистый убыток)
— выявление наиболее эффективной схемы применения (как вводить — перорально/внутримышечно/внутривенно, в каких дозах, в какой периодичностью и продолжительности курса и т.д.)
— доказательства эффективности, обычно через двойное слепое тестирование — нужно подтвердить что лекарство действительно лечит заявленную болезнь, причем эффект сильнее чем плацебо и как минимум не хуже чем уже существующие и допущенные к применению аналоги (тут тоже возможен провал — то что было эффективно на животных, может оказаться не столь эффективным на людях)
— согласование с регулирующими гос. органами, сертификация, регистрация в разных медицинских реестрах
— разработка метода синтеза пригодного для массового производства (для лаборатории сейчас можно практически что угодно синтезировать, а вот над методикой синтеза пригодной для массового производства чаще всего приходится отдельно поработать)
И только потом можно начинать производство, продажи и получать какую-то отдачу со всего этого. При этом любые другие компании не занимавшиеся всем перечисленным(кроме может быть последнего пункта — он может быть непубличным и защищен как «ноу-хау») могут просто дождаться окончания этого процесса и после этого выпустить свои аналог на базе этого действующего вещества такой же эффективности только существенно дешевле — благо у них расходы меньше: только на производство и рекламу. Компания №1 запретить этого другим не может — препарат не патентуемый.
Начинается конкуренция по цене, что быстро приводит к падению цен к уровню себестоимость серийного производства + небольшая маржа. Всем компаниям это неплохо — прибыль небольшая но есть, доп. объемы пр-ва, реализации. Пациентам тоже хорошо — получили новый более эффективный препарат по минимально возможным ценам.
В общем хорошо всем — кроме собственно компании №1 которая и вывела новый препарат на рынок — прибыли ей досталось меньше всего, а вполне вероятно останется и в убытке. Риски неудачи на любом этапе — тоже на ней.
В общем компании и не против заняться производством — но в отличии от собственных (коммерческих и патентуемых) разработок никто не хочет становиться №1, все ждут когда кто-то другой пройдет начальные этапы за них.
Обычно это решается через долгие и нудные поиски желающих и переговоры — иногда находятся желающие рискнуть в надежде отбыть начальные затраты за счет грамотных рекламы и пиара (выставив именно себя открывателями, а всех остальных лишь копирующими). Или бывает компания пытается сначала чем-то улучшить исходное вещество (например использовав общую идею из научного исследования найти близкое вещество с другой хим. формулой которое можно запатентовать).
А если желающих так и не находится, то обычно заканчивается выделением правительственного (или из благотворительного фонда) гранта, который покрыл бы расходы на эти этапы предшествующие производству и лекарство выходит на рынок сразу как Дженерик.
А вот для большинства других BOINC проектов (не из состава World Community Grid), действительно можно указывать «Новый участник» и регистрироваться прямо из программы.