Обновить
87

Пользователь

25
Подписчики
Отправить сообщение
Ну еще до риплов, WCG была одной из крупнейших в мире РВ-сетей. Даже наверно крупнее чем сейчас (если не по суммарной выч. мощности оценивать — которая все-таки выросла за счет постоянного роста средней мощности железа, а по количеству активных волонтеров), потом у них был значительный спад, связанный в том числе со влетом популярности криптовалют и завершением множества интересных проектов WCG.
Риплами они частично восстановили потерянные позиции.

Кстати сейчас подобные схемы так же существуют, только уже в виде отдельных криптовалют базирующихся на РВ. Где научные вычисления используются в качестве Proof-of-Work вместо (или как дополнение) перебора криптографических хэшей. Например:
CureCoin — эмиссия монет распределяется пропорционально очкам набранным в Folding@Home
GridCoin — монеты идут за РВ вычисления на BOINC платформе
Да, это проект долгожитель — самый длительный из поддерживаемых IBM в рамках WCG (хотя если другие рассматривать, то rosetta@home и folding@home еще большие долгожители — они по своей сути и целям фактически бесконечные несмотря на уже имеющийся значительный прогресс).
Правда его окончание не означает что лекарство уже практически найдено. Это просто одно из обязательных требований WCG — все допущенные к участию проекты должны быть конечны. Если проект слишком сильно затягивается и применяемыми методами и ПО не получается достичь заявленных целей (какими бы благами они не были), то надо сворачиваться и освобождать ресурсы волонтеров для поддержки других проектов.

Так где-то к концу лета завершится расчетная часть (в конце скорость значительно падает когда начинают «подчищать хвосты»). Потом пару месяцев уйдет на закрытую пост-обработку всех собранных данных (уже на выделенных серверах, или даже выч. кластере IBM — где будет обрабатываться наиболее ресурсоемкая часть, слишком сложная для домашние-офисных ПК), потом еще минимум несколько месяцев на лабораторно-пробирочную часть — практическое тестирование лучших найденных кандидатов.
И где-нибудь в начале 2016 года узнаем — помогли ли все эти расчеты продвинуться в лечении спида или значимых результатов (т.е. превосходящих уже существующие хоть и не особо эффективные лекарства) не будет.
Нет речь об отдельной сущности, которую называют Темной Материей — начать можно как обычно с Wiki там довольно неплохо про ТМ написано

Черные дыры обычно не относят к ТМ, хотя ЧД тоже в некотором смысле «темные» (т.к. сами напрямую ничего не излучают).
ТМ это неизвестное нечто, судя по гравитационному воздействую в несколько раз превосходящее по массе всю известную нам материю (включая все планеты, все звезды, в т.ч. известные нейтронные звезды и черные дыры, облака газа и пыли), но при этом относительно равномерно распределенную в пространстве галактик и около них (по свойствам напоминает скорее тяжелые газо-пылевые облака, чем например звезды).
В этом большое отличие от очень компактных, практически точечных черных дыр. (размеры обычных ЧД кроме сверхгигантских в центрах крупных галактик по космическим размерам просто крошечные — счет идет обычно всего на десятки км, т.е. в сотни раз меньше планет, не говоря уже о звездах).
Стоит чего-нибудь написать интересного (небольшую статью или хотя бы качественный перевод зарубежной если идей никаких не приходит) — иначе К так никогда и не появится. Это на случай если подзабыли местные правила: пользователи даже при большом желании(например за очень хороший комментарий) не могут добавить вам К, если у вас нет хотя бы одной опубликованной статьи.
Это имеет неприятный побочный эффект — чудовищное потребление энергии на транспорт.
США мировой лидер по ее потреблению как по абсолютным показателям, так и удельным.

Большинство стран не могут себе позволить так же жить на «широкую ногу» не экономя энергию.
Возможно одного — в таких исследованиях наблюдают как «линзируется» свет не той самой галактики, вокруг которой изучают скопление темной материи — а идущий от более дальних галактик, расположенных условно «за линзой» (с точки зрения наблюдателя находящего на Земле).
Если бы такие «линзы» из темной материи находились в пустом космосе (не заполненном видимой материей) — сам эффект линзирования все-равно никуда не делся и эти скопления можно было бы обнаружить. Причем это было вероятно даже проще — т.к. не мешал бы свет ближних галактик «налипших» на сгусток темной материи и искажения света были бы четче выражены на полученных снимках.
Такой вывод напрашивается из логики, однако расчеты проводимые с разных сторон:
— исходя из квантовой механики и текущего понимания учеными физического вакуума
— исходя из наблюдаемых космологических эффектов приписываемых темной энергии

Очень сильно не совпадают друг с другом — причем принципиально (на много порядков), т.е. это нельзя списать просто на неточность/погрешность.
Что говорит либо о том, что эти эффекты вообще друг к другу отношения не имеют. Либо о том, что текущие используемые теории в чем-то фундаментально неверны. Например как раз может оказаться, что квантовые флуктуации вакуума и темная энергия распределены совсем НЕ равномерно по вселенной (как считается сейчас). И мы оценив «густоту» вакуума у себя на Земле и сделав предположение что она везде во вселенной такая же получаем ошибку на много порядков.

Ну а конкретно в статье выше речь вообще идет о темной материи (а не энергии) — она точно распределена неравномерно, на данный момент это общепринятая теория, пока подтверждающаяся известными экспериментальными данными.
Может кто-нибудь подскажет — возможно ли уже в опубликованную статью опрос добавить?
Вопросы в конце должны были быть в виде опроса(голосовалки), но пока статья была в «песочнице», возможности вставить форму опроса не было. И сейчас при открытии статьи на редактирование — так же нет.
А вот при открытии редактора для создания новой статьи — опрос доступен
Ну в этом плане, ничем помочь не могу.
Сам я ни в одной РВ разработке не участвовал и использую только клиентскую часть этого ПО как обычный (пусть и очень продвинутый) конечный пользователь + периодически читаю и пишу о научной части проектов, которая меня собственно интересует даже больше чем IT-техническая или «спортивная»
Что понимать под «шаблоном»? Есть целая готовая OpenSource платформа для организации собственных РВ-проектов: ru.wikipedia.org/wiki/BOINC
Она включает в себя как клиентскую часть, так и серверную. И за последние годы стала настолько популярной, что фактически стала стандартом.
Но расчетную часть, выполняющую непосредственно полезные расчеты нужно естественно писать самостоятельно и интегрировать в нее.
А чего обвинять-то если это на самом деле было и тоже не скрывалось? Такой проект по взлому шифра был, да и сейчас его аналоги существуют. Например Moo! Wrapper (взлом шифров в рамках «RC5-72 challenge») или DistrRTgen (генерация «радужных таблиц» для взломов шифров). Или близких к ним по смыслу, например Enigma@Home — расшифровка перехваченных сообщений времен 2й мировой войны зашифрованных знаменитой немецкой Энигмой
И находится немало людей добровольно в этом участвующих. Как говорится на вкус и цвет — все фломастеры разные. И каждый сходит с ума по своему.

Конкретно я впрочем разделяю ваш подход и ни в каких подобных проектах не участвовал и не участвую. Более того, я состою в одной из российских команд РВ вычислений основное отличие которой от подобных как раз аналогичный подход к выбору проектов среди ее участников. Но при этом есть и специализирующиеся например на астрономии или математике или универсальные, занимающиеся всем сразу.
Впрочем по текущим актуальным проектам нужно отдельную статью писать, жаль не получилось вставить опрос в эту статью(когда статья была в песочнице — почему-то нельзя было опрос добавлять и сейчас при редактировании это тоже недоступно), но судя по комментариям как раз к этому основной интерес, ну и к тому как подключится.

А насчет остального. Как писал в другом комментарии практически все современные РВ проекты это задачи класса HTC=High-throughput computing которые весьма существенно отличаются от класса задач HPC=High-performance computing для решения которых и создаются суперкомпьютеры. В частности:
— масштабирование этих задач при увеличении количества вычислительных ядер в N раз практически 100% линейное
— задержки и пропускная способность сети значения практически не имеют

Есть всего несколько РВ проектов исключений, которые пытаются решать задачи близкие по своей сути к HPC не совсем подходящим способом. И я знаю только один крупный/известный из таких (Folding@Home).

А так для всех остальных РВ сеть оказывается намного ЭФФЕКТИВНЕЕ чем супер компьютер. Непосредственно для научной группы она вообще эффективнее на порядки, т.к. они содержат (и оплачивают) только работу нескольких серверов занимающихся координацией, распределением, сбором, учетом и контролем заданий в распределенной сети, а вся наиболее тяжелая вычислительная часть вынесена так сказать на оутсорс и оплачивается и обслуживается добровольцами-волонтерами. Так что это можно рассматривать как своего рода Краудфандинг интересующего научного исследования — т.к. участвующий несет доп. расходы (как минимум на доп. оплату электроэнергии) и этим косвенно финансирует выбранный проект, который иначе невозможно было бы осуществить (т.к. выделенных денег просто не хватит на постройку собственного мощного суперкомпьютера или длительную аренду существующего)
Но даже в глобальном масштабе (планеты/цивилизации) это оказывается эффективнее использования суперкомпьютеров — т.к. обычно используется железо «бытового» класса, которое в несколько раз дешевле серверного и в большинстве случаев используется то, которое и так уже куплено(и оплачено) в любом случае для других целей + значительная экономия на: помещениях, охлаждении, обслуживании.

P.S.
Причем речь идет именно о сравнении с самыми мощными суперкомпьютерами — наиболее популярные РВ проекты в HTC задачах аналогичны суперкомпьютерам из мирового ТОП-500, стоящих сумасшедших денег. Никаким небольшим выч. кластером из нескольких многопроцессорных серверов приличную РВ сеть просто нереально заменить. Например описанная в статье сетка (причем далеко не самая мощная, скорее крепкий середнячок) проделала работу эквивалентную 2 годам круглосуточной работы ~20 000 ядерного суперкомпьютера, который мог бы претендовать на место в ТОП-100 самых мощных машин Земли того времени (когда основная часть расчетов была выполнена, т.е. в 2011-2012 годах) и доступных в основном военным и крупнейшим гос. научным центрам (да и то врядли кто-то отдал такую машину на целых 2 года под одну единственную задачу)
Да, после того как компания №1 пройдет все нужные этапы и внесет новое активное вещество в реестры (что нужно для официального допуска на рынок и начала продаж), все остальные запуская продажу своего аналога просто могут ссылаться на него — вещество уже известное, проверенное и допущено к применению. В общем дженерик как он есть: ru.wikipedia.org/wiki/%D0%94%D0%B6%D0%B5%D0%BD%D0%B5%D1%80%D0%B8%D0%BA
Только в обычном случае (собственной разработки силами фарм. компании) для этого приходится ждать много лет пока не закончится действие патента — за это время компания №1 державшая довольно высокие цены успевает снять сливки — не только окупить все исходные затраты на исследования и внедрение, но и получить хорошую прибыль за счет большой маржи (цена/себестоимость производства). А все остальные потом «подбирают остатки» когда патент закончится.
В таких же так сказать OpenSource разработках компания №1 наоборот оказывается в проигрышной позиции. Из плюсов относительно конкрурентов у нее разве что будет +к репутации (т.к. несмотря на отсутствие формальной юр. защиты, прорыв в лечении какой-то болячки большинство будет связывать именно с ее брендом) и отношение пациентов: это дескать оригинал, а все остальное лишь копии. И хотя разницы в эффективности с мединской точки зрения обычно нет, но на уровне психологии это играет в пользу выбора 1го препарата, за счет чего можно получить больше объем продаж и все-таки держать цены несколько выше аналогов.
Фармацевтические компании под «разработкой» обычно понимают вообще все расходы не связанные непосредственно с производством и продажами уже запущенного в оборот лекарства. И кроме редких сложных случаев эти расходы действительно намного (в разы или даже на порядок) выше чем собственно производство.

Не знаю как у нас, а в случае Западной медицины этапы между научным открытием (выделением какого-то нового эффективного действующего вещества — о чем была статья) и запуском в серийное производство обходятся обычно даже дороже чем собственно научно-исследовательская часть. В нее входит:
— тестирование на других разных видах животных помимо стандартных для научной части мышей — в первую очередь для оценки безопасности и возможности перехода к следующей стадии
— потом тестирование на людях-добровольцах, что в конкретном случае с детьми имеет дополнительные сложности (и участникам обычно за это платят)
— на основании собранных результатов проводится доказательство безопасности для людей (и тут возможен провал — если на людях вдруг выявятся тяжелые побочные эффекты, которые не наблюдались на животных — лекарство не допустят к применению и все расходы можно списывать в чистый убыток)
— выявление наиболее эффективной схемы применения (как вводить — перорально/внутримышечно/внутривенно, в каких дозах, в какой периодичностью и продолжительности курса и т.д.)
— доказательства эффективности, обычно через двойное слепое тестирование — нужно подтвердить что лекарство действительно лечит заявленную болезнь, причем эффект сильнее чем плацебо и как минимум не хуже чем уже существующие и допущенные к применению аналоги (тут тоже возможен провал — то что было эффективно на животных, может оказаться не столь эффективным на людях)
— согласование с регулирующими гос. органами, сертификация, регистрация в разных медицинских реестрах
— разработка метода синтеза пригодного для массового производства (для лаборатории сейчас можно практически что угодно синтезировать, а вот над методикой синтеза пригодной для массового производства чаще всего приходится отдельно поработать)

И только потом можно начинать производство, продажи и получать какую-то отдачу со всего этого. При этом любые другие компании не занимавшиеся всем перечисленным(кроме может быть последнего пункта — он может быть непубличным и защищен как «ноу-хау») могут просто дождаться окончания этого процесса и после этого выпустить свои аналог на базе этого действующего вещества такой же эффективности только существенно дешевле — благо у них расходы меньше: только на производство и рекламу. Компания №1 запретить этого другим не может — препарат не патентуемый.
Начинается конкуренция по цене, что быстро приводит к падению цен к уровню себестоимость серийного производства + небольшая маржа. Всем компаниям это неплохо — прибыль небольшая но есть, доп. объемы пр-ва, реализации. Пациентам тоже хорошо — получили новый более эффективный препарат по минимально возможным ценам.
В общем хорошо всем — кроме собственно компании №1 которая и вывела новый препарат на рынок — прибыли ей досталось меньше всего, а вполне вероятно останется и в убытке. Риски неудачи на любом этапе — тоже на ней.

В общем компании и не против заняться производством — но в отличии от собственных (коммерческих и патентуемых) разработок никто не хочет становиться №1, все ждут когда кто-то другой пройдет начальные этапы за них.
Обычно это решается через долгие и нудные поиски желающих и переговоры — иногда находятся желающие рискнуть в надежде отбыть начальные затраты за счет грамотных рекламы и пиара (выставив именно себя открывателями, а всех остальных лишь копирующими). Или бывает компания пытается сначала чем-то улучшить исходное вещество (например использовав общую идею из научного исследования найти близкое вещество с другой хим. формулой которое можно запатентовать).
А если желающих так и не находится, то обычно заканчивается выделением правительственного (или из благотворительного фонда) гранта, который покрыл бы расходы на эти этапы предшествующие производству и лекарство выходит на рынок сразу как Дженерик.
Поправка к 8му пункту — в конкретном случае там надо указать наоборот «существующий участник» (т.к. регистрация происходит через сайт на 2м пункте).
А вот для большинства других BOINC проектов (не из состава World Community Grid), действительно можно указывать «Новый участник» и регистрироваться прямо из программы.
Оскорбление чувств верующих ситхов? :)
Нет, для BOINC проектов во вред не будет. В самом худшем случае окажется бесполезнм, но если они подолгу работают, а не эпизодически включатся, то и на пользу пойдет — пропорционально мощности. Оболочка и серверная часть кода BOINC весьма гибкие чтобы подстраивать нагрузку под самые разные варианты клиентского железа. Некоторые даже на разных ARM считают (типа планшетов, СМАРТ-ТВ, или всяких малинок).

РВ это все-таки High-throughput computing (не путать с High-performance computing) — тут ставка не на скорость обработки (как у HPC — суперкопьютеров), а на неспешное переваривание гигантских объемов данных и вычислений в асинхронном массивно-параллельном режиме. Типовой проект длится от нескольких месяцев минимум до многих лет в особо долгоиграющих.
Есть встроенные механизмы защиты от ненадежных/нестабильных/зловредных узлов (обычно через избыточность).

Конкретно если в World Community Grid есть желание поучаствовать, то для атомов любой проект кроме пожалуй исследования материалов для органических солнечных батарей подойдет(там минимальные требования к железу довольно высокие). На современном x86 одиночное задание считается за время порядка 2-10 часов, так что атом за сутки-двое счета должен их осиливать. А допустимое предельное время выделенное на обработку (между скачиванием очередного задания с сервера и крайним сроком возврата результата) сейчас 7 суток, так что проблем не должно быть.
Конкретно по этому описанному в статье проекту (поиск потенциальных лекарств для детского рака) расчетная стадия моделирования уже полностью завершена (успешно). Сейчас он уже перешел на стадию практической реализации, которой должны заниматься фармацевтические компании, врачи и лаборанты (тестирование на других видах животных помимо мышей, потом тестирование на людях-добровольцах, что в случае с детьми имеет доп. сложности, выявление наиболее эффективной схемы применения, согласование с регулирующими органами, сертификация, налаживание массового производства и другие)
Поэтому рядовому IT-шнику присоединиться к нему нельзя, соответственно нет и ссылки.
В одной из следующих статей планирую сделать небольшой обзор других интересных и актуальных РВ проектов действующих сейчас, которым нужны выч. мощности и имеет смысл поддержать выбрав наиболее подходящий.
А у нас уже разве научились делать сфокусированные «магнитные лучи» по аналогии с лазерами(сфокусированными когерентными пучками света)?
Насколько знаю — нет. Ну а обычное магнитное поле ослабевает пропорционально квадрату расстояния, в отличии от лазеров у которых с расстоянием происходит только небольшая расфокусировка, а потери энергии близки к нулю (если все происходит в вакууме как в данном случае).
Откуда такие нереальные числа? Быстрое гугление дало примерно такие данные:
стоимость строительства — около 10 млрд. юаней (или около 1.5 млрд.$)
длина трассы — 30 км

Т.е. около 50 млн.$ на 1 км.
Довольно дорого конечно, но в 280 раз дешевле будет 180 тыс. $. И это якобы за 1 км высокоскоростной ж/д трассы? Совершенно не серьезно! Такого бюджета даже на простую автомобильную асфальтовую дорогу проложить не хватит(имеется ввиду прокладка с нуля, а не ремонт/расширение существующей), даже с умением китайцев строить дешево.
Кто в курсе современных ж/д реалий возможно подскажет типовые сметы для обычных современных ж/д трасс, чтобы сравнить с маглевом, но тут явно разница «всего» в несколько раз, а не на 2 порядка.

К тому же судя по описанию больше половины этой трассы китайского маглева прошло по болотистой местности на железобетонной эстакаде — в таких природных условиях и обычная жд трасса вышла бы весьма дорогой. Например автомобильный ЗСД у нас в Петербурге (половина которого так же составляют жб эстакады) обойдется вообще в районе 130 млн.$ за 1 км.
Конкретно Bitcoin — нет. Т.к. в те времена когда его добыча шла на CPU и GPU, он особой популярностью еще не пользовался и стоил дешево.
А когда начался его взлет (в начале 2013 года) — произошел переход на специализированные устройства на ASIC чипах, которые непригодны для научных вычислений — они на аппаратном уровне ограничены выполнением только одной функции. Так что прямой конкуренции за вычислительные мощности не происходило
Но если в целом криптовалюты рассматривать во всем их многообразии — то да, довольно значимое количество перешло туда — на альтернативные валюты, с нестандартными алгоритмами хэширования под которые не существует специализированных ASIC-чипов.
Сейчас правда наблюдается обратный процесс перетока обратно в РВ в связи со спадом криптовалютного ажиотажа и соответствующем падением доходности этого занятия.

Что до скрытого майнинга под видом РВ — это практически исключено в любых более-менее серьезных проектах, т.к.:
1. Чаще всего используется OpenSource софт — так что при наличии знаний и желания можно покопаться внутри и лично посмотреть что именно считается.
2. За каждым серьезным РВ проектом стоит группа из нескольких ученых, которые вряд ли станут рисковать своей репутацией и карьерой ради такого заработка путем обмана. Полученные результаты публикуются и проверяются другими учеными из той же области + комитетами которые выдают гранты на исследования и в случае если мощности уйдут в майнинг, то и научных результатов не будет, которые надо предъявить.
3. В случае таких инициатив как World Community Grid, есть дополнительный внешний фильтр (в данном случае из привлекаемых IBM ученых и экспертов), которое проводят экспертизу проекта перед запуском (действительно ли поставленная задача имеет научных смысл? можно ли ее решить предлагаемыми методами? соответствует ли предложенное ПО этим методам? и т.д.) и осуществляют своего рода аудит в процессе.

Хотя пересечения с криптовалютами все-таки есть:
1. Есть пара проектов где майнинг используется как FundRising для соответствующего научного проекта — но этого никто не скрывает.
2. Наоборот есть несколько необычных криптовалют, «майнинг» которых происходит путем выполнения полезных научных вычислений — вновь создаваемые монеты распределяются пропорционально количеству очков (объему вычислений) в одном из научных РВ проектов вместо примитивного перебора миллиардов криптографических хэшей.
12 ...
397

Информация

В рейтинге
Не участвует
Откуда
Санкт-Петербург, Санкт-Петербург и область, Россия
Зарегистрирован
Активность