Ту, это отлично расчитывается по закону абсолютно черного тела (Закон Вина). Для Солнца — это 470нм (Т=6160К)
А поскольку там параболическое распределение ( от T^4) — есть еще хвосты в ИК и УФ диапазон — это описано в уравнении Планка для спектральной плотности энергетической светимости АЧТ.
это и есть классические монокристаллический-кремний и поликристаллический кремний (обычно эти батареи ярко-синего цвета). Есть еще на аморфном кремнии и гибкие (пленочные)
Для интереса — посмотрите — какого цвета «штуковина», которая тоже живет за счет солнечного цвета — хлорофилл. Сразу понятно — какую часть спектра поглощает она, а какую батареи.
Дело не в редкости. В «кремниевую» технологию вложены _триллионы_ долларов — отсюда и относительная дешевизна процессоров и всего такого. А соединения A3B5 (к которым относится GaAs ), увы но при всех преимуществах — быстродействие (например можно сделать тактовую частоту до 250 Ггц), радиационная стойкость, меньше теплового шума и пр. — такого денежного потока не получали.
Вот и получался замкнутый круг — нет инвестиций — нет и приборов, а нет приборов — нет инвестиций. С другими альтернативными кремнию технологиями — с арсенидом алюминия (AlAs) или тройными растворами AlxGa1-xAs (гетероструктуры), или новомодный графен — такая же история.
Если вернуться к топику — то потери КПД в основном идут ухода солнечной энергии в нагрев пластины ( ~ 10%) и неполное поглощение солнечного спектра (как раз линза Sharp меня и смутила ) — если придумать слоистые структуры — которые поглощали бы все — от ультрафиолета до инфракрасного излучения — было бы здорово.
Но и сейчас — КПД кремниевых батарей — не превышает 14%, а GaAs — дает 40%. Т.е. в переводе на стоимость кВт — получается практически паритет — цена выше, но и КПД тоже. Плюс бонус — в 4 раза меньшая эффективная площадь — т.е. устройства можно сделать значительно компактнее
Первый отчет — явно устаревший, последний относится к медицине — но тут вопрос — что надо оценивать несомненную долю рынка прикладного решения TrackCare Intersystems или возможности системного инструментария.
Второй да — крайне интересно. Не знал
Моя компания сама в Gartner MQ есть ;-) Да, бренд — дело сильное. Если ты не 1-2 — то тебя может и не быть. Так даже в зеленом горошке — если не Бюндюэль, то кто?
С точки зрения бизнеса — называется сохранность инвестиций.
Ну потому что интеграционная платформа (вернее Application Server) тоже выбирается по принципу «best of breed». Если мы посмотрим Garthner Magic Quadrant (правда нашел 2009 года — но видимо есть и поновее)
А смысл — идя покупать в магазин шнурки, брать впридачу еще и костюм? ;-) Часто мои заказчики работают в модели «best of breed» — т.е. выбирают для решения задачи самые лучшие компоненты из нужных сфер. Вполне понятно, что это будут разные вендоры, поэтому хочется гибкости, компонентности и открытости
Вот видите — мы уже холиварим ;-) Ну не актуален для меня тест insert, поскольку есть такие системы — которые нормально включаются в режим pass thru — напрямую прокачивая данные от датчиков сразу на HDD. И даже CPU не задействуют — потому как в DMA режиме живут.
Понятно что самая быстрая скорость будет на записи в текстовые файлы фиксированного блока данных, кратного пакету DMA/Ethernet/IP и пр. Так работает кстати процессинг VISA — там нет SQL движка.
По поводу виртуалки — «падеж скорости» у меня был не более 15-20% относительно натуральной машины. В основном это опять же зависит от дефрагментации виртуального/реального диска и их отображения.
Подытоживая — в нишевых продуктах можно добиться сколь угодно большого перфоманса. Особенно если они анизотропные — т.е. системы только пишут данные или только читают. Самый геморрой — это когда идет мешанина читающего и пишущего кода — и вот тут поле битвы современных СУБД. Есть даже такие — которые еще на этапе компиляции отделяют один код от другого и запускают с соответствующей оптимизацией на разных нодах в асинхронном режиме с семафорами. Мне такой подход сильно нравится.
Да. А разве где-то иначе? Прайс-лист глобальных компаний уже давно представляет собой томик «Война и мир». Я бы тоже предпочел видеть все одной суммой и unlimited, но вероятно их «эффективные менеджеры» привязали каждую позицию к доходам отдельного подразделения — чтобы не было перекрестного финансирования и можно было развивать каждое направление, не делясь прибылью с другими.
Прошу прощения — мы как то перешли от философии MUMPS к продуктовой линейке Caché. Лучше это обсудить в отдельном топике в сравнении с аналогичными технологиями. Просто думаю идет конвергенция решений и технологий на фоне жестокой конкуренции — 99,9% инфраструктурных ИТ решений — как и лекарства имеют аналоги, (дженерики). InterSystems Corp была основана практически в том же году что и Oracle — но обороты ( $450 млн. против $37 млрд) даже меньше чем у Sybase — и отстраивание одного продукта от другого начинает носить уже малоразличимый, скорее маркетинговый характер. Мы же не будем холиварить? Caché — отличный _нишевый_ продукт.
p.s. Мы используем для интеграции данных в реальном времени и постоянную доступность данных для критически важных систем решение Oracle GoldenGate. Оно имеет задержку не сотни, как в обычном ETL- а единицы миллисекунд.
да — вобщем ничего. Просто каждому решению — свое время. Мы например активно занимаемся интеграционными ИС — когда архитектура составляется из множеств компонент различных производителей по принципу «best of breed». И сквозными бизнес-процессами — которые все стягивают. Понятно — что это все делается на серверах приложений — где роль СУБД уже не главная. Поэтому реализовать непростой data transformation нам проще на том же языке, что и все остальное (J2EE). Т.е. критерии чисто экономические — наличие рынка специалистов и унификация инструментария.
p.s. Бизнес транзакция — это законченная, имеющая физический смысл — операция. Например — проведение платежа по счету клиента — которая «цепляет» проверку прав операциониста, проверку остатка, запись в документы дня, расчет комиссии, проводки по корреспондирующим счетам и полную запись в аудит операций и безопасности…
Так на 3-tier архитектуре (вернее как подмножество N-tier) можно делать чертовски прикольные вещи — например read ahead чтение с построением декартова произведения любых нужных таблиц с их векторным умножением/пересечением и пр. И это все асинхронно — т.е. клиент даже не догадается как его данные в кубы заворачиваются, меняя физическое представление — совершенно не связанное с их хранением на диске.
А по поводу insert — так по-моему batch insert (bcp) на MS SQL и так дает такую скорость, особенно если есть мощный write cache — с размером более объема вставляемых данных
Ну если это сервер БД такой умный — то думаю все равно влетим в ограничение «железной» архитектуры. Тот же IRQ delay — и скажем в Intel архитектуре на 8000 пользователях хваленый Oracle уже будет помирать. Выход — уйти от одного процессорного ядра — в несколько нод — не сотен, а тысяч легких связанных в сеть вычислителей (ну типа MapReduce) схем
К пунктам методики обследования
«Как можно больше говорите с клиентом на этапе сбора информации»
«Возложите ответственность за полноту и качество сбора информации на клиента»
«Маркетинг, позиционирование — полностью ответственность клиента» и пр.
это все элементы строгого функционального разделения и пассивной (по отношению к объекту автоматизации) позиции исполнителя. Считаю что это начальный уровень консалтера, который нужно проходить за 1-2 года освоения предметной области. Вероятно немало аналитиков застревают на этом уровне, превращаясь в «луноходов» — которым нужно давать максимально четкие и детальные инструкции. Но работать на другом уровне энергетики — не в страхе/боязни потерять покой, а в радости свободного творчества и партнерстве c заказчиком — куда как полезнее для организма ;-)
Ну не факт ;-) Устойчивость арифметически не складывается. Например — можно одеть отличный костюм, выпить отличной водки, сесть за руль отличного автомобиля и впороться в… отличный бетонный столб.
По поводу 1000 лет и вообще сознательной жизни человека — мне кажется это слишком маленький промежуток времени для того чтобы накопить статистическую закономерность. Вся сознательная история человечества — думаю максимум 5-10 тысяч лет. В то же время основа современной цивилизации — электричество и электродинамика существует всего чуть более 100 лет — и вон какие драматические изменения — от Интернета до космоса и водородной бомбы. Получается что «электрическая лампочка» появилась с вероятностью 1/100 — и с вероятностью 99/100 может вообще и исчезнуть.
А какие сейчас перспективы использования MUMPS? Ведь все больше систем появляется — где например все данные лежат в наитупейших SQL таблицах типа ID, VALUE, а VALUE представляет собой упакованную в XML сущность произвольной структуры и наполнения.
В таких системах все соединения, поиски, маш-апы делаются на сервере приложений — который строго говоря можно сделать как угодно умным, с параллелизмом, с многонодовостью и даже с тонким оптимизатором (например хранить индексы не в виде B-tree, а T-tree — что гораздо интереснее в случае хранения данных в оперативной памяти) и денормализатором данных
Скорость получается фееричная — даже на весьма средненькой технике мы получали 15-20 тыс. бизнес-транзакций в секунду на тысячах пользователей…
А поскольку там параболическое распределение ( от T^4) — есть еще хвосты в ИК и УФ диапазон — это описано в уравнении Планка для спектральной плотности энергетической светимости АЧТ.
Для интереса — посмотрите — какого цвета «штуковина», которая тоже живет за счет солнечного цвета — хлорофилл. Сразу понятно — какую часть спектра поглощает она, а какую батареи.
Вот и получался замкнутый круг — нет инвестиций — нет и приборов, а нет приборов — нет инвестиций. С другими альтернативными кремнию технологиями — с арсенидом алюминия (AlAs) или тройными растворами AlxGa1-xAs (гетероструктуры), или новомодный графен — такая же история.
Если вернуться к топику — то потери КПД в основном идут ухода солнечной энергии в нагрев пластины ( ~ 10%) и неполное поглощение солнечного спектра (как раз линза Sharp меня и смутила ) — если придумать слоистые структуры — которые поглощали бы все — от ультрафиолета до инфракрасного излучения — было бы здорово.
Но и сейчас — КПД кремниевых батарей — не превышает 14%, а GaAs — дает 40%. Т.е. в переводе на стоимость кВт — получается практически паритет — цена выше, но и КПД тоже. Плюс бонус — в 4 раза меньшая эффективная площадь — т.е. устройства можно сделать значительно компактнее
2:5020/67
Второй да — крайне интересно. Не знал
С точки зрения бизнеса — называется сохранность инвестиций.
itaas.ru/wp-content/uploads/2009/11/jboss-gartner1.jpg
Вы там Ensemble видите !??
Понятно что самая быстрая скорость будет на записи в текстовые файлы фиксированного блока данных, кратного пакету DMA/Ethernet/IP и пр. Так работает кстати процессинг VISA — там нет SQL движка.
По поводу виртуалки — «падеж скорости» у меня был не более 15-20% относительно натуральной машины. В основном это опять же зависит от дефрагментации виртуального/реального диска и их отображения.
Подытоживая — в нишевых продуктах можно добиться сколь угодно большого перфоманса. Особенно если они анизотропные — т.е. системы только пишут данные или только читают. Самый геморрой — это когда идет мешанина читающего и пишущего кода — и вот тут поле битвы современных СУБД. Есть даже такие — которые еще на этапе компиляции отделяют один код от другого и запускают с соответствующей оптимизацией на разных нодах в асинхронном режиме с семафорами. Мне такой подход сильно нравится.
p.s. Мы используем для интеграции данных в реальном времени и постоянную доступность данных для критически важных систем решение Oracle GoldenGate. Оно имеет задержку не сотни, как в обычном ETL- а единицы миллисекунд.
А по поводу insert — так по-моему batch insert (bcp) на MS SQL и так дает такую скорость, особенно если есть мощный write cache — с размером более объема вставляемых данных
«Как можно больше говорите с клиентом на этапе сбора информации»
«Возложите ответственность за полноту и качество сбора информации на клиента»
«Маркетинг, позиционирование — полностью ответственность клиента» и пр.
это все элементы строгого функционального разделения и пассивной (по отношению к объекту автоматизации) позиции исполнителя. Считаю что это начальный уровень консалтера, который нужно проходить за 1-2 года освоения предметной области. Вероятно немало аналитиков застревают на этом уровне, превращаясь в «луноходов» — которым нужно давать максимально четкие и детальные инструкции. Но работать на другом уровне энергетики — не в страхе/боязни потерять покой, а в радости свободного творчества и партнерстве c заказчиком — куда как полезнее для организма ;-)
По поводу 1000 лет и вообще сознательной жизни человека — мне кажется это слишком маленький промежуток времени для того чтобы накопить статистическую закономерность. Вся сознательная история человечества — думаю максимум 5-10 тысяч лет. В то же время основа современной цивилизации — электричество и электродинамика существует всего чуть более 100 лет — и вон какие драматические изменения — от Интернета до космоса и водородной бомбы. Получается что «электрическая лампочка» появилась с вероятностью 1/100 — и с вероятностью 99/100 может вообще и исчезнуть.
В таких системах все соединения, поиски, маш-апы делаются на сервере приложений — который строго говоря можно сделать как угодно умным, с параллелизмом, с многонодовостью и даже с тонким оптимизатором (например хранить индексы не в виде B-tree, а T-tree — что гораздо интереснее в случае хранения данных в оперативной памяти) и денормализатором данных
Скорость получается фееричная — даже на весьма средненькой технике мы получали 15-20 тыс. бизнес-транзакций в секунду на тысячах пользователей…