Pull to refresh

Comments 6

Сейчас компьютер за 1000$ будет гораздо мощнее, чем суперкомпьютеры середины девяностых. Вдумайтесь только, сколько производительной мощности мы тратим с вами каждый день на котеек, смишнявки и прон. Было время, когда на таких девайсах работали лучшие специалисты мира, проводили вычисления, связанные с обороной, с ядерными испытаниями и космическими системами. Эхх, прогресс…
Это не обязательно должно быть негативным, если бы потребительский сегмент не требовал все более мощные системы для, тех же, игр, то никто бы и не разрабатывал каждый год все более и более мощные чипы. Потребительские нужды, с вызываемой этим явлением, конкуренцией — это основная причина, которая движет прогресс в высокопроизводительных вычислениях. Кажется, что игры и тд это бесполезно, но посмотрев глубже, видно, что это одна из причин, по которым происходит прогресс в вычислениях
А разве я сказал, что это негативная сторона? Я просто обратил внимание на этот нюанс и всё.
Просто сам факт того, что, скажем лет через 20-30 пользователь сможет позволить себе компьютер с вычислительной мощностью равной или превышающую топовые суперкомпьютеры сегодня, достойно восхищения. А представьте, что лет, эдак через 100, а может быть и раньше, станут доступны такие компьютеры, которые позволят симулировать интеллект людей в виртуальной реальности. Будут стратегии, с использованием тысяч ИИ, можно будет просимулировать эволюцию и так далее. Возможно встанет вопрос, можно ли будет убивать ИИ в симуляции? Ведь по сути это такое-же существо просто живущее, внутри твоей коробочки, с такими же чувствами, эмоциями. Короче, к чему это я веду? Ах, да — в интересное время живём!
> Просто сам факт того, что, скажем лет через 20-30 пользователь сможет позволить себе компьютер с вычислительной мощностью равной или превышающую топовые суперкомпьютеры

Это станет фактом лишь при выполнении некоторых условий на протяжении этих 20-30 лет (продолжение увеличения плотности элементов на чипе при сохранении приемлемой стоимости; Dennard, Koomey — для чего требуется не слишком дорогая новая литография -«If lithography costs rise fast, Moore’s Law as we know it will come to a quick halt»). К сожалению, с одной стороны уже просматриваются физические пределы вычислений (любой flops сам по себе требует определенных пикоджоулей энергии, и намного больше энергии требует различная память, особенно объемная; при приближении к пределам начнет ухудшаться надежность и скорость), а с другой — рост производительности суперкомпьютеров идет быстрее, чем увеличение плотности элементов в микроэлектронике (за счет увеличения размеров, мощности, использования большего числа кристаллов). Как обычно, масштабирование памяти и интерконнектов (задержки, энергия) отстает, программирование постепенно усложняется…
См например www.exascale.org/mediawiki/images/6/6e/Sc09-exa-panel-kogge.pdf (2009)
«You Can’t Hide the Energy...». Очень много энергии требуется для доступа в память… Про цели к 2020-у году «30MW for 1 Exaflop => 33pJ/Flop… Moving to 2015 technology reduces per op to ~10pJ – Leaving 16pJ for memory»
Современные оценки от Intel — www.socforhpc.org/wp-content/uploads/2015/06/SBorkar-SoC-WS-DAC-June-7-2015-v1.pptx — сегодня терафлопс оценивается в 1 кВт, а цель — уместить его в 20 Вт (20 пДж на операцию). При «5 нм» техпроцессе для целей программ exascale в чипе с <100 Вт потребуется > 16 ТФлопс (двойных или одинарных??)

> пользователь сможет позволить себе компьютер
Скорее доступ к компьютеру (в облако)

PS: Оригинальная ссылка к новости = news.xinhuanet.com/english/2016-01/22/c_135036591.htm 2016-01-22

PPS: Intel строит крупные суперкомпьютеры, чтобы разобраться как дальше масштабировать транзисторы — www.hpcwire.com/2016/01/11/moores-law-not-dead-and-intels-use-of-hpc-to-keep-it-that-way и для подготовки своих проектов к выпуску (tape-out support) media15.connectedsocialmedia.com/intel/12/14135/Hyperscale_High_Performance_Computing_Silicon_Design.pdf «About 120,000 of the servers in Intel's worldwide environment are dedicated to silicon design ...HPC-5»
Просто сейчас разработчики полностью забили на оптимизацию. Время разработчика ценится дороже времени пользователя. Уровни абстракции нагромождаются друг на друга уродливыми башнями, и если облажались где-то возле фундамента, оно будет тормозить на любом железе.
Пользователи матерятся, покупают новое железо (на котором, впрочем, тормозит примерно так же) и постят добрые шутки:
Изначально Tianhe пытались запустить под управлением ОС Android, но были вынуждены отказаться от этой идеи, т.к. пользовательский интерфейс ощутимо подлагивал.
— Когда же программы на Java догонят по скорости программы на ObjC?
— Как только изобретут девайс с бесконечным количеством оперативки.
Unity — по-настоящему кроссплатформенная среда: на любом железе лагает, тормозит и падает совершенно одинаково.
Узнав о языке Prolog, современные разрабочики создали его ремейк под названием ПроЛАГ. Умеет всё то же самое, зато тормозит и лагает на любом мыслимом железе.
— Зачем разработчики придумывают всё новые языки программирования?
— Потому что старые недостаточно тормознуты и не могут надёжно подвесить современное железо.
Я вот помню TurboVision — программы сделанные с использованием этого фреймворка под слабыми 286-ми нещадно тормозили. Потом появились первые графические интерфейсы… и они жутко тормозили. С выходом всяких Delphi резко вырос размер исполняемых файлов — банальная форма с одной кнопкой и нулевым функционалом могла весить полмегабайта, что после досовских программ смотрелось дико и, разумеется, тормозило. Потом появился динамический контент для браузеров и… о, как же он тормозил!

В общем, мне крайне любопытно узнать, о каком "просто сейчас" идет речь. А то про забивание на оптимизацию я слышу последние двадцать пять лет и каждый раз почему-то с упоминанием, что вот именно сейчас на нее забили, а раньше — ого-го!
Sign up to leave a comment.

Other news