Pull to refresh

Comments 200

думаю, что пока это дойдет до нас пройдет много лет… зато детям нашим хорошо будет)
Intel Atom уже дошел :-) Он уже удовлетворяет обычных юзеров. Я говорю о том, что если не улучшать производительность, а улучшать только архитектуру — можно было бы добится впечатляющих результатов :-)
А кого Вы считаете «обычными» юзерами? Тех что часами зависает в ЖЖ и однокласниках? Да, для них Атом идеальная платформа…

Но у меня например запросы несколько выше, мне нужен действительно полнофункциональный и мощный процессор, Атомы меня не устраивают. При этом мои задачи нельзя назвать узкоспециализированными и редко встречающимися, я тоже вполне обычный юзверь.
UFO just landed and posted this here
Так весь смысл моих комментов в том, что это не суперзадачи, а самые обыкновенные. Такие задачи каждый день выполняют миллионы людей по всему миру, но при этом выполнять их на атомах или невозможно или слишком медленно.
Например, я не представляю себе как на атоме комфортно работать в среднестатистической среде разработки
Обычные юзеры не запускают студию ) А вообще, нетбук на фото имеет 2Гб памяти, многое на нем комфортно )
На атоме я это как-раз очень хорошо себе представляю (не VS, а Komodo например). Меня в таком случае больше экран беспокоит: на 10 дюймах не особо влазит код, особенно в ширину.
Воот, тут и видно коварство Intel :-)
Поставить 17' монитор оставив корпус тонким — легко. Поставить туда 4Гб памяти — легко (в нетбуках сейчас ограничение 2гб).
Но тогда кто же будет брать обычные буки?
Ну мне и 2-х гигов много :) И то, второй достался по случаю. Вообще-то хватает на все чем не приспичит заниматься.
А как же старое доброе правило 80 колонок (что код не должен вылезать за 80ю колонку по ширине)?
Ну да. Но со своим кодом я как-нибудь разберусь, а вот чужой в этом плане часто сильно расстраивает. Особенно когда что-то сломают, а мне приходится с троллейбусной остановке, с мобилки, через putty, на 320x240… Извините, накипело. Нетбуки тут не причем, а вот вот эти полотнища…
Кстати Вы говорите об улучшении архитектуры, но почему-то не учитываете в статье, что на разработку и улучшение архитектуры тоже нужно R&D и стоить это тоже будет немало.
Речь идет не о том чтобы делать новую архитектуру процессора, а только о том, чтобы все слепить на одном кристалле с минимумом выводов. Расходы есть, просто они не такие большие как раньше.
А Вы себе эту задачу хорошо представляете? Процессоры когда-нибудь проектировали? :)
Даже проектировка примитивнейших процессоров в технических ВУЗах(у кого было тот поймет) задача далеко не простая, а уж во что выльется Ваше «слепить в одном кристалле с минимумов выводов» мне страшно представить.
Ведь не глупее нас с Вами люди сидят и проектируют эти процессоры в Intel, если на данный момент времени сделано так, значит подругому сделать было невозможно или нерентабельно.
Да, проектировал. Контроллер памяти вон легко вставляли в процессор еще со времен 386 :-)

Я не говорю что они глупее ) Они тоже прекрасно понимают что за этом будущее, вопрос лишь в том, как оправдывать высокие цены :-)
BarsMonster прав.
Если есть схематик в котором процессор, контроллер памяти и графические ядро дискретны и для каждого из них есть готовый лэйаут, то задача совсем несложная. Проблема может быть только если текущие компоненты выполнены на разных технологиях.
Естественно мы считаем, что все наши компоненты при использовании текущей технологии влезут в ту геометрию чипа, которую мы можем себе позволить.
В SOC-дизайне такие моменты как Multi-core, Multi-voltage, изоляция отдельных блоков давно отработаны.
Короче задача действительно несравнимо проще, чем разработка новой платформы.
Мы сейчас рассуждаем абстрактно, без привязки к каким-либо данным с огромным количеством допущений. Что означает Ваше «задача несравнимо проще»? Насколько проще? На сколько дешевле обойдется производство с учетом всех предыдущих вложений в эту технологию?
Для того чтобы делать такие выводы их нужно как минимум подкреплять статистикой. А так это бесполезное словоблудие, которое мне только минусов в карму насыпало непонятно за что…
ну если мы говорим о том, что кекс в чашке сделать проще чем торт наполеон, нам не обязательно «как минимум подкреплять статистикой» а как максимум что-то там еще. Достаточно того, что кекс в чашке я сам готовил, а как бабушка мучается делая торт наполеон видел.
Если конкретно, я же не от балды говорю. Я в этой индустрии работаю. Вот пример: есть работающий чип контроллера вебкамеры и есть чип удлиннителя USB до 50 метров. Вы считает, что сложно интегрировать два эти чипа на один кристалл, чтобы получилась вебкамера со шнуром 50 метров? да нифига тут нет сложного, это вообще самое простое что может быть, я как инженер вам говорю. А вот каждый из этих чипов с нуля разработать это достаточно большой труд.
Никаких отличий у этой задачи от той что мы обсуждаем нет. И все затраты прямо пропорциональны затраченным усилиям.

«На сколько дешевле обойдется производство с учетом всех предыдущих вложений в эту технологию?»
это вообще какой-то бредовый вопрос. Цена производства вообще не связана с вложиениями в разработу.
Производство одного чипа по сравнению с производством трех отдельных будет дешевле в определенных рамках площади конечного чипа.
Если вам моего опыта разработчика недостаточно, то вся история развития интегральной микроэлектроники об этом свидетельствует.
дискретные процессор+сопроцессор+плюс кэш L2+контроллер памяти сейчас = процессор
Никто вам никакие цены в долларах в качестве примера приводить не будет, потому мы говорим об очевидных вещах.
Первый абзац — в закладки и плюс в карму, отличное крылатое выражение.
гораздо проще, чем Вы можете себе представить. nE0 прав.
Конечно интел выгодней продать отдельно чипсет, процессор и лицензию производителям плат. Они накрутят на каждом компоненте. Да, они очень умные. (не секрет, что интел изначально продавала процессоры Atom только в связках с морально устаревшими чипсетами 945GSE и 945GC за неплохие деньги)
Надо понимать, что менеджмент интел не в восторге от идеи продавать компьютер-на-чипе за 20 $, который к тому же будет удовлетворять значительную часть пользователей.

Сумбур и бред. Вы сами себе противоречите. Даже аргументировать лень.
Помоему логика как раз прозрачна и стройна. А аргументировать вам лень, потому что аргументы будет несостоятельны. Аргументов масса, там конвертирование видео и так далее, но это для вас актуально, а для сотен тысяч людей — нет.
Конвертирование видео для сотен тысяч людей актуально, а для Вас нет — тоже аргумент, не находите? Тут как повернете фразу, такой смысл и будет.
Есть целый ряд широко распространенных задач для которых нетбуки не годятся, но это вовсе не означает что можно приуменьшать значение этих задач по сравнению с теми, для которых нетбуки предназначены.
а зачем его конвертить, простите? У меня на нетбуке и на компе любой формат без конвертирования работат… Хотя, если только с DV или для записи на DVD носитель… А ну еще для айфона =) Походу вопрос был зря задан…
Вот Вы сами себе ответили на это вопрос, и на самом деле ответов может быть намного больше: оцифровка старых записей, конвертация под всевозможные мобильные девайсы(не айфоном единым...), перегон любительских записей с видеокамер, создание различных рипов(DVD, HD) и т.д.
А ведь это мы коснулись только одного аспекта работы на компьютере: обработка видео. А таких аспектов не один десяток, и лишь малую часть из них могут выполнить на нетбуках.
«Простые юзеры» видео не конвертят, и 3D моделированием тоже не занимаются :-)
Да ладно? А обосновать? Кто же все-таки они — «простые юзеры»?

Со всей отвественностью заявляю: Я обычный юзер! Я конвертирую видео!
Вы неправильный обычный юзер:)
Соглашусь только если хоть кто-нибудь тут напишет какой он «правильный обычный юзер» :)
Как минимум то, что Вы зарегестрированы на Хабре доказывает что вы уже не «обычный пользователь».

Мой сосед, например, купил себе смартфон Нокию (точно модель не знаю) и удалил с нее все приложения какие только смогли удалиться.
На вопрос зачем ему смарт он толком ответить не смог: «это классный телефон, не то что остальная хрень». Вот это я понимаю — правильный обычный юзер.
Я — не обычный юзер, но еще ни разу не конвертировал видео. Мало того, когда не работаю, то из ресурсоёмких задач у меня — только редкие игры. Кроме того, я знаю массу людей, которые в игры не играют. Так что для этой массы ресурсов нетбука вполне хватит. Мне бы тоже для дома хватило, если бы не пресловутые игры.
На «вконтакт» больше гига видео не загружается. Надо конвертить.
Таков довод моей соседки — пользователя обычного, и можно сказать, тривиального.
любой юзер, имеющий айЧивонибудь, вынужден конвертировать.
Я более чем «простой юзер», но конвертировал видео от силы раз пять.
Ах да, из MOV в AVI перегонял снятое на фотоаппарат видео, но ждать там 3 минуты или одну не больно то и важно для меня.
Логика к сожалению не в пользу автора. Хотя статья сама по себе интересна его мнением.

В частности, абзац про «мееееееедленное ПО», мотивацию к апгрейду, и более тонкие технические моменты типа 100 выводов на проце и интеграция «всего этого добра» на один чип.
Ну почему, есть же тенденция выпускать медленный софт: продвигать платформы на интерпретаторах а не на JIT-компиляции…

Интеграция действительно позволила бы снизить стоимость при той же производительности(которой хватает), вы не согласны?
На данном этапе развития слишком сложно определить грань между чистой интерпретацией и JIT. Тенденция не в уменьшении производительности софта (звучит как теория заговора… брбрр...), а в том, что производительность «кладётся» в угоду скорости и гибкости разработки.

Интеграция дала бы низкую стоимость, но тогда мы получаем то, от чего в своё время отказалась IBM, создавая PC, а именно мы теряем модульность. во-вторых, слишком сложно это всё интегрировать.
На самгом деле медленное ПО обосновано экономически. Гораздо легче ВАМ купит мощьный PC за 1000$ и покупать всевозможный софт по 10$, потомучто его разработка на порядки легче, чем покупать слабый комп за 300$ и каждую софтину за 1000, экономия какраз для вас а не для производителей, томболее возможность незаботится о производительности позволяет «клееть» ПО тем самым значительно ускоряя его скорость разработки и вы ранше можете начать использовать продукт(и как помните дешевле).
Печально, но соглашусь с Вами на 100% :( Написать нечто вроде QNX, работающий как реалтайм-система на 486DX — стоит ооочень дорого.
Зачем тогда Intel выпускать утилиты для оптимизации софта ( например Vtune, Intel С++) и руководства по низкоуровневой оптимизации?
Например, мне приходится работать с арифметикой, которую тянет только кластер на десятки процессоров. Да, я оптимизировал движок в 6-8 раз (по сравнению с тем, что было до меня), плюс полатал всю «текучку». Что это позволило сделать? С одной стороны, то, что приходилось гонять на одной-двух «матерях», сейчас рассчитываем прямо на персоналке. С другой — загружаем тот же кластер намного бОльшими объёмами данных.

Везде, где есть сложные научные расчёты, все эти JIT'ы и интерпретаторы нервно курят в сторонке, и в дело вступает Его Величество Си. С крестами (только чтобы не мучиться с «обвязкой» типа ввода-вывода, SqLite, строчек и выделения-уничтожения).
угу, для рендера и сервера никогда не будет хватать мощностей. надо всегад больше чем есть :(
Файл-сервер в небольшой офис на интел атом — уже реальность. Рендеринг — тут да… Но разрешение и частота кадров упираются в органы чувств человека. Мне лично уже тяжело отличить 1280х768 от 1920х1080 на видео.
я имею в виду веб сервер, наш четырголовый не справляется уже, нужен еще один и т.д. :(
А вот написали бы на С++, хватило бы и 2-х ядер :-)
Впрочем, затраты времени были бы выше на реализацию :-)
ну, мне кажется количество запросов тоже значительно влияет на производительность, а они только увеличиваются, а там уже хоть на асемблере пиши, все равно рано или поздно прийдется наращивать мощности
безусловно ) Но одно дело наращивать мощьности при 50 хитах в секунду, другое — при 3000 :-)
Какие задачи, такой и сервер… С трудом представляю задачу, для которой хватает производительности шин данных, но не хватает четырёх процессоров в вебе. Расскажите, а?
UFO just landed and posted this here
Так же говорили 50 лет назад;)
UFO just landed and posted this here
Да. Я думаю, что нами(людьми) много чего еще не открыто и не стоит думать, что мы уже на вершине технологического развития.
Стопор развития вызван искуственно, как по мне. Альтернативное топливо — яркий пример.
> Развитие компьютеров на нынешней базе практически подошло к концу своего пути.

в вашем случае альтернативное топливо — яркий пример альтернативной компьютерной базы. Я имею ввиду квантовые, био и т.д. технлогии.
>>Однако события прошедшего года(бум нетбуков) заставляют задуматься о совершенно другой причине замедления прогресса.

Я написал «альтернативное топливо» к этим словам автора и ответу на мой комментарий. Вторая моя мысль почти не связана с первой.
creotiv ясно написал на нынешней базе. Нынешняя — транзисторная. Предел, когда транзистор станет из трех молекул (или сколько там минимум для полупроводникого транзистора, забыл, поправьте). И этот предел будет достигнут в течении 15-20 лет.
Я ранее ответил на подобное замечание.
И этот предел будет достигнут в течении 15-20 лет.
Дык! То есть через 15-20 лет производители чипов наконец вспомнят про то, что вообще-то наше пространство трёхмерно и займутся упаковкой транзисторов не на плоскости, а в объёме. Пока что технологии грубые (просто делают 5-10 чипов и склеивают из них «слоёный пирог»), но ясно что они будут улучшаться. Ещё лет на 50 — должно хватить… Хотя если учесть что уменьшение техпроцесса вдвое повзволяет увеличить количество транзисторов вчетверо, а уменьшение толщины слоя — всего вдвое Закон Мура изменится время удвоения с двух раз за полтора года на два раза за три года…
два слоя транзисторов увеличат тепловой поток через единицу площади вдвое.
четыре — в четверо.
Каждый низлежащий слой будет охлаждаться хуже вышележащего.
Рост энергопотребления также будет пропорционален числу слоев.
Уже сейчас бОльшая часть контактов процессора это земля и питание, по понятным соображениям.
Даже если мы сможем охлаждать весь этот кекс в объеме, с помощью каких-нибудь микроканалов, остается открытым вопрос, как мы его запитаем.
Это основые проблемы которые сейчас стоят, насколько я понимаю. Не только максимально возможная площадь кристалла сдерживает производительность чипа.
Рост энергопотребления также будет пропорционален числу слоев.
С чего вдруг? Если одновременно с наращиванием числа слоёв снижать частоту, то результат может быть вполне адекватен.
Это основые проблемы которые сейчас стоят, насколько я понимаю. Не только максимально возможная площадь кристалла сдерживает производительность чипа.
Разумеется нет — но тут так же как и со скоростью памяти: росла она, росла — и в какой-то момент упёрлась в скорость света. В случае с производительностью мы упёрлись в мощность агрегата (ну пусть киловатт — чтобы с запасом). Ограничение не такое фундаментальное как со скоростью света, но практически — непреодолимое. Вот в этих пределах и придётся крутиться…
Если бы производительность росла пропорционально числу транзисторов можно было бы подумать на эту тему. К сожалению это не так. Увеличение производительности от числа ступеней конвеера значительно меньше прямо пропорционального, а после некоторого предела вообще не дает прироста. Число ядер — так же фигня.
В современных процессорах кэш занимает более половины ядра.
А как вы оцениваете прирост производительности от перехода к кэшу в 8Мб с 2Mб?
хотябы на уровне существенный/несущественный.
Потребляемая мощность прямо пропорциональна частоте.
Чтобы сделать 8 ядер вместо 4х вторым слоем при том же тепловом пакете через крышку, вам придется уменьшить частоту вдвое для обоих, и вы потеряете в производительности.
На практике вам придется уменьшить частоту более чем вдвое, потому что нижний слой будет греться сильнее, а когда мы будем говорить о 8 и более слоях мы тут окажемся в полном ***.
И что еще, Господи, за скорость света?!
Тепловыделение растет нелинейно с частотой. Пример: AMD 4870
1.25v 800Mhz ~150W
0.86v 400Mhz ~20W
Я чувствую что мне, троечнику, пора открывать курс электроники для чайников.
Мощность во втором случае меньше потому что она обратнопропорциональна квадрату напряжения.
Да, можно дойти до мысли, что с уменьшением частоты можно уменьшить напряжение питания. Но по понятным причинам, для уменьшения напряжения питания есть свое очевидное ограниччение.
Это понятно :-)
Просто это простое опровержение что если мы тупо возьмем, и сделаем 4870 в 4 слоя, с напряжением 0.86v, то получим в 2 раза больше скорость при тепловыделении 80W. Поэтому ваше утверждение неверно: «Чтобы сделать 8 ядер вместо 4х вторым слоем при том же тепловом пакете через крышку, вам придется уменьшить частоту вдвое для обоих, и вы потеряете в производительности.»
Я же не говорил, что мы будем уменьшать напряжение питания :) надеялся, что кто-нибудь из МИЭТа объявится :)

Если расмматривать не сферические процессоры в вакууме, а core quad.
Вот напишите мне, какие у нас частоты будут в бутерброде из 4 таких процессоров, какие напряжения.
Какова будет производительность у такого 16-ядерного процессора в современных приложениях.
Выложите отдельной статьей. Вам в процессе все станет ясно.
Вас там по полной программе уделают, а если нет, то вы станете заненитым.

Это мы опускаем все технологические ньюансы, типа того что между слоями будет достаточно толстый слой пассивирующего окисла кремния который очень плохо проводит тепло :)
Какова будет производительность у такого 16-ядерного процессора в современных приложениях.
А кто вам сказал что на процессорах будущего будут использоваться современные приложения?
khim, вы меня троллите что ли?
Тут все началось с комментария, типа производители спохватятся через 20 лет, что можно объямную упаковку использовать.
Я так понял что это укор в недальновидности современным чипмейкерам.
Я рассчитываю что через 20 лет я буду на личном летающем мобиле на работу в свою башню добираться.
Если всё, что у нас через 20 лет у нас будет креминевая микросхема с 40 слоями, я буду очень разочарован.

Еще советские ученые ставили задачу «создать куб памяти размером 10*10см равный по емкости человеческомк мозгу».
Предпологалась слоеная кремниевая технология. Пытались реализовать.
да, тут стоит улыбнуться. да, человеческую память с тех пор переосмыслили и переоценили.
Я прдестказываю, что CMOS уйдет на пенсию раньше чем планарная технология :)
Я рассчитываю что через 20 лет я буду на личном летающем мобиле на работу в свою башню добираться.
Ну на это я могу сказать точно: этого не будет. Много чело будет, но летающих мобилей вы не увидите ни через 20, ни через 50 лет. Разве что в виртуальной реальности :-)
Если всё, что у нас через 20 лет у нас будет креминевая микросхема с 40 слоями, я буду очень разочарован.
Можете начать готовиться заранее. Конечно кроме кремниевой микросхемы с 40 слоями у нас много чего будет, но вот компьютеров на новых физических принципах можно не ждать — они если и появятся, то заметно позже… В лучшем случае через 20 лет мы увидим кривенько так работающие прототипы в лабораториях…
Я прдестказываю, что CMOS уйдет на пенсию раньше чем планарная технология :)
Определите что такое «планарная технология» и что такое «уйдёт на пенсию» сначала — потом можно будет говорить. «Бутерброды» сейчас активно используются во всех мобильниках, но это, видимо, нишевое решение (на тот факт что мобильников в мире гораздо больше чем, скажем, персональных компьютеров мы обращать внимание не будет), да и технология эта всё «как-бы планарная» (а что такое «по-настоящему непланарная технология?»), но, скажем, схемы питания экономичных лампочек (а из ещё больше чем мобильников) ещё долго будут по планарной технологии выпускаться (ибо смысла в их выпуске по другой технологии нет).

В общем я предсказываю что через 20 лет CMOS будет ещё жив-живёхонек, а вот на тему «ушла ли на пенсию планарная технология» будут вестись дебаты…

P.S. Ушли ли на пенсию радиолампы? Они всё ещё выпускаются и пользуются определённым спросом…
Я конечо не оракул, но 20 лет назад у нас был ламопвый телевизор по которому надо было стучать тапком периодически. Самое компьютерное были микрокалькулятор электроника, который был только у очень крутых дядек, типа моего папы. Мама считала на электронике с зелеными светящимися цифирками, которая включалась в розетку и была ого-го по размерам.
Ни о каких персональных компьютерах я тогда вообще и слыхом ни слыхивал.
Да, у кого-то на западе уже был макинтош, но это было как на другой планете.
Мобильные телефоны начали входит в обиход в 2001 году, всего 7 лет назад. До этого их не было.
За 20 лет мир кардинально изменился.
Конечно насчет летающего мобиля это была метафора.
Но насчет того, что КМОП будет жив-живехонек, это сродни утверждению 20 лет назад, что лампа через 20 лет все так же будет занимать крепкие позиции. Да они еще живут в аудиофильских усилителях, также и КМОП будет использоваться в какой-нибудь маленькой нише.
Конечно прогнозы дело неблагодарное, поживем, как говорится, увидим. Главное нам с вами дожить! :)

Я конечо не оракул, но 20 лет назад у нас был ламопвый телевизор по которому надо было стучать тапком периодически. Самое компьютерное были микрокалькулятор электроника, который был только у очень крутых дядек, типа моего папы. Мама считала на электронике с зелеными светящимися цифирками, которая включалась в розетку и была ого-го по размерам.
Я не знаю что там было у вас но нормальные люди 20 лет назад уже работали на 386х, произошёл отказ от кучи разных несовместимых разъёмов на мониторах в пользу стандартного VGA и уже начали говорить о многозадачных OS (OS/2, Xenix, etc).
Мобильные телефоны начали входит в обиход в 2001 году, всего 7 лет назад. До этого их не было.
Давайте не будем, а? Первые разработки — послевоенные годы, первая коммерческая сеть (NTT в японии) — 1978 год. 30 лет назад.
За 20 лет мир кардинально изменился.
Тот в котором живёте вы — может и да, но тот, в котором живут развитые страны — нет. Сейчас разрыва между технологиями, используемыми в разных странах нет, так что подобно скачка ожидать не приходится.
Но насчет того, что КМОП будет жив-живехонек, это сродни утверждению 20 лет назад, что лампа через 20 лет все так же будет занимать крепкие позиции. Да они еще живут в аудиофильских усилителях, также и КМОП будет использоваться в какой-нибудь маленькой нише.
Вот нифига подобного. Через 30 лет — может быть, через 20 — невозможно. Всё просто: 20 лет — это как раз срок, потребный для того, чтобы новая разработка перешла от стадии лабораторных испытаний до стадии доминирования на рынке (5-6 лет — переход от демонстраций на выставках до промышленного производства, 8-10 лет — борьба со старыми технологиями «на равных», еще 5-6 — постепенное «выживание» старых технологий). Так что практически всё, чем вы будете пользоваться через 20 лет сейчас уже есть. В лабораториях, не на конвеере ещё — но есть! И уже не в стадии «а можем ли мы сделать это», а в стадии «хм… как бы нам сделать это подешевле»…
вы забываете, что современный мир развивается экспотенциально!(тот же закон Мура) и сроки внедрения новых технологий тоже уменьшаются.

Неужели вы думаете, что в будущем будет тоже самое, только экраны и морды шире? я думаю в ближайшие 30 лет, а то и меньше компьютеры, какие мы их знаем, исчезнут(для некоторых, даже многих и современные сложные). будут сверхмалые в дужке очков, домашние с голосовым управлением и экраном на всю стены для фильмов, да они везде будут, но это я отвлекся.

все-таки мир будет изменятся быстрее намного, чем раньше, от этого не отвертишься
Ну тут уже стандартная — мы упираемся в очередное физическое ограничение, придумываем обходной манёвр и т.д.

Ибо многие вещи, применяемые в современных микросхемах лет 10-20 назад были немыслимы и никто и представить себе не мог, что Закон Мура доживёт до XXI века!!!
Я думаю когда мы говорим о полупроводниковой структуре не стоит аперировать молекулами, их там нет
это относилось к высказыванию kostitsyn'а
*оперировать, извините.
> забыл, поправьте
А знал? Не понимаю, зачем писать о вещах, о которых не имеешь ни малейшего представления, смешно читать…
о каких? об устройстве полупроводникового транзистора? имею представление, поверьте. И даже догадываюсь что из нескольких молекул его сделать не получится, так как отдельные молекулы ведут себя не так как вещество в целом. Это образ.
Размер атома кремния «Радиус атома 132 пм» то есть 0,132 нм. Транзистор — 45 нм. Да ещё в решетке расстояние есть. Прикиньте, сколько там сейчас молекул.
Не имеете, не верю. Топологические нормы и размер элементов это вещи несколько разные, 45-нанометровый процесс не означает, что транзисторы будут 45 нм. Что такое «Транзистор — 45 нм» мне вообще понять очень сложно, он одномерный что-ли? А прикидывать «сколько там сейчас молекул» исходя из радиуса атома, это канеш сильно))) Кстати, скажу по секрету, там ещё встречаются легирующие примеси у которых размер атома будет другим.
ага, а еще раньше говорили, что скоро компы перерешают все задачи и их просто не останется
Intel Atom действительно очень популярен. Его возможностей вполне хватает для обычных пользователей. Единственное что останавливает меня сейчас от покупки нетбука — небольшой монитор. Будем надеяться, что в скором времени выйдут модели с большей диагональю.
Насчет закона Мура, пока он работает. Просто процессоры под нетбуки и не требуют очень больших мощностей. Все дело в сегментации рынка.
Вот как раз Intel Atom ложится в Закон Мура так красиво, как ничто не ложится. Ибо Закон Мура ничего не говорит о скорости процессоров — он говорит о плотности упаковки транзисторов! А по какому техпроцессу выпускается Intel Atom? Вот и я от том же…
Вот уж если не знаете — почитайте. Закон мура говорит о Количестве транзисторов:

«Он высказал предположение, что число транзисторов на кристалле будет удваиваться каждые 24 месяца. Представив в виде графика рост производительности запоминающих микросхем, он обнаружил закономерность: новые модели микросхем разрабатывались спустя более-менее одинаковые периоды (18—24 мес.) после появления их предшественников, а ёмкость их при этом возрастала каждый раз примерно вдвое.»
(с)Wikipedia
Если вы уж лезете в бутылку, то обратитесь к первоисточнику. Мур говорил про только про схемы с минимальной ценой за компонент — в современных условиях это оперативка. Любые адаптации к процессорам и прочему — это модификации. С оперативкой же пока всё в порядке и доооолго ещё будет всё в порядке. Там и с тепловыделением острах проблем пока нет (у специальной «гоночной» памяти — есть, у обычной с минимальной ценой за бит — нет: а только такая и попадает под определение Мура) и размеры увеличиваются регулярно…
Хорошо, готов с вами согласиться. Тем не менее, если окончательно обращаться к первоисточнику — Мур говорит про интегральные схемы (микросхемы). И опять-таки, подчеркну, про количество компонентов, а не про плотность упаковки, как сказали вы в предыдущем комментарии. Именно этот момент вызвал мое возмущение.
Клевый вопрос подняли :)
Он не только в свете нетбуков и вообще не только в свете ИТ. Действительно, сейчас при внедрении инноваций компаниям придется еще и задумываться, а нужно ли «еще быстрее и еще крутее».

На мой взгляд, это касается прогресса в целом.
Ведь и правда, кому нужно видео в разрешении 16000 x 10000 пикселов, когда даже в 10 раз меньше — это уже более, чем хорошо, а глаз уже не улавливает разницы. Или телефоны — когда-то их делали все меньше, тоньше, миниатюрнее — а сейчас уже просто некуда меньше, ибо наши с вами пальцы и уже меньше-то не стали. «Вода и так достаточной текучести, чтобы придумывать, как бы ее сделать еще удобнее для питья». Т.е. есть некие физические границы разумной достаточности.

Это не значит, что прогресс замер на месте, но то, что его актуальность уже не такая, как была «вчера» — это точно.
UFO just landed and posted this here
Конечно, я тоже:)
Видимо, я просто не всю свою мысль выразил.

Например, телек служит той цели, чтобы получать оттуда информацию. Но представим, что у вас был черно-белый телек, выдающий кучу помех и теперь есть «плазма». Но тут появляется некий голографический экран. И если переход с черно-белого на плазму был кардинальным (появилась возможность видеть цвет и отдельные мелкие детали в видео), то с переходом на «голограмму» этого не будет — на плазме и так все это видно, «голограмма» уже не настолько критична для прогресса.
Разумеется, это только отвлеченный пример.

Та же qwerty-клавиатура пока что — это отнюдь не конечный этап, а промежуточный. Однако, вряд ли вам понравится голографическая qwerty, где каждая кнопка размером 1x1 миллиметр. Я это к тому, что раньше кнопку «меньше, чем» 5x5 см технически нельзя было сделать, зато теперь можно сделать кнопку «Самого Оптимального Размера» и дальше тут стремиться некуда, не нужно ломать голову как сделать еще меньше и это больше не является проблемой, решение которой будет способствовать прогрессу.
>Ведь и правда, кому нужно видео в разрешении 16000 x 10000 пикселов, когда даже в 10 раз меньше — это уже более, чем хорошо, а глаз уже не улавливает разницы

10 лет назад так же скептически говорили про DVD, когда смотрели вырвиглазный ппц под названием «фильм в 700 метров».
95% видео, которое я сейчас смотрю — либо 720р либо 1080р. Конечно это во многом вызвано спецификой того, что я смотрю, а именно аниме:
1) В японии очень распространено цифровое HDTV телевидение, так что 1080р рип можно получить уже через 3-4 часа после трансляции в японии.
2) Аниме, как и прочая рисованая анимация, жмется намного лучше фотореалистичного видео, по этому и весит это добро меньше, а следственно и распространяется проще.
3) Вопреки хорошей сжимаемости, как это не странно, но видео с малым количеством цветов и однородными градиентами намного сильнее страдает от потерь при сжатии, по этому для хорошего эффекта и делается упор на высокое разрешение и высокие настройки кодеков.

Не спорю, в мире кино большинство из этих аргументов не актуальны, действительно, лежит у меня серия Доктора Хауса в 624 x 352 и при растягивании на весь экран в 1280 х 1024 не дает сильных артефактов. так что всегда и всему найдется своя ниша.
Процессор со 100 выводами? Откуда такие данные?

С таким количеством выводов Вы не сможете получить даже 10% той, производительности, которую имеют современные процессоры. В Intel и AMD очень умные люди, и количество выводов возрастает не вопреки их воле, а из-за необходимости.

UFO just landed and posted this here
Жёсткий диск — не процессор. Там где у HD возможна передача последовательным кодом и увеличение частоты, в процессоре это нереально, ввиду, несоизмеримой сложности логики работы.
UFO just landed and posted this here
Можно попросить отметить к каким именно шинам это относится? Ибо сравнение шин периферии и проц-память разное дело.

Хотя раз уж в абзаце "...advanced I/O...", то речь идёт скорее всего об периферии. так?
UFO just landed and posted this here
В принципе да.

Но, пусть Вы правы и можно использовать последовательную шину.
У нас есть гипотетический процессор (32 бита) работает на частоте 1 ГГц.

Вы пишете инструкцию mov eax,[ebx]

Далее мы отбрасывание транслирование адреса и т.д.
адрес преобразуется в последовательный код и передаётся в память, где происходит перевод в адрес — ну грубо как набор управляющих сигналов для получения данных из запоминающих элементов, данные прочитаны, далее память преобразует в последовательный код и отправляет процессору. Совсем забыл упомянуть о том, что есть ещё управляющие сигналы типа открыть строку, закрыть строку, выбрать банки и т.д. Мы это всё отбрасываем и будем считать, что у нас всего 64 бита. 32 адрес + 32 данные…

Если проц работает на 1 ГГц, то (справедливо для x86, от архитектуры многое зависит), этот интерфейс должен работать на 2 частоте… то есть 2*64*1ГГц… многовато не находите?
UFO just landed and posted this here
Ждал этого коммента :). Но ввиду рассмотра работы с памятью, кэш не рассматривался осознанно.

Да между сигналами и mov eax,[ebx] — огромное расстояние. Это было приведено как пример работы с памятью.

И собственно никто не говорит, что на последовательную шину перейти нельзя. Вот, например, e Itanium'а вообще кардинально другая архитектура, там есть операции по подготовке данных. Если б была архитектура с такими возможностями типа:

memory_prefetch [adr]

ld r0,[adr]

То почему бы и не использовать последовательную шину.
Но опять же у нас x86 :( со всеми вытекающими.

UFO just landed and posted this here
А Вы всегда используете SSE, если нужно получить аргумент из памяти?
UFO just landed and posted this here
Автоматический?

Вы про то, что ранних этапах конвеера определяется адрес или про последовательно расположенные данные?
Ждал этого коммента :). Но ввиду рассмотра работы с памятью, кэш не рассматривался осознанно.
Десять баллов! Из пяти возможных. С тем же успехом можно обсуждать проблемы расхода топлива спортивными автомобилями без учёта сопротивления воздуха.

Да между сигналами и mov eax,[ebx] — огромное расстояние. Это было приведено как пример работы с памятью.
Самый первый факт, с которого нужно начинать при обсуждении работы с памятью это время обращения к оной памяти. Несколько лет назад время обращения к памяти перевалило через 100 тактов процессора и с тех пор ситуация только уходшалась. И будет ухудшаться и впредь. Нафига при учёте это объективной, незыблемой и несменяемой реальности кому-либо нужны последовательные шины — неясно. Ну разве что из ностальгии.
А собственно в чём я не прав? Если расматриваем взаимодействие CPU-MEMORY по шине с точки зрения пересылок в память. именно как процесса передачи по шине, то какой смысл говорить о кэше? Или нужно было специально указывать, что произошёл промах в кэше? По-моему это итак понятно, если лезем в саму память. :)

Я исхожу из той же точки зрения, что последовательные шины годятся не везде. В данном случае применение неоправданно.
Если расматриваем взаимодействие CPU-MEMORY по шине с точки зрения пересылок в память. именно как процесса передачи по шине, то какой смысл говорить о кэше?
Без кеша все эти многогигагерцовые процессоры бессмысленны ибо память с такой скоростью работать не сможет никогда. Наличие же кеша делает их осмысленными и приводит к сегодняшней ситуации когда «поход в память» — это именно ПОХОД. Очень может быть что через несколько лет ситуация будет как в Cell где SPU могут ходить в память только через DMA, а не с помощью каких-то простых команд типа ld r0,[adr]
Я исхожу из той же точки зрения, что последовательные шины годятся не везде.
Вот с этим как раз никто не спорит — внутри чипа они не годятся.
В данном случае применение неоправданно.
Почему вдруг? Мы знаем что цикл запрос/ответ займёт несколько сотен циклов независимо от типа соединения с памятью — зачем нам тогда все эти сложности с кучей проводов?

Собственно есть уже и первая ласточка — конечно это ещё не полностью последовательная шина, но всё равно — скорость передачи данных в 16 раз больше, чем скорость работы чипов. Это даже если забыть про старую, добрую DDR3 с восьмикратной разницей. Если частота процессоров (ну и, соответственно, шинных интерфейсов — они взаимосвязаны) вырастет ещё раз в 100 (а посылки для этого есть) то и шина памяти вполне может стать последовательной — так же как IDE в SATA превратилось…
UFO just landed and posted this here
Можно. Но скорость тут не указана, а задел на будущее:
...This enables an increase to the width of the memory without increasing the pin count…
UFO just landed and posted this here
Но это не в полной мере последовательный интерфейс, скорее параллельно-последовательный.
Если рассматривать в таком ключе, то «да» и не буду спорить. Но опять же память использует 96 контактов, а у автора 100 и он утверждает, что можно обойтись 70-80 :)

А я как-то ориентировался на 2 вывода: данные, синхронизация.
Чтобы говорить предметно:
download.intel.com/design/processor/datashts/319535.pdf — даташит на Атом.
У атома 441 пин
На 45й странице распиновка
Я отношение сигнальных пинов к питанию не нашел и считать лень, но глаза мне говорят, что там процентов 80 — земля и питание, которые никуда не денуться если мы несколько болоков объединим, только добавятся для графического ядра и контроллера памяти.

Однако, инетгральное решение, если чип не будет слишком большим, всегда дешевле чем мультичиповое, это аксиома.
Основной вклад это затраты на более сложную печатную плату, на тестирование отдельных чипов, их связки и прочее и прочее а не на число пинов.
На 1 канал GDDR5 32бит памяти — 60 выводов, остальное на питание, узкую шину для внешних устройств (можно в 2 даже уложиться :-) ), выход монитора. Все ) Отличная производительность возможна и с 70-80 выводами. Сейчас контактов много т.к. тыкают по 3 канала DDR3 64bit и толстую шину к чипсету (который мог быть внутри)
Не знаю как насчёт GDDR5.
Но выкладки в общем-то такие. 32 бита на адрес + 64 бита на данные = 96 бит уже. Иначе память будет существенно отставать от проца по скорости.

Интеграция ведёт к увеличению выводов. Модульность и разделение на чипы — к уменьшению.
Иначе память будет существенно отставать от проца по скорости.
Память уже сейчас отстаёт от проца по скорости и всегда будет отставать от проца по скорости — это абсолютная, незыблемая истина. От количества контактов это не зависит и сделать с этим нельзя ничего. Ибо определяется это простыми геометрическими соображениями и ограниченностью скорости света.
Не совсем понятно причем тут скорость света? Она вроде как ко всему применима не только к памяти.

Допустим у нас 32 битная архитектура, а память — явно медленнее. Лезть в память за командой потом за данными или сразу прочитать 64 бита (и команду и данные), а возможно и несколько команд,- разница очевидна и как раз зависит от числа контактов.
Скорость распространения потенциала в проводнике очень грубо равна скорости света, если от чипа к чипу идет проводник 10 см кто-то видимо полагает, что тут скорость света выступает ограничителем. Но это не так. Ограничивает паразитная емкость и сопротивление проводника.
Ещё и индуктивность, и частота изменения сигнала.
в данный момент никто не оценивает паразитную индуктивность, потому что она не вносит заметного вклада. Для оценки паразитных параметров проводят C или RC анализ.
На допустимую частоту сигнала оказывает влияние RC составляющая проводника.
Я думаю индуктивность имеет значение где-то далеко в RF диапазоне. Но РФ-дизайн, волноводы и все такое для меня терра-инкогнита, и это уже не КМОП.
Там есть много разных ограничений но скорость света — это ограничение, которое никакие хитрые изобретатели не отменят. С паразитными ёмкостями и сопротивлением можно до какой-то степени бороться, со скоростью света — нет.
khim, вы упорствуете в своей безграмотности.
До какой степени можно бороться с паразитными емкостями? вы знаете от чего зависит паразитная емкость?
Да, мы говорим о емкости металлических межсоединений.
Вам знакома емкость плоского кондесатора? Вы знаете формулу сопротивления, ту в которой фигурирует удельное сопротивление? это школьная физика.
Скорость света является инвариантом в теории относительносит Инштейна. С ней нельзя бороться, она в любом случае победит.
Но мы вроде тут не о полете к Альфе-центавра говорим, или я ошибаюсь?
До какой степени можно бороться с паразитными емкостями? вы знаете от чего зависит паразитная емкость?
От размеров проводников и от того, чем заполнены промежутки между ними, очевидно. Если бы с ними не боролись, то ни о каких бы 45nm мы бы сегодня не говорили.
Вам знакома емкость плоского кондесатора? Вы знаете формулу сопротивления, ту в которой фигурирует удельное сопротивление? это школьная физика.
Школьной физикой мир не ограничивается.
Скорость света является инвариантом в теории относительносит Инштейна. С ней нельзя бороться, она в любом случае победит. Но мы вроде тут не о полете к Альфе-центавра говорим, или я ошибаюсь?
Нет. Всего лишь о скорости доступа в память. Размер соврменного модуля памяти — 133мм, скорость современного процессора — 3GHz. Это значит что никогда и ни при каких условиях, ни за какие деньги и ни в какой лаборатории вы не сможете получить из памяти ничего за один такт — запрос просто-напросто не успеет дойти до памяти и вернуться обратно! Конечно имеющиеся в реальности сотни тактов получаются из других соображений, но и скорость света оказывается вполне близким фактором, не требующим никаких полётов к Альфа-центавра. А скоро принцип Ландауэра реальной проблемой может стать…
UFO just landed and posted this here
Играют значение оба фактора, но определяющий в вопросе «параллельная схем или последовательная» — задержки. Скорее всего в конечном итоге память будет сделана по образу и подобию PCI-Express: много паралленьных линий, каждая из которых работает независимо и не синхронизована с остальными.
скорость света — 3*10^8, грубо говоря свет проходит 33см за наносекунду, правильно?
4ГГц — это ступеньки с периодом в 4нс.
По сравнению с длительнстью импулься эта задержка незначительна.
Да, не зря память стараются поставить поближе к процессору в Атлонах :)
Дело не в длине модуля, а в длине шин от контроллера памяти до модуля, может это где-то 10см.
Ну и потом емкость портит сигнал, а конечность скорости света это всеголишь задержка.
Задержка возникает на каждом логическом элементе, на каждом проводнике. Никто же не кричит по этому поводу. Для этого и применяются сигналы синхронизации.
скорость света — 3*10^8, грубо говоря свет проходит 33см за наносекунду, правильно?
Именно. Только не 33см, а чуть меньше 30см, но это копейки.
4ГГц — это ступеньки с периодом в 4нс.
Кто вас математике в школе учил? 4ГГц — это ступеньки с периодом ¼нс!
По сравнению с длительнстью импулься эта задержка незначительна.
Ась? Вы чего-то путаете.
Дело не в длине модуля, а в длине шин от контроллера памяти до модуля, может это где-то 10см.
А откуда это расстояние взялось? Из длины модуля: если размер модуля — 133мм, то длина шины — от 66мм! Туда и обратно — те же 133мм. Меньше чем свет проходит за ¼нс!
Задержка возникает на каждом логическом элементе, на каждом проводнике. Никто же не кричит по этому поводу.
И зря. Ибо эти неизбежные задержки здорово влияют на будущую картину IT-технологий.
Для этого и применяются сигналы синхронизации.
Там есть много технологий. Но уже одна эта задержка делает идиотские мысленные эсперименты типа рассмотрения процессора без кеша бессмысленными! В этом, собственно, и заключалось моё утверждение — ни больше, ни меньше.
Я вот осилил прочитать про принцип Ландауэра.
Согласно принципу Ландауэра, при работе в рамках классической логики любое переключение транзистора приводит к выделению тепла, пропорционального температуре транзистора.
Т.е. есть некоторое количество энергии без потери которой нельзя совершить необратимую операцию типа стирания бита информации, и эта минимальная энергия E = kT ln 2. Это является следствием законов термодинамики.
В курсе микроэлектроники учат, что КМОП транзистор потребляет (и естественно рассеивает) мощность только в процессе переключения (если мы пренебрегаем током утечки). Нам только не объясняли, что теоретически невозможно создать вычислительную систему потребляющую менее kT ln 2 при каждом переключении ведущему к необратимой потери информации.
Спасибо за ссылку, это очень познавательно.
Это кстати может быть отлично темой для доклада или курсача в институте, а также статьей для Хабра.
У нас есть еще один фундаментальный передел, который ограничивает минимально возможное потребление отдельного транзистора в дополнение к ограничению, накладываемому атомарной структурой полупроводника.
Обойти его можно будет только если реализовать концепцию обратимых вычислений.
Все же я считаю, что КМОП уделается раньше, чем дойдет до принципа Л :)
Лезть в память за командой потом за данными или сразу прочитать 64 бита (и команду и данные), а возможно и несколько команд,- разница очевидна и как раз зависит от числа контактов.
Разница не очевидна и она не зависит от числа контактов. DDR3 передаёт минимум в 8 раз больше бит, чем у вас есть контактов, XDR — в 16 раз больше. Какая-нибудь DDR10 вполне может обойтись одним проводником.
Мне кажется, что производители нетбуков, если следовать логике статьи, сами копают могилу индустрии — народ должен платить за R&D, и всегда платил. Народ платит за военные разработки, а в демократическом мире, со свободной экономической системой, народ платит за R&D вот таким вот образом — покупкой того, чего им не нужно.
Может быть обычным людям и не интересна жизнь на Марсе, но стратегически мнением народа можно пренебречь. Руки прочь от разработок!: )) Помните, мы должны выйти в космос до того, как там застолбят лучшие галактики.
ИМХО будущее за «серверными программами». Т.е. персональный компьютер — лишь консоль для доступа к серьезному интернет-приложению, которое работает на мощном сервере. Это уже обсуждалось на хабре. Кажется, нетбуки — первая весточка этого явления, — народу объяснили, что мощный компьютер не так уж и необходим.
Это, товарищ, прошлое =) Консоль, терминальная линия, мейнфрейм… Все это уже было. Хотя, говорят, все новое — хорошо забытое старое.
Тогда просто компьютеры были не очень персональными и слишком дорого было организовывать сотню полноценных рабочих мест, один мэйнфрейм выходил дешевле
ну а теперь персональные, а тенденции наблюдаются те же.
Основная проблема такого подхода — ширина каналов связи. Раньше даже думать в эту сторону казалось сумасшествием. Сейчас вполне. Скажите в 90х годах, что в будущем вся информация будет храниться в сети на бесплатных серверах (а винчестеры стало быть будут отходить в прошлое) — вас закидают тухлыми яйцами. Сейчас же онлайн хранилище — вполне реально.

То же самое и с вычислительными ресурсами. Клауд компьютинг и все такое. Самое главное, что это в конечном счете будет дешевле, нежели локальные решения.

Лет через несколько на столе (а то и в руке) среднестатистического юзера будет коробочка с толстенным каналом связи и человеческим интерфейсом. А все остальное (хранилище данных и собственно вычислительные мощности) в сети.
UFO just landed and posted this here
Remote Desktop Вам поможет. 5 минут настроить не специалисту, филм смотриш на нетбуке с шары, в 3D максе рендериш через РД. И будет вам Win основа
UFO just landed and posted this here
Это конечно верно, но большая (ударение как нравится) часть людей, и я в их числе, не согласится хранить полностью все свои личные данные в сети, а гонять их туда-сюда — нужен широкий канал, который пока есть далеко не у всех, то есть от проблемы ресурсов машины переходим к проблеме ресурсов сети
заметьте, на сколько доступнее стали широкие каналы за последние пару лет. Можно даже перефразировать закон Мура для интернета :)
Недавно кстати писали на хабре о такой закономерности. Каналы-то выросли, да не везде. В москве за 500 рублей 20 мегабит анлим (а то и больше, не скажу точно), а в замкадье в лучшем случае 512 кбит. у меня к примеру 300 кбит за 650
думаю, пару лет ситуация была хуже (я какбе об этом написал)
А у меня вон вообще 256кбит за 1500 рублей в переводе :-)
Вы чего, парни? Как это мощнее не надо? А как же виртуальная реальность, матрица, всякие веселые штуки из фантастических фильмов и цветущие яблони на Марсе?
Надо развивать флеш-винты, основные тормоза из-за диска, это единственное, что раздражает. А проц двухъядерный — самое то, для меня во всяком случае. Быстрее нет необходимости, а медленнее все же не хочется.
Ах да, инет еще должен летать :))
еее это больше чем нужно простому смертному. У меня, к примеру, в домашнем компе карточка амд трехтысечной серии, не разу ее возможности не юзал: редактор текстов, броузер, медиаплеер — все что этот пк делает.
Не знаю насчет атома, ибо не держал в руках, а отзывам предпочитаю не доверять, но пятилетней давности Р4 2.8, одноядерный, ядро Нортвуд, меня вполне удовлетворяет в 90% задач. Плюс задумываюсь о покупке консоли для игр, играю раз в месяц, не вижу смысла тратить деньги на апгрейд
вот и я бы апгрейд не сделал (атлон 2000+) если бы жесткие все не погорели, а мамка поддерживала sata…
Сата через pci-плату можно на крайний случай. У меня вот мать похоже дохнет, очень уж не хочется… Тьфу-тьфу-тьфу
Я пока учился, тоже с 2002 по 2008 года сидел на p4 2.0 одноядернике и 512 оперативы, хватало, а вот когда работать начал, Visual Studio, SQL Enterprise manager… и прочие, пришлось сделать апгрейд; )
Ну я тоже не плюшками балуюсь, но обработка фото тоже хорошо данные туда-сюда гоняет, а звука — еще лучше
«Сейчас уже есть возможность решить вопрос с апгрейдом PC раз и навсегда...» звучит как фраза одного известного миллиардера на пенсии «640 Кб памяти хватит всем».
Да но, сейчас времена немного другие :-)
Производительность Atom 1.6Ghz была достигнута потребительскими процессорами лет 5-6 назад.

И я не говорю «всем хватит». Для профессионального использования понадобяться профессиональные процессоры. Как Pentium Pro в своё время :-)

Есть ещё куда развиваться…
Для существующих задач, конечно, достаточно процессорной мощности. Но в последние годы мы видели только количественные изменения в программном обеспечении, качественных скачков не было. Какие процессоры будут нужны для распознавания речи (применимого в быту), голографического видео (или что там дальше будет), чтения сигналов мозга и т.п.?
Вполне правдоподобно.

Лично я считаю, что переход на нетбуки и терминальные решения будет самым лучшим будущим. Например, как я вижу это:
Дома стоит мощный сервер с огромными ресурсами, пускай скажем в дальней комнате или на балконе — меньше греется и не мешает. А у каждого обитателя дома свой «терминал» доступа на этот сервер. Например, чтобы погонять с супер-современную игрушку, нужен будет проводной доступ (сел за стол, воткнул в свой планшет кабель — и у тебя 100гбит на графику, объемное звучание и периферию) к серверу. А чтобы просто работать в Wordи модерировать свой сайт — достаточно WiFi.

К чему я всё это — а к тому, что мощные вычислительные ресурсы каждому жителю «дома» ненужны, по крайней мере одновременно. Можно выделить один подобный сервер на семью (подъезд) и раздавать доступ. Для гостей можно включать гостевые записи, где они могут выходить в Интернет в браузере и пользоваться стандартными приложениями (IM, IMAP, SSH :)

Это моё понимание такой модели будущего, когда каждый может ходить со своим терминалом (пусть даже в 3d-очках), подключаться к своему серверу по 4G, и делать свои любимые задачи в любом месте. А при необходимости в быстром графическом выводе — прямое подключение к серверу в пределах своего «дома».
А вот это решение мне нравится
Сам владею мощным ноутбуком, который весит 3 килограмма и выглядит как шкаф. Неудобно.

Были бы уже сейчас технологии передачи графической информации по существующим каналам с высокой скоростью (RDP еще далек от идеала и не подходит для игрушек), я бы отказался от ноутбука в пользу сервера дома и терминала «где угодно».

При покупке ноутбука был довод — мощность для игрушек. Сейчас, когда больше работы и вычислительных процессов — мне легче залить гиговый дамп на сервер для парсинга и запустить задачу там — у него и памяти в 4 раза больше и канал шире. И управлять огромной махиной в командной строке терминала — это что-то, это надо испытать каждому — когда одной командой запускатся огромный кластер на обработку информации, когда от одной команды в серверной поднимается невыносимый шум винчестеров, когда ты знаешь, что от одной командый в серверной может поднятся температура и чувствуешь себя как у пульта управления погодой. А был бы графический интерфейс — была бы сказка…
У меня дома уже почти так. И не только у меня, знаю еще минимум троих людей, организовавших домашнюю сеть подобным образом. Под столом стоит достаточно производительный настольный компьютер, работающий круглосуточно и подключенный к интернету. Но за ним я работаю только когда надо что-то серьезное сделать. Чаще я читаю книжки, болтаюсь по интернету через Wi-FI, лежа на диванчике с еееРС на животе. А в соседней комнате старый комьютер, оставшийся после апгрейда — на нем работает отец, для его задач производительности вполне хватает.
Я тоже пользуюсь EEE когда впадлу держать тяжелый и горячий ноутбук только для чтения ленты новостей. Правда экран маловат, но для этих целей хватает. На сервер захожу под RDP — торренты добавить, статистику по ДЦ полистать.

Вот был бы протокол RPD быстрее в разы — и фильмы можно было бы смотреть.
Мур говорил об удвоении числа транзисторов в микропроцессоре каждые 1.5 года. С легкой руки журналистов его статистический закон перефразировали в удвоение производительности. Затем применили и совсем к другим сферам: удвоение объемов жестких дисков, числа ядер и т.д. Если обобщить все эти удвоения, то сейчас ничего кардинально не меняется: производительность снизили, зато уменьшили энергопотребление. Можно перефразировать закон Мура в удвоение производительности на ватт энергии.
С одной стороны — всё так. С другой — всё совсем не так. :)

Индустрия программирования, благодаря таким вот «улучшениям», застряла на 30 лет. В начале 70-х реализовали первые ОО языки программирования, а вслед за ними выпустили первые PC.

И ООП пришлось отложить на 20 лет, потому что PC тянули максимум ассемблер, и с некоторой натяжкой C. Противоречение между скоростью разработки и скоростью исполнения так до сих пор и не решено.

В 95-м Sun придумала Java, и за 10 с небольшим лет довела платформу до ума. Microsoft вышла на рынок с .NET. Обе платформы позволяют разрабатывать приложения 2-3 быстрее, чем на C++. Чем приходиться за это платить? Байткодом, сборщиком мусора — в целом, производительностью исполнения.

Как нивелировать эти недостатки? Увеличить производительность компьютера. Да, те же задачи будут выполняться за то же время. Но. Разработка будет занимать меньше времени, и станет стоить дешевле. Стоит ли овчинка выделки? На мой взгляд, да.
Ну вообще в правельном направлении идут производители ) Вот лично я бы не отказался от нетбукв недорогих, которым не нужны такие производительности, зато приятно и можно куча других задачь на них выполнять, а дорогие стоят дома или на работе ;)
подстегнуть пользователя на «апгрейд» в период застоя очень просто, надо ухудшать качество, что бы ломалось почаще
.
Напомнило Шекли, «Билет на планету Транай», там главный герой так роботов разрабатывал
Исправьте плиз: и на специализированных приставках): интерент — без проблем
этой мечте не сбыться поскольку vista и будущие системы от МС в дальнейшем будут неуклонно увеличивать требования к железу, а вечно на XP сидеть не будешь. Да у windows7 требования меньше чем у vista но это лишь временный шаг назад, и то из маркетинговых соображений, поскольку рынок оказался не готов к завышенным требованиям vista, в дальнейшем аппаратные требования ОС все равно будут расти.
Да ну. Обычные пользователи далеко не так примитивны, как кажется автору. Обработка видео — это повсеместное развлечение. И не только в форме перекодирования, а в форме видеомонтажа. Потом возьмите огромное количество дизайнеров, работающих в пакетах векторной графики. Кроме того, экран имеет значение. Если на неширокий и узкий (в пикселях) экран текст отрендерить очень просто (вычислительно), то если это экран разрешением уже хотя бы 1280x1024 задачка становится в несколько раз сложнее. Я уже не говорю про комфортную отрисовку PDF… Вобщем, поторопился с выводами BarsMonster.

А наращивание количества ядер — это вобщем-то решение из мира High Performance Computing'а. Взять тот же BlueGene, так он вообще чуть ли не на встраиваемых процессорах сделан, только их там очень много. И то, что отдельное ядро Atom'а не такое уж производительное, ещё не означает отсутсвия возможности превратить весь процессор в монструазную числодробильню.
Отрисовка экрана делается аппаратно, и процессор практически не грузит :-)
Сколько % юзеров монтируют? 1? 3? Вот для остальные 97% хватит атома :-)
Ну… Есть процессоры и Процессоры. Есть задачи и Задачи.
Каждому свое.
С одной стороны Атом для веба, с другой — террафлопники в каждом приличном учебном учереждении. В лаборатории же просят уже и пентафлоп.

На одном серверном проце Интел зарабатывает примерно как на 1000 атомов. Не помню правда откуда (с)
UFO just landed and posted this here
ИМХО будущее за «облачными» вычислениями
а где про это можно почитать?
это не мешает делать «клиентов» более «толстыми» )
надо юзать «тонкие клиенты» :)
Статья напомнила эпохальные заявления «640 килобайт памяти в комьпютере должно хватить всем!» и «я вижу рынок для 5, максимум 10 компьютеров в мире!». Их тоже в свое время неглупые люди говорили. От токо случилось по-другому. :)
Там тоже смысл искажали :-)
Атома хватит не всем, но многим :-)
Вобщем все учим программирование и пишем свой софт, который точно не будет тормозить) я пока потихоньку утилитки заменяю у себя в системе. но хотя конечно такие вещи как Phptoshop врядли кто-нить напишет. да и Фотошоп\3Д макс — эти вещи уж точно требуют мощной станции. А проблема с антивирусами ПОКА решаема. лично я для теста поставил вместо NOD32 2.7 версию 3 и с Outpost проделал тоже самое. и вот как-то всё лагать стало, хотя улучшений в защите не почувствовал. Вообще откатил версии обратно и молюсь чтобы они не сменили формат Антивирусных баз и Спайвэа, а то вряд ли они уж будут переделывать свои старые версии.
А проблема с антивирусами ПОКА решаема. лично я для теста поставил вместо NOD32 2.7 версию 3 и с Outpost проделал тоже самое.

что-нибудь Linux based и проблема с вирусами будет решена надолго, если не навсегда + требования к железу можно существенно уменьшить за счет смены WindowManager.
Заодно не будете спонсировать отрасль (анти-)вирусописателей.

Ответ насчёт Юниксов у меня прямо в моём комментарии: Фотошоп, 3Ds max. я даже на мак Ось не могу пересесть из-за отсутствия 3Д макса (хотя Майя там есть).
Секс со слакварём мне запомнился :-) И Гимп тоже не предлагать, а то фотошоп мой хлеб насущный и с ним лучше не рисковать. Собственно требования к железу как раз из-за обработки больших файлов Фотошопа, и рендеринга.
а смена WindowManger, это подразумевается смена оболочки? сидел я както под BBClean, даже что-то там писал под него, но глюки постоянные к сожалению не дали мне остаться на нём
Новые потребности породят новый скачок развития железа.
Просто сегодняшние потребности исчерпали «мотивационный потенциал».

Новыми потребностями могут стать: настоящее 3D (голография и т.п.), развитие ИИ (реально «умные» ОС, помощники и пр.), развитие различных систем реального времени — сканеров (состава воздуха, крови и пр.), фильтров (прозрачная рамка или очки с наложенными интеллектуальными данными и т.п.) — и всё это обязано быть мобильным.

Думаю, что вектор развития железа указывает в сторону распараллеливания (вместо гигагерцев будут мерятся килопроцессорами) и экономичности.

Успехов.
Ещё стоит добавить, что IBM и Intel сегодня в огромных объёмах осуществляют стратегические инвестиции в создание потребностей завтрашнего дня.
У руля этих гигантов стоят умные люди: они заинтересованы в скорейшем исчерпании потенциала сегодняшнего ПО и в стимуляции роста новых рынков — именно там новые «вкусные» миллиарды :-)
«640 КБ должно быть достаточно для каждого» — Bill Gates, 1981.

С современными принципами разработки ПО придется увеличивать мощность компьютеров постоянно.

Насчет «интернет — без проблем» — это неправда. Firefox постоянно занимает 800 МБ памяти и использует процессор на 60% на моем eeePC 900. Преимущество нетбуков в цене и мобильности. Но их низкая производительность немного напрягает.
У вас какой-то неправильный файрфокс, и например у моего нетбука 2Гб памяти )
Все летает )
Скорее, хожу по «неправильным» сайтам.
Во мысли сходятся — третий коммент про «640 килобайт» (в том числе один мой :) )
> Таким образом мы уже пришли к точке когда текущие технические возможности избыточны для большинства пользователей

Технические возможности никогда не будут избыточны. Кроме закона Мура есть еще закон Паркинсона. Он немного из другой области, но применительно к вашей статье его можно сформулировать так: «Чем выше текущие технические возможности, тем выше будут потребности пользователей».
Дайте людям мощный проц, и они найдут чем его занять, даже для казуальных вещей. Кто-то писал что сейчас для редактирования одной страницы текста недостаточно мощности компьютера который ранее управлял сотнями спутников.
я думаю гонка начнется с повсеместного внедрения виртуальной реальности
В 80х годах делали компьютерное железо, и говорили: «ну когда наконец появятся программы, которые будут использовать все ресурсы?»
В 90-е годы делали программы, и говорили «Ну когда наконец появятся компьютеры, которые это смогут?»

В наше время все возвращается к ситуации 80х годов, но это пытаются усиленно скрывать :)
А вы у 3дшников поспрашивайте, или у распределенщиков… только осторожно, а то и побить могут.
Все-таки не соглашусь — 3D-шники могут делать всё, что им нужно, на современных компах — а вот процесс рендера, на рендерфермах — надо выделять в отдельный разговор, примерно как «погодные» суперкомпьютеры.

Ведь всегда можно найти такую задачу, для которой никакой мощности компьютера не хватит — вроде вычисления траекторий всех атомов и молекул, возникших во время Большого Взрыва.
Предлагаю пропустить и обсудить сразу x128.
1. Закон Мура — частный случай (для эпохи силикона) более общего закона увеличения плотности вычислений и хранения информации, пределы которого (в частности, в квантовом компьютинге) намного дальше, чем принято было считать (если таковые вообще есть, ибо квантовая информация к бинарной не сводится, один кубит может содержать в себе бесконечное число бит). И даже этот закон ускоряет прогресс не сам по себе, а в сочетании с эффектами синергетики, законом Меткалфа и т. д. Непонятно, откуда автор взял идею о каком-то замедлении. Ни в разработках, ни во внедрении темпы изменений с годами никак не падают, а наоборот возрастают. Если, конечно, не ждать какой-то ненаучной фантастики вроде бесконечного роста скоростей автомобилей и вообще любой количественной экстраполяции без учета качественных сдвигов.

2. Нетбук (и даже ПК) — специфический инструмент для специфических задач. Например, для одних задач, где главное — производительность, я использую разогнанный Core 2 Quad, а для других, где мобильность прежде всего, есть eeePC 700. Одно другому не противоречит, а дополняет. И вообще на железе «общего назначения» прогресс клином не сошелся, существуют и другие гаджеты, число которых (и число разновидностей которых) с каждым годом растет, где же тут «замедление»?

3. Конкретно Atom — самое что ни на есть детище закона Мура. Если автор забыл, этот закон не об абсолютной тактовой частоте, а о плотности на квадратный сантиметр. Сколько занимал хваленый кукурузный P4 на те же 1,6 ГГц? А если вспомнить, сколько он энергии потреблял… Атом же хоть в телефоны пихай. Apple и брендовые производители, конечно же, не слишком довольны превращением статусной еще пару лет назад вещи в массовый стандарт. И даже Intel начал переживать, не убьет ли их новое детище рынок ихнего же целероно-пентиумового дерьма (которому давно пора на свалку истории, но это и к лучшему, маркетинговая политика этой компании за последние несколько лет откровенно бесит, а так они вынуждены будут задвигаться).

4. Кризис всегда был, есть и будет двигателем прогресса. Когда все идет по плану, качественных прорывов не наблюдается, то прогрессом такой линейный рост можно назвать весьма условно. Нечто подобное мы наблюдали в 2002-2008. А вот когда по плану идти дальше нельзя, происходит революция, кое-кто прекращает отдыхать, берется за голову и рождает очередной прорыв — то самое «как эти ресурсы использовать». А что касается массового обывателя, то он всегда знакомился с технологией после того, как ее освоят разработчики, профессионалы и любители. Это уже дело маркетологов, как преподнести юзеру новую железку. Или маркетинговых партизан из ОБС:). 31337 же смотрит вперед независимо от предпочтений ушастых.

Так что, автор, не будь обывателем и начинай думать шире. Хорошее объяснение ускорения прогресса и обзор перспектив (и рисков), которые оно может принести, лично я почерпнул в свое время из вот этого курса видеолекций от Д. А. Медведева (нет, не того самого):

video.google.com/videoplay?docid=8399338755543325222&hl=en
video.google.com/videoplay?docid=5520178814318133276&hl=en
video.google.com/videoplay?docid=2726812006395252757&hl=en
video.google.com/videoplay?docid=-4750657645057543109&hl=en
video.google.com/videoplay?docid=7406741813781984107&hl=en
video.google.com/videoplay?docid=1180655032689733221&hl=en
video.google.com/videoplay?docid=-6885234745755521051&hl=en
video.google.com/videoplay?docid=-1920071875021362332&hl=en
video.google.com/videoplay?docid=-8803011083099589823&hl=en
video.google.com/videoplay?docid=-3340383120979700078&hl=en

Также рекомендую англоязычный ресурс www.jumpthecurve.net (особенно покопаться в его архивах), там интересны не так факты, как размышления о влиянии экспоненциальных эффектов на бизнесы, некоторые из которых эти эффекты в изобилии порождают, а некоторые, наоборот, «закрывают».
пора делать каты на комменты
На хорошие комменты каты не надо, а на плохие уже есть. =)
Генри Форд говорил, что больше автомобили развиваться не будут: достигнут технологический уровень. Единственное, чем они действительно будут отличаться — дизайн, то есть внешний вид, эргономика и всякие другие сомнительные преимущества. И тут неожиданно появились чипы, компьютеры… Кста, сейчас почти тоже самое наблюдаем в автомобильной промышленности, жду чуда :)

Это не оффтоп, считаю, что пост напрямую относится к статье :)
Небольшая ремарка:«достигнут максимальный технологический уровень.»
мне кажется, что это всё просто психология. и маркетологи и продажники успешно этим пользуются. а мы на это дружно ведёмся. можно было написать такой же пример про сотовые телефоны, телевизоры, машины и т.д. куча статей есть про то что мы все делимся на тех кто продаёт и покупает :-)
Все тут спорят кому, какая производительность нужна… Не забывайте, что есть еще куча факторов, почему нетбуки пользуются популярностью. Лично я приобрел нетбук лишь потому, что мне надоело 3 кг. таскать каждый день, да и чемодан нужен большой. А для ресурсоемких задач, есть настольный супер-пупер ядерный комп.
Sign up to leave a comment.

Articles