Pull to refresh

Comments 26

> 2000-е годы открыли эпоху, когда предел плотности мощности и рыночный спрос на мобильные компьютеры изменили фокус транзисторных технологий с повышенной производительности к уменьшенному энергопотреблению.

Фокус, я так понимаю, изменили не по доброй воле, ибо от 20 ГГц процессора в бюджетном домашнем десктопе и сейчас никто бы не отказался…
Не открылся. Но в 2000-х гигагерцы были ду ты ми — я это хорошо вижу, сравнивая нетбук asus 1215n и свой старый десктоп на очень даже крутом пентиуме 4-3.0GHz )
Насколько я себе представляю, дутыми они ни в коем случае не были. Была другая архитектура, другой критический путь (который ограничивал частоту). Nehalem — новая микроархитектура с абсолютно иныыми характеристиками (извините за стиль К.О.).
Примерно это и имею в виду. Просто обращаю внимание, что тогда, в нулевых, количество цифирок рядом с «GHz» было скорее маркетинговым ходом для того чтобы как-то классифицировать уровень процессора, чем потребностью для повышения эффективности. Вспомните AMDшные гигагерцы, которые указывались не реальные, а «аналогичные по производительности».
Черт, меня опередили.

> количество цифирок рядом с «GHz» было скорее маркетинговым ходом

Сейчас их успешно заменили на «ядра» и «гиги». 4 ядра 4 гига. Черт. Как я приводил пример, что характеристика ПК «4 ядра 4 гига» — это все-равно, что автомобиль «4 колеса 4 двери».
Так в середине нулевых начали указывать рейтинг рядом с герцами.
Они были кукурузными. Нет, там просто была более низка производительность на один герц. чем сейчас. К слову, конкурирующая организация, у решений которой производительность на герц была выше вынуждена была ввести липовые названия для процессоров, например Athlon XP 2000+ 1.666 ГГц (сейчас пишу с него ;) ), который «сопоставим с P4 2 ГГц».
Сложночитаемый текст, да и статья, похоже, так себе — где те же планы интела по переходу на 14нм, информация о размещении прямо на чипе модуля связи и т.п. вещи, которые обеспечат работу этого самого закона Мура?
Действительно, SOC (System-On-Chip) является в последнее время бурно развивающимся направлением. И от части об этом шла речь в предпоследнем обзаце. Модуль связи — не едиственный компонент, который скоро «приживется» в кристалле. Минитюаризация устройств требует более тесной интеграции всего.
Не затруднит указать примеры, кроме интегрированного модуля беспроводки и генератора рандомных чисел (который успешно закинули при производстве Ivy Bridge)? А то может пропусти чего-то интересного…
Простите, примеры SoC или об интеграции компонентов в процессоры? Про второе, можно говорить про графику и контроллер памяти, которые уже там. Про развитие SoC: есть общие презентации типа: http://download.intel.com/pressroom/kits/soc/SoC_press_briefing.pdf
Чтобы подробно? — Я думаю что будет отдельная тема для разговора.
Я знаю, что он есть, потому и спросил, что помнил про недавний анонс)
Я знаю ответ на этот вопрос.
Так когда же?
Когда умрёт (желательно насильственной и неспешной смертью) последний маркетолог.
Я считаю, так называемый «закон» держится исключительно из-за желания маркетинга получить деньги за промежуточные варианты технологий. Готов поспорить, что многие из технологий, которые сейчас нам показывают как нечто новое, были доведены до ума уже много лет назад.

Вывод любым из игроков на рынок технологии, которая бы превзошла все существующие на данный момент — это то, к чему стремятся производители, ведь для них это бы означало колоссальное конкурентное преимущество. Вы же похоже, думаете, что имеет место что-то вроде картельного сговора. Вряд ли.
Небольшие с точки зрения потребителя улучшения для производителя оборачиваются огромными затратами на исследования. Дайте технологиям время- 100 и даже 200 лет — это очень малый промежуток в масштабе мировой истории.
Под архитектурой видимо надо понимать не столько архитектуру кристала, как архитектуру системы (правда сейчас это уже сильно размывается).
С точки зрения системы — интегрированный контроллер памяти\шины, SSD диски — сильно подняли производительности.
Я, как разработчик, был бы очень рад если бы через N < 10 лет уменьшили бы задержки на рандомные операции с памятью, хотя бы в 4-8 раз (если мерить в тактах процессора).
Кстати говоря, гигагерцы росли, производительность «попугаев на гигагерц» росла, скорость жёстких дисков, сетей росла — всё это изменилось в десятки раз. Скорость работы динамической памяти выросла за то же время раза в три.
О том и речь что как архитектура x86 развивается не особо целостно.
Что в общем-то, в какой-то мере, является следствием ее универсальности.
И это здорово раздувает многие бюджеты проектов программных продуктов.
Я не про x86, я про аппаратные технологии в целом. DRAM-память и (S)ATA-диски не только в x86 используются.
Закон Мура — мыльный маркетинговый пузырь, который надувает и раздувает ваша зажравшаяся контора.
Какое это имеет отношение к тематике поста? Вы его вообще читали?
Привет сторонникам Теорий Заговора и Вселенского Зла!
А если серьезно, совершествование полупроводниковых техпроцессов и придумывание абсолюно новых принципов вычислений, включая квантовые и оптические компьютеры, происходит в разных местах и не зависимо от какой-либо конкретной компании. (Гугл Вам в помощь)
Закон Мура придуман Инженером (почитайте внимательно биографию автора закона, закон был придуман когда еще не было Интела), и поддерживается инженерами и учеными различных компаний и научных организаций уже столько лет, если хотите «на слабо».
И как же бездарно мы растрачиваем ресурсы процессора на неидеально оптимизированные операционные системы, всяческие машины с байткодом, кривой софт…

Какой реальный получается КПД у современной системы, например в играх, кто-нибудь считал?
Маленький пост ненависти
Я играл в Третьих на вышеуказанном Athlon XP 2000+, вся система была подобного уровня (512 МБ drr-400 например), и длительность хода всех ИИ редко превышала 10 секунд на самых огромных картах.

Недавно я взял ноутбук на Core i7 3610 (там еще 8 ГБ ddr3-1600 было), и попробовал поиграть на нем в пятых героев. Длительность хода каждого ИИ даже на средних картах составляла 10 секунд. Я решил, что быть такого не может, и что это какие-то неправильные герои. Поискав в Гугле информацию, я обнаружил гневные посты, где владельцы всяких Phenom и Core2Duo иже с ними жаловались на ход всех ИИ больше 15 минут (!!!).

Соль в том, что уровень ИИ сопоставим, и задачи, которые надо просчитывать тоже сопоставимы.
Sign up to leave a comment.