Как стать автором
Обновить

Комментарии 185

компания, похоже, на грани потери преимущества производительности


Очередной «вендекапец»

Официальная история пропуска мобильной революции


Очередной обзор «задним умом».
Интересно, что сам автор статьи писал о мобильной революции, хотя бы в 2007?
Почему во многих суперкомпьютерах ускорители от Nvidia?
Как много планшетов, смартфонов на Intel?
Как много планшетов, смартфонов на Intel?


Я пользуюсь Surface Pro 4 на Core i5-6300U.
Отличная машина с быстрым процессором, никакого сравнения с планшетами на ARM.
"… никакого сравнения с планшетами на ARM".
С какими именно планшетами Вы сравниваете? Боюсь на этом рынке счет 5:0 и не в пользу Intel.
Пысы: думаю они в этот момент делали ставку на огромное количество софта под x86 и просчитались.
Дак а правильно было забросить x86 и перепрыгнуть на ARM? И где бы сейчас был десктоп?
И где сейчас интеловский десктоп?
Не вижу ничего революционного в интеловских десктопных процессорах, если не обмануть себя лет семь.
Каких именно революций Вы ожидаете?
А интеловский десктоп сейчас, насколько я понимаю, пытается перейти на новый техпроцесс.
Видимое увеличение производительности.
За счет чего? Они уже отполировали архитектуру буквально до крови, сейчас разве что лишние нанометры срезать.
Может надо было вовремя архитектора поменять? ;)
Что именно Вы бы поменяли в текущей архитектуре?
RE: «архитекторА». :)
Есть кто-то, кто все испортил? ОК, я не шарю.
1) Я бы уже чуть ли не во время выпуска процессора 80286 начал думать над сменой системы команд процессора и отказа от совместимости. Для совместимости с DOS я бы ставил в компьютер два процессора: один — 8086 или 80286; второй — нормальный RISC-процессор. Эти процессоры работают на раздельной памяти, вызовы к процедурам DOS/BIOS перенаправляются к RISC-процессору.
При этом на RISC-процессоре выполняются нормальная операционка и приложения.

2) Я бы отказался от архитектуры, построенной вокруг центрального процессора. SMP+UMA+J (симметричная много процессорность + общая память + ссовместное использование этой памяти, т.е. необходимость аппаратной синхронизации кэшей). Вместо этого надо было развивать систему, в которой, например, файловая система вынесена на отдельный процессор с отдельной памятью — и этот процессор не нуждается ни в сегментной/страничной защите памяти, ни в FPU (плавающей арифметике). Заодно обеспечивается защита от ряда вирусных атак.

3) Выпустил бы собственную операционку — как DEC, Sun, Apple. Связка «процессор + операционка, разрабатываемые в одной фирме» даёт намного больше гибкости при выборе путей развития.
1. Во время 80286, интел был не лутшим ни по производительности ни по цене\качеству. А вот совместимость с тонами софта почти убила конкурентов (к стати они были РИСК).
2. Почти так, всего лишь на уровень ниже, и есть уже давно. Но с указанным вами уровнем интерфейса с перефирией проблем больше чем с всякими NUMPS и другими архитектурами. И я не помню OS, которая бы выносила часть себя в гетерогенную среду. С другой стороны, если прыгнуть еще на уровень выше — то таких решений «мульен», но при чем тут интел?
3) Слава богу, что этого не произошло. (мо' седалище еще помнит ужас под названием DEC OSF/1, загрузочные флоппи SCSI в SUN и прочий ужас). В тоже время Intel всегда віпускала оптимизирующие компиляторы, когда BPF на MS VC работал в 50 раз медленнее, чем тот-же код скомпилированый в интел)
1) 80286 был просто дешевле всех этих RISC, т.к. у систем на базе RISC ценник был вообще конский. Ну, не догадывались производители, что в линейке обязательно надо иметь дешёвые машины — чтобы люди могли попробовать.

А так по факту получилось вот что:
Было много людей, которые интересовались компьютерами. По деньгам им были доступны либо 80286; либо совесем уж неприличные восьмибитные компьютеры, причём с разными игровыми наворотами, совершенно не нужными в работе (итипа аппаратной поддержки спрайтов).
Поэтому на рынке труда оказалось много людей с опытом работы на 80286 (как с аппаратурой, так и с программами для этой платформы). А для RISC-систем не было ни работников, ни программистов.

2) Я не понял, что Вы говорите про уровни.

В гетерогенную среду выносили себя IBM'овсике мэйнфреймы. Странно, что Вы про это не в курсе.

Также гетерогенной средой можно считать Acorn'овские восьмибитные машины при подключении (кабелем типа IDE, с похожими разъёмами, но шире) к системному блоку дополнительной коробки со своим процессором и памятью. Приложения и часть операционки работали на дополнительной коробке; а графика, сеть Econet и файловая система (локальная или сетевая) работала на основной коробке.

И наконец, Novell предлагала что-то типа гетерогенной среды, где файловая система жила на сервере, а всё остальное на раб.станциях. Однако, т.к. Novell ориентировалась на писюки — то это работало исключительно плохо, потребность в локальном диске никуда не девалась.

Intel же тут осталась действительно ни при чём. И это как раз одно их её неправильных решений, затормозивших развитие всей отрасли.

3) Не знаю, что Вас напрягало в DEC OSF/1 — ибо не имею опыта в этой области.

Заточенность Sun на SCSI — была одной из причин конского ценника и далее, как я расписал, проигрыша этой корпорации на рынке.

Что же касается бутявок — то вообще-то, грузить Sun можно было с CD-ROM.
А по хорошему — операционку надо было зашивать в ПЗУ, это дало бы огромное преимущество на рынке. И не нужно никаких бутявок.

Сентенции про оптимизирующий компилятор — я не понял, о чём это Вы вообще.
На Маках часть операционки была зашита в ПЗУ. Удобно? Ремонтопригодно? Переносимо?

Как раз наличие кода XIP (execute-in-place, без загрузки в ОЗУ) затрудняло разработку низкоуровневого софта под всякие Win-Mobile коммуникаторы.
Зашивание части операционки в ПЗУ — не просто бесполезно, это крайне вредно. В ПЗУ надо зашить или полностью функциональную операционку, чтобы система могла работать (подключиться к сети и брать программы с сервера), даже если HDD накрылся; или зашивать в ПЗУ самый минимум, чтобы систему можно было легко модифицировать.

При нормально спроектированной системе — нет разницы между кодом, зашитым в ПЗУ, и кодом, загружаемым (с любого носителя) в ОЗУ. Потому что есть возможность «перехватить вектор» — и обрабатывать события другим кодом.

Впрочем, «Win-Mobile» и «нормально спроектированная система» — это что-то такое, что рядом не бывает.
Ну п. 2 сейчас итак во всей красе. В тех же SSD, да и не-SSD дисках давненько уже вполне себе нормальные процессоры управляют происходящим.
Второй пункт — никак не во всей красе, а крайне хило и убого. И SSD, и HDD, и RAID-контроллер — тупо эмулируют «однородный набор секторов с линейной адресацией». А надо — отдавать наружу не набор секторов, а файловую систему.

По причине потребности в RAID-массивах — отказываться от классических дисков не следует. Функциональность файлового сервера надо возложить на RAID-контроллер.
Впрочем, для дисков, которые планируется использовать автономно (не в составе RAID-массива) — можно предусмотреть и работу в режиме файлового сервера.

PS: Я не понимаю здешней привилегированной публики, имеющей право ставить оценки. Они минусуют без объяснений, что же им не нравится. Такое ощущение, что ничтожные люди, просравшие всё iRL, реализуют таким образом свои комплексы.
Вы неправы, я немного касался темы контроллеров внутри SSD, в основном там происходит нечто не особо тривиальное, и основные конкуренты это даже не документируют, как какую то военную тайну. По большей части это для того, что бы SSD не стирались слишком быстро.
Извините, повангую.
основные конкуренты это даже не документируют

Вот вероятно ключевое различие от предлагаемого выше. Т.к. «кишки» не документированы, то снаружи оно остается просто «блоковым устройством» и при появлении новой файловой системы приходится делать «слой» совместимости в виде драйвера. А в предлагаемом варианте как я понимаю туда можно было бы загрузить новую прошивку при старте системы с нужной файловой системой. Или даже записать ее во флэш на постоянно. Но боюсь это не достижимая мечта — если такую архитектуру реализует одна компания, то маркетологи непременно «удешевят» и «оптимизируют» чтоб конкуренты «не догадались» выпускать свои прошивки/модули. А если компаний несколько, то привет несовместимость и патентные войны. Собственно, удивительно, как та же участь не постигла рынок ПК до сих пор. Но попыток уже сделана масса в эту сторону.
Скрывают алгоритмы, которые используют для повышения продолжительности жизни, они очень косвенно относятся к файловым системам. И SSD — это внешнее устройство, которое поставляет множество производителей, так что прослойка из драйверов будет существовать всегда. Если переложить ответственность за это на разработчиков ОС, то скоро монополия будет не только на рынке процессоров и видеокарточек, но и на рынке SSD.

То, что HDD/SSD имеют внутри себя нехилый интеллект, призванный улучшить скорость и надёжность — я в курсе.


Но мне не нравится совершенно другое:
Драйвер файловой системы (т.е. программа, преобразующая "запросы к файлам" в "запросы к диску") — выполняется на центральном процессоре. Ибо:


  • Драйвер файловой системы не нуждается в FPU и ряде других вещей. Глупо выполнять его на заведомо избыточном процессоре.
  • Драйвер файловой системы имеет смысл вынести в отдельную память. И даже не в одну, а в несколько: быстрая память для оперативной работы, медленная память большого объёма для кэширования диска. Раздельные шины к разным пулам памяти — повысят скорость работы.
  • Раздельная память у разных процессоров — понизит опасность уязвимостей типа Meltdown. Собственно, процессор файловой системы вообще не нуждается в сегментной/страничной защите памяти — ибо выполняет только одну программу, компоненты которой доверяют друг-другу (а сейчас эти компоненты просто живут в общем пространстве ядра).

Отвечаю комментаторам выше:
Несовместимости и монополии не будет. Будет один протокол файловой системы — например, NFS или типа того. И скорее всего — открытый, ибо диски с закрытой файловой системой вряд ли кто-то купит. Да и скрыть протокол файловой системы нереально — ведь клиент выполняется на CPU, где он доступен для реверс-инжниринга.

А, теперь, кажется, понял Вашу затею. Но мне не кажется, что в ней есть смысл — вроде никто в драйвер файловой системы не упирается, или я не прав?
ZFS спрашивает: «Как это не упирается???».

Дело в том, что новая файловая система д.б. сильно не такой, как нынче. В частности, надо объединить RAID и FS.

Рассмотрим RAID-0. Говорят, он быстрее, чем просто диск? А вот фиг!
Если маленький файл попадает на два физических диска (пересекает границу чередования), то среднее время на его чтение будет не пол-оборота диска, а две/трети. И при этом — если один диск сломается, то будут утрачены все данные.

А если мы объеденим RAID и FS?
Сначала — маленькие файлы ложатся строго на один диск. Т.е. они и читаются быстрее, и при поломке одного диска утрачивается только половина файлов.
Для больших файлов — можно выбрать между скоростью и надёжностью.
А ещё — мы получаем полную свободу в выборе между RAID-0 и RAID-1 (а если дисков больше — то и все остальные варианты). Теперь каждому файлу мы можем назначить варианты «лежать строго на одном диске», «растечься по дискам» или «продублироваться на двух дисках».

Так что Вы там говорите — «не упирается»?

Дальше: Я не собираюсь ускорять файловую систему. Я собираюсь снять её с явно избыточного для этой задачи CPU и передать на процессор без FPU.

И наконец: Мы делаем это не столько ради скорости, сколько ради безопасности. Отдельную память — Meltdown не достанет.

PS: А сетевой процессор — разве не упирается? Особенно фильтрация пакетов?
А если мы объединим RAID и FS?
А если мы реализуем RAID на уровне драйвера/приложения и будем гонять это на CPU? Я не разбираюсь в этом, но Вы вроде не особенно сложную в вычислительном плане логику описали.
Если маленький файл попадает на два физических диска (пересекает границу чередования), то среднее время на его чтение будет не пол-оборота диска, а две/трети.
Не понял, почему.
Дальше: Я не собираюсь ускорять файловую систему. Я собираюсь снять её с явно избыточного для этой задачи CPU и передать на процессор без FPU.
Да ладно Вам, CPU избыточен практически для всех задач, которые он выполняет, если не вообще для всех. Но это же не повод под каждую задачу проектировать и печатать отдельный чип.
И наконец: Мы делаем это не столько ради скорости, сколько ради безопасности. Отдельную память — Meltdown не достанет.
Ну диски как раз созданы для того, что бы доставать из них данные, или Вы не про то?
PS: А сетевой процессор — разве не упирается? Особенно фильтрация пакетов?
Предлагаете фильтровать пакеты на стороне сервера?))
А если мы реализуем RAID на уровне драйвера/приложения и будем гонять это на CPU?
Ну, такое давно уже есть; однако, есть проблемы:
1) RAID и FS — это два разных слоя/уровня абстракции. И это плохо, неэффективно — их давно надо сливать в нечто единое.
2) Meltdown как бы намекает: крайне неразумно держать данные в одной памяти. Вынос драйвера файловой системы (а значит, и дискового кэша) на отдельный процессор — позволяет вынести это на отдельный пул памяти.
3) Разнесение задач по отдельным процессорам, имеющим собственную память — позволяет «расшить бутылочное горлышко» в виде шины «процессор-память». В частности, это снизит потребность в кэше процессора — а это основной источник дороговизны и перегрева.
4) Глупо загружать этой работой процессор, имеющий FPU.

Я не разбираюсь в этом, но Вы вроде не особенно сложную в вычислительном плане логику описали.
Прочитайте про требования, которые предъявляет ZFS к процессору и памяти. Они непомерные — впрочем, от Sun это ожидаемо.

Для конкретно ZFS — я бы разработал действительно отдельный тип процессора, имеющий 128-битные регистры данных. Регистры адреса — можно оставить 64-битные, а в ряде случаев вообще 32-битные (это если собственная память такого процессора, в т.ч. кэш диска — не более четырёх гигабайт: для относительно слабых компьютеров).

Если маленький файл попадает на два физических диска (пересекает границу чередования), то среднее время на его чтение будет не пол-оборота диска, а две/трети.
Не понял, почему.
А что именно Вы не поняли? Перечислю мои утверждения:
* Маленький файл обычно считывается целиком (в т.ч. по соображениям упреждающего чтения).
* Операция считывания маленького блока с HDD (если этот блок не в кэше) тратит основное время на ожидание прихода нужного сектора под головку.
* Т.к. операция чтения приходит на HDD в случайный момент времени — то время ожидания равно половине оборота диска.
* В случае чтения с двух дисков — мы должны дождаться завершения обеих операций. Т.к. диски вращаются с нестабильной скоростью (у них физически нет синхронизатора, скорость должна поддерживаться примерно постоянной, но может гулять в пределах пары процентов), то надо взять двойной интеграл «интеграл от 0 до 1 dx интеграл от 0 до 1 dy от функции max(x,y)» = 2/3 (Вы можете сами проверить, правильно ли я интегрирую).

Ну или дайте Вашу оценку — сколько времени надо ждать чтения с обоих дисков.

Да ладно Вам, CPU избыточен практически для всех задач, которые он выполняет, если не вообще для всех. Но это же не повод под каждую задачу проектировать и печатать отдельный чип.
Ну, не под каждую задачу. Но под разные задачи хорошо бы иметь разные чипы. В первую очередь разделить их на «имеющие FPU» и «без FPU».

И наконец: Мы делаем это не столько ради скорости, сколько ради безопасности. Отдельную память — Meltdown не достанет.
Ну диски как раз созданы для того, что бы доставать из них данные, или Вы не про то?
Я тут — про дисковый кэш, в котором содержатся данные разных задач. Этот кэш = собственность ядра, поэтому лучше отделить его от задач.

Возьмите HDD, посмотрите на его брюхо — там есть микросхема RAM (очень редко — две микросхемы). Увидеть их несложно, если есть опыт копания в потрохах компьютера. Я предлагаю ещё больше развить этот принцип.

А ещё своя память есть на RAID-контроллерах. Тут рука сама тянется перенести на такой контроллер ещё и файловую систему.

Предлагаете фильтровать пакеты на стороне сервера?))
Ну, в организациях пакеты действительно фильтруются на Firewall/Proxy-сервере, отделяющем локальную сеть от внешнего мира. И это правильно.

Но рассмотрим сервер. В серверах обычно ставятся дорогие сетевые карты — для того, чтобы больше работы выполнять там, а не в драйвере; чтобы разгрузить CPU. Вот это я и предлагаю усилить.

Однако, усиление — нетривиальная задача. Например, потому что в компьютере м.б. несколько сетевых карт — а фильтр часто требует принимать решение на одной сетевой карте, учитывая историю прохода пакетов по другой сетевой карте. Поэтому сетевые карты должны взаимодействовать довольно хитро.
А ещё сетевым интерфейсом м.б. USB-устройство, модем на COM-порту и много чего ещё. так что тут всё сложно — но разрулить это вполне реально.
Несовместимости и монополии не будет.

Оно было бы так, если бы проектировалось заранее одной компанией как в свое время сделал IBM на свою голову с pc. С тех пор не сильно много желающих повторять это, т к это не приносит денег (приносит косвенно через известность, но менеджерам милей именно купюры и побыстрее ) Существующая ситуация с архитектурой с тех пор просто развивается экстенсивно и хаотично — с боков пристраиваются новые блоки сохраняя частичную совместимость. Опять же потому что именно так быстрее всего получить выгоду и шансов провалится меньше.
Ну, вообще-то, PC — это не отдельный протокол общения компьютера с устройством. Это — законченное устройство, в котором изначально было много протоколов (правда, гораздо меньше, чем сейчас — навскидку могу назвать ISA для общения с памятью и платами расширения, а также FDC-FDD; HDD в первых PC не было).

Вообще, надо понимать, что PC — это сугубо коррупционный проект, через который деньги из IBM были перекачаны в MS. Так что это совершенно нехарактерный пример.

Смотреть надо в сторону IDE/ATA/SATA, SCSI, USB и прочих интерфейсов взаимодействия компьютерных компонентов. Сумели же производители договориться — по той простой причине, что если из нескольких производителей двое договорятся, а остальные договариваться не станут, то потребители, скорее всего, выберут более распространённый вариант. Т.е. как только образуется консорциум из хотя бы двух крупных производителей — к нему устремляются все остальные.

Ну или может получиться как уже не раз было: MS создаёт протокол, а производители начинают его поддерживать. Например, такое было с интерфейсом к мыши, подключаемой через COM-порт. Ещё есть какой-то протокол, позволяющий просматривать содержимое накопителей, подключаемых через USB, через Проводник, как файловую систему; но не дающий работать с файлами как обычно; названия я что-то не нашёл, хотя читал.

По этой схеме внедрить протокол может Google — просто внедрив его как основной протокол общения компьютера с устройствами на базе Android. Но это относится к работе поверх USB; а мы тут обсуждаем что-то на уровне общения процессора с платой расширения.

Либо возможен вариант как с TCP/IP — когда протокол внедряется даже несмотря на противодействие MS.
PC — это сугубо коррупционный проект

Впервые слышу такое высказывание. Я конечно не профи в истории развития PC но насколько я помню на компоненты все было разделено еще до МС
потребители, скорее всего, выберут более распространённый вариант.

Они выберут то что дешевле (и таких примеров полно) А дешевле будет то, во что вложено меньше времени включая время на разработку и согласование стандартов.
MS создаёт протокол, а производители начинают его поддерживать.

Может Но это означает ровно то что монополист уже есть — МС. Протокол будет покрыт «ковровыми» патентами и производители помельче его не поддержат.
В целом случится может все что угодно, но есть события наиболее вероятные и с меньшей вероятностью. И мне видится что наиболее вероятно что каждый производитель хочет дуть на свою мельницу.
Я не понял, при чём тут «на компоненты все было разделено еще до МС». Аппаратное устройство в виде «мат.плата + вставляемые в гнёзда микросхемы + платы расширения» диктовалось тогдашним уровнем технологий — ну, не могли запихнуть всю функциональность в пару мостов.

Коррупционность проекта PC — в том, что IBM сама своими руками слила свои затраты на разработку в public domain — и этим создала рынок для DOS. Т.е. расходы возложили на IBM (т.е. на акционеров), а прибыль получал Билл Гейтс.
К аппаратному устройству PC это практически никак не привязано.

Что выбирают пользователи — сложно сказать. Например, некоторые выбирают дорогой iPhone, а некоторые — ещё более дорогой Vertu.
Корпоративные клиенты выбирают то, что имеет поддержку — типа решений от HP. А это — недешёвое решение.
Либо клиенты выбирают то, что широко представлено на рынке и имеет совместимость — чтобы вложенные средства не обнулились при поломке одного из компонентов.

Когда MS покрывает своё решение патентами — обычно это решение накрывается афедроном. Например — MSN (та, которая продвигалась как альтернатива Интернету).

Разумеется, каждый производитель хочет дуть на свою мельницу. Но внезапно выясняется, что дуть совместно — выгоднее.
Возьмите хотя бы смартфоны: почему-то все производители дуют на мельницу Гугла. А Гугл собирает с них небольшую денюжку, зато «двадцать старушек = рупь».

Т.е. если MS покроет своё решение патентами — то Google, Amazon, FB или Илон Маск выпустит альтернативное решение. А может, альтернативное решение выпустит консорциум из Samsung, Sony и кого-то там ещё (надо бы посмотреть, кто сейчас выпускает дисковые и флешные накопители — но мне лень смотреть).
И если это решение будет продаваться производителям за недорого (в случае, если это сделает Google, не имеющий своих производственных мощностей) — то оно убьёт мелко-мягкое решение. И решение от консорциума производителей накопителей — тоже будет достаточно конкурентоспособно.

Есть вариант захода таких решений на рынок — через Linux, смартфоны, серверные решения.
Да что я тут рассказываю? Существуют «дисковые полки» для систем хранения данных — они могут работать как простой диск (RAID-массив) или как файловый сервер по NFS или SMB. Осталось сообразить что такое решение можно продвинуть и на персональные компьютеры.
Аппаратное устройство в виде «мат.плата + вставляемые в гнёзда микросхемы + платы расширения» диктовалось тогдашним уровнем технологий — ну, не могли запихнуть всю функциональность в пару мостов.

Вполне могли не делать стандартов. Мотив разделения был другой — они хотели как раз то что вы описываете: дать возможность участникам рынка выпускать свое железо для их платформы. Но «перестарались» — это вышло из под их контроля. А Бил просто успел вовремя подсуетиться. И я этот случай рассматриваю скорее как исключение чем как правило.
Корпоративные клиенты выбирают то, что имеет поддержку

Именно потому что так дешевле.
Когда MS покрывает своё решение патентами — обычно это решение накрывается афедроном.

Так происходит именно потому что для MS это выгоднее — они выпустят и продадут новое и им никто не помешает. Не будет на рынке компаний которые будут еще 10 лет поддерживать продукт который МС решил «завалить»
Т.е. если MS покроет своё решение патентами — то Google, Amazon, FB или Илон Маск выпустит альтернативное решение.

И будут судиться как это сделал google c андроид (oracle vs google)
Существуют «дисковые полки» для систем хранения данных — они могут работать как простой диск (RAID-массив) или как файловый сервер по NFS или SMB.

Но обновлением прошивки то в этих решениях занимается именно производитель и только он (если там конечно не стандартный линукс, но тогда скорее всего все печально с производительностью ибо плохо поддерживается железо)
Вполне могли не делать стандартов.
Если система планируется для долгой жизни — невозможно не стандартизировать какие-то интерфейсы. Благо значительная часть их была взята их прежних разработок, где всё было стандартизировано.
И более того: многие компоненты выпускались сторонними фирмами. Это невозможно без стандартов.

Мотив разделения был другой — они хотели как раз то что вы описываете: дать возможность участникам рынка выпускать свое железо для их платформы.
Мотив разделения был — создать рынок для Билла Гейтса.

Так происходит именно потому что для MS это выгоднее — они выпустят и продадут новое и им никто не помешает.
Но сначала — MS не сможет продать старое, покрытое патентами.

Но обновлением прошивки то в этих решениях занимается именно производитель и только он (если там конечно не стандартный линукс, но тогда скорее всего все печально с производительностью ибо плохо поддерживается железо)
Кажется, Вы не поняли, о чём я говорил. А говорил я — про то, что предложенное мной решение уже реализовано.

А что значит «плохо поддерживается железо» в отношении HDD и SSD, которые суть закрытые системы со стандартным интерфейсом?
невозможно не стандартизировать какие-то интерфейсы.

Ну ок Могли не публиковать даже если и сделали т к могли догадаться к чему это приведет.
Мотив разделения был — создать рынок для Билла Гейтса.

Википедия все же ставит в качестве инициатора саму IBM:
«На том этапе развития фирма IBM не придавала большого значения персональным компьютерам, поэтому в IBM PC было использовано много «чужих» компонентов[Источник 5]. Поэтому когда в начале 1980-х корпорация IBM разработала IBM PC, она начала искать для него программное обеспечение. Сотрудники IBM связались с Биллом Гейтсом, чтобы получить лицензию на право использования его интерпретатора языка Бейсик. Они также поинтересовались, не знает ли он операционную систему, которая работала бы на IBM PC.» Т е IBM обратился к Билу с вопросом, а не Билл предложил «А давайте туда MS воткнем!» Возможно это не так, но я не вижу никакой разницы на самом деле. У IBM были и свои продукты — могли их использовать, но посчитали что с Билом будет быстрее и проще.
Но сначала — MS не сможет продать старое, покрытое патентами.

Не разу не видел что бы МС что то не смогла продать )
решение уже реализовано.

Ну ок. Тогда в чем новизна предложения? Я же вам хочу сказать что одно дело сетевое хранилище и совсем другое — самостоятельные компоненты внутри одной коробки. Да и с дисковыми массивами, если я правильно понял ваш первый пост, это не совсем то что описывалось. И пока внутри коробки лучшее чего удалось достичь человечеству на протяжении последних 40 лет — это стандартизация некоторых (не всех) протоколов. Вам не кажется, что наверное есть причины такого положения вещей? Я вижу причину в том, что конкуренция и жажда быстрой прибыли в сумме, не дает договориться участникам рынка. И поскольку перемен в ближайшее время ждать не стоит, то не вижу причин для изменения ситуации.

А что значит «плохо поддерживается железо» в отношении HDD и SSD

Имелся в виду raid и его контроллеры. Или вы предлагаете использовать soft raid? Производители плат контроллеров вполне себе выпускают закрытые драйвера и для linux, которые естественно не идут не в каких дистрибах по умолчанию. А если там железка посложнее чем 1+0, то вполне могу представить ситуацию что не встанут вообще на мэинстрим дистрибы. А встанут только на что то патченное тем же производителем.
Ну ок Могли не публиковать {интерфейсы} даже если и сделали {их} т.к. могли догадаться к чему это приведет.
Я думаю, в IBM прекрасно знали, к чему приведёт публикация интерфейсов без защиты их патентами. И специально стремились к этому результату.

Невозможно не публиковать интерфейсы, если разработка устройств с этими интерфейсами поручается ситоронним фирмам. Собственно, механизм патентования был придуман как защита изобретателей/разработчиков — для таких случаев, когда защита через know-how приводит к замедлению прогресса.

Википедия все же ставит в качестве инициатора саму IBM
А Вы думаете, Википедия (или любой источник, на который может сослаться Википедия) скажет Вам правду о том, что было до того официального обращения? Вообще-то такие обвинения — это подсудное дело; особенно в плане того, что все доказательства — абсолютно косвенные, никаких документов по факту коррупционных переговоров коррупцинеры не составляют и в мемуарах про это не пишут.

У IBM были и свои продукты — могли их использовать, но посчитали что с Биллом будет быстрее и проще.
Целевая функция корпорации — не «быстрее и проще», а «выгоднее». Договор с Биллом Гейтсом — был совершенно убыточен для IBM; а политика IBM в области hardware была ещё убыточнее.

Не разу не видел что бы МС что то не смогла продать )
Наверно, это потому, что на виду — то, что продаётся хорошо.
В качестве примера неудач — ну, MSN (та самая, которая рекламируется при установке W'95/98, если Вы имеете этот expirience и читали то, что там пишут; в Википедии — немного не про то). Система задумывалась как противодействие Интернету — и с треском провалилась. Правда, потом она была преобразована в Интернет-службу: т.е. модемный пул обслуживал стандартный доступ в Интернет (к серверам всего Интернета), а серверы стали предоставлять доступ от других провайдеров. Естественно, этот epic fail старательно замалчивают сторонники Билла Гейтса и почему-то крайне редко вспоминают его критики.
Другой пример — это виндофоны (смартфоны на базе W'Mobile и прочих). Они продаются, но со страшным скрипом. Более-менее успешными получились планшеты — и то при условии использования их с клавиатурой, т.е. в режиме ноутбука. Но это — за счёт дикого провала с W'10, которую приходится впихивать пользователям чуть ли не насильно — т.к. MS не может осилить разработку нескольких систем, а интерфейсы для мобильного устройства и для настольного компьютера требуют слишком разного.
Ещё был провальный продукт — Xenix.

Тогда в чем новизна предложения?
А какой уровень/глубину новизны Вы от меня хотите? Может, чтобы я разработал саму идею (типа «RAID-массив — объединяет диски и снаружи выглядит так, как будто это один диск большого объёма и/или высокой надёжности»), довёл эту идею до практический реализации (в т.ч. расписал там математику) и сам реализовал (т.е. изготовил хотя бы рабочий прототип)? Я такого не осилю!

Предлагаемая мной новизна:
* Я настаиваю на объединении RAID-массива с файловой системой: эти компоненты недопустимо держать в виде изолированных слоёв/уровней абстракции (по типу того, как кэширование диска давно «сплелось» с файловой системой, а то и СУБД; это особенно важно для транзакций).
* Я настаиваю на выносе этого на отдельный процессор с отдельной памятью — т.е. получится Soft-RAID (об этом — чуть ниже); но, в отличие от нынешних Soft-RAID, он не будет напрягать работой CPU. И процессор не должен иметь FPU.
* Я настаиваю на массовом применении этой схемы в серверах нижнего серверного сегмента (т.е. везде, где имеет смысл ставить несколько HDD), да и в мощных настольных компьютерах.

одно дело сетевое хранилище и совсем другое — самостоятельные компоненты внутри одной коробки.
Этого я не понял. Какая разница — внутри или снаружи корпуса?

Да и с дисковыми массивами, если я правильно понял ваш первый пост, это не совсем то что описывалось.
Простите — Вы просите новизну моего предложения, или наоборот — чтобы было в точности то, что уже реализовано?

И пока внутри коробки лучшее чего удалось достичь человечеству на протяжении последних 40 лет — это стандартизация некоторых (не всех) протоколов.
Э-э-э… Вообще-то, стандартизация протоколов гораздо важнее не внутри коробки, а снаружи — например, сетевые протоколы. Внутри коробки менять стандарты намного проще — взять хотя бы шины (ISA-8, ISA-16, MCA, EISA, VLB, PCI, AGP, PCI-64, PCI-X, и я наверняка что-то упустил), стандарты памяти (FPM, EDO, SDRAM, RAMBUS, DDR-1/2/3/4, и я опять наверняка что-то упустил — особенно то, что было совсем давно), форм-факторы (AT, ATX), сокеты процессоров (лень перечислять, да и помню я их крайне плохо). Ещё примеры надо искать?
Наружние стандарты меняются гораздо реже: например, ISA исчезла из домашних компьютеров давным-давно (осталась только в промышленности), а COM/LPT-порты (которые по возрасту примерно такие же) до сих пор регулярно встречаются, хотя практически не используются.
С сетями мы видим тоже очень высокий консерватизм: Ethernet до сих пор готов поддерживать самые первые стандарты (10 Mbps, HalfDuplex), Интернет до сих пор готов обслужить клиента, знающего только самые первые реализации IP-стека. Тогда как пятидюймовую дискету Вы фиг прочитаете.

Вообще, стандартизация внутри коробки — затормозила развитие компьютеров лет на десять, а то и больше. И создала массу проблем — ибо эта совместимость также является совместимостью с вирусами.

Я вижу причину в том, что конкуренция и жажда быстрой прибыли в сумме, не дает договориться участникам рынка.
Как раз сговариваются участники рынка очень охотно — так, что антимонопольный комитет не успевает расследовать все заговоры корпораций против человечества.

Имелся в виду raid и его контроллеры. Или вы предлагаете использовать soft raid?
Мы говорим про SAN
или про писюково совместимый компьютер?

Я сильно подозреваю, что в SAN используется именно Soft-RAID. Правда, он не на писюковом процессоре, а на более подходящем для этой работы.
Потому что гибкость, требуемая от SAN, такова, то нужен именно Soft.

Производители плат контроллеров вполне себе выпускают закрытые драйвера и для linux, которые естественно не идут не в каких дистрибах по умолчанию.
Похоже, Вы говорите про писюки. Т.е. про компьютеры, архитектуру которых я как раз критикую и предлагаю альтернативу.

Я могу обсуждать в ходе одной дискуссии несколько тезисов параллельно — особенно с учётом того, что карма не даёт мне постить чаще одного раза в час (т.е. люди, которым я не понравился — препятствуют моему общению с людьми, общаться с которыми мне взаимно интересно). Однако, мне бы хотелось, чтобы в каждом абзаце у нас обоих (или сколько там будут участвовать в дискуссии) было чёткое представление о том, какой именно тезис мы обсуждаем.

Т.е. если мы обсуждаем писюковую архитектуру — то надо чётко указать, что фраза «производители плат контроллеров» относится к платам для писюков, а не для SAN.
А архитектура софта для SAN — вообще сложная тема, там и аппаратная архитектура может сильно отличаться от писюковой. Т.е. софтина для SAN или аналогичной железяки (например, для роутера) может иметь в себе компоненты для выполнения на разных процессорах.

Впрочем, во FreeBSD есть специальная папочка для загрузки FirmWare. Т.е. для некоторых плат расширения — операционка должна содержать компоненты для периферийных процессоров.
А ещё я могу вспомнить программы, которые вычисляют что-то на видеокарты (самый известный класс таких программ — это майнеры криптовалют). Тут компоненты для разных процессоров имеет не операционка, а прикладная программа.

Т.е. то, что я предлагаю — это вовсе не terra incognita, это вполне разведанная «поляна». Осталось собрать известные разработки и довести их до ума.
Я думаю, в IBM прекрасно знали, к чему приведёт публикация интерфейсов без защиты их патентами.

Вы слишком хорошо думаете о менеджерах. Они понятия не имели какого джина выпускают. Я уж не помню где, но читал «признание» от того кто там принимал решение что получилась палка о двух концах когда ожидался только один — захват рынка. Рынок то захватили, но тут же и упустили.
никаких документов по факту коррупционных переговоров коррупцинеры не составляют

Ну тогда нам ничего не остается как остаться кажды при своем мнении. Я не приписываю злого умысла там где все можно объяснить обычной глупостью.
не «быстрее и проще», а «выгоднее».

Я конечно могу представить что в каких то ситуациях «сложнее и дольше» будет выгоднее но вот в ситуации ibm как то не могу и потому считаю что «быстрее и проще» == «выгоднее»
Система задумывалась как противодействие Интернету — и с треском провалилась. Правда, потом она была преобразована в Интернет-службу

Я об том и говорю — они успешно закрывают заваливающийся продукт, переименовывают, чуть подкрасят и под этой свежей краской опять на поля его выкатывают с новыми агитками. По винфонам — у меня такое впечатление что и не стремились конечникам их продавать. Прицел был на бизнес-пользователей. Сколько туда продали и окупилась ли покупка нокии и разработка стопятьсот версий винмобайл — без понятия.
А какой уровень/глубину новизны Вы от меня хотите? Может, чтобы я разработал саму идею (типа «RAID-массив — объединяет диски и снаружи выглядит так, как будто это один диск большого объёма и/или высокой надёжности»), довёл эту идею до практический реализации

Да нет — я понять ваше предложение до сих пор до конца не могу. Да Я знаю что есть SAN и что есть несколько стандартных протоколов уже достаточно старых кстати. Так что еще?
Я сначала думал что предложение состоит в том что бы частично разгрузить cpu за счет выгрузки задач на другие части системы но это бы означало ровно две вещи: это осуществимо только внутри ограниченного пространства, т к нужны высокие скорости передачи и второе — нужны стандарты. От этого я и отталкивался в своем первом комментарии.
А ещё я могу вспомнить программы, которые вычисляют что-то на видеокарты

Ну с простыми вычислениями все понятно и для этого решение есть и не только видеокарты. Так тогда в чем же идея?
Вообще, стандартизация внутри коробки — затормозила развитие компьютеров лет на десять, а то и больше.

Ну за то есть развитие софта — опять же все в сравнении познается А у нас нет возможности посмотреть что было бы если бы не эта стандартизация. Вот моя мысль тут такая — поскольку опенсоурс развивается медленно то до его зрелости под каждую новую архитектуру пришлось бы все переписывать. С другой стороны — может тогда он развивался бы быстрее.
карма не даёт мне постить чаще одного раза в час

Ну я сюда что то стал редко заходить — много политики, мало интересного. Так что одного раза в неделю — достаточно )
Кстати еще чуть про видеокарты — там интересная ситуация. NVIDIA как лидер направления категорически не хочет полностью переходить на открытый opencl (ну или новый стандарт — vulkan) оставляя за собой право внедрять любые фишки и ограничения какие им вздумается. Естественно есть их CUDA но это весьма закрытая система (не говоря уж о патентах)
Вы слишком хорошо думаете о менеджерах. Они понятия не имели какого джина выпускают.
Менеджеры пошли вразрез с традициями. Зачем им это было нужно, если не для коррупции?

Я конечно могу представить что в каких то ситуациях «сложнее и дольше» будет выгоднее но вот в ситуации ibm как то не могу и потому считаю что «быстрее и проще» == «выгоднее»
IBM всегда делала и до сих пор делает деньги на «сложнее и дольше». В случае с IBM PC — именно «быстрее и проще» привело IMB к коммерческому провалу. Ещё и всему миру огромную заподлянку сделали.

Да нет — я понять ваше предложение до сих пор до конца не могу. Да Я знаю что есть SAN и что есть несколько стандартных протоколов уже достаточно старых кстати. Так что еще?
Я предлагаю ставить что-то типа SAN в каждый компьютер.

Я сначала думал что предложение состоит в том что бы частично разгрузить cpu за счет выгрузки задач на другие части системы
Да, но не только это. Я также предлагаю ставить много процессоров, и у каждого — своя память.

это осуществимо только внутри ограниченного пространства, т к нужны высокие скорости передачи
Скорость и дальность SATA — вроде, как раз подходят. Но если вместо гибкого кабеля сделать жёсткую шину — то можно ещё в разы быстрее.

и второе — нужны стандарты
Да, их надо создавать. Потому что нынешние стандарты отягощены навозом типа ACPI.

Ну за то есть развитие софта — опять же все в сравнении познается А у нас нет возможности посмотреть что было бы если бы не эта стандартизация.
Уж не хотите ли Вы сказать, что до появления IBM PC софт не развивался?

поскольку опенсоурс развивается медленно то до его зрелости под каждую новую архитектуру пришлось бы все переписывать.
У меня ощущение, что Вы вообще не знакомы с устройством Unix. Обратите внимание на то, как успешно он портируется на всё подряд.
Менеджеры пошли вразрез с традициями. Зачем им это было нужно, если не для коррупции?
Прям «бритва Мицгола», только про коррупцию. Вариант «хотели завоевать рынок чужими руками» — не подходит?
Вариант «хотели завоевать рынок чужими руками» мог придумать только последний идиот, ибо после того, как кто-то другой завоюет рынок, его с этого рынка ещё надо будет выгнать.

На эту проблему давным-давно нарвались бритты, пригласившие саксов; и потом — поляки, пригласившие германских рыцарей (сведения — из статьи А.Сапковского «Мир короля Артура»). Правда, там завоёвывали не рынок, но проблема та же самая.
после того, как кто-то другой завоюет рынок, его с этого рынка ещё надо будет выгнать.
Не «кто-то другой», а вы. Как Убер, завоевавший рынок перевозок руками частных водителей.

Uber, как раз, завоёвывал рынок принципиально иначе. Если уж сравнивать — то Uber в плане политики больше похож на ARM.


Итак, вспоминаем, как это было:


  • IBM разрабатывает архитектуру компьютера до деталей, позволяющих практически кому угодно (ну, не людям, но корпорациям — но весьма некрупным) создавать свои компьютеры или детали. И ничего не патентует, а отдаёт все разработки в public domain.
  • ARM разрабатывает архитектуру процессора, публикует внешний интерфейс (набор команд и вид электрических сигналов) и защищает всё патентами. Любой желающий может производить такие процессоры — но надо купить лицензию у ARM. А т.к. внутренние детали реализации не раскрываются — то ARM принуждает производителей заказывать ещё и разработку процессора (под конкретную задачу — т.е. контроллер памяти, сетевые интерфейсы и всё такое прочее) в ARM, за что получает дополнительные деньги.
  • Uber разрабатывает серверные и клиентские программы. Интерфейсы не раскрываются, ибо нефиг. Про патентную защиту не знаю — вполне возможно, что-то было запатентовано. Но Uber однозначно принуждает водителей и клиентов общаться через неё и платить ей десятину долю.

Как мы видим, IBM действовала совершенно не как Uber. И не как она сама (IBM) привыкла действовать.
IBM в своём стиле — это "IBM PS/2 с шиной MCA" и "OS/2". Вот тут IBM работала как полагается, на свою выгоду.
А в случае "IBM PC" — чётко видно, что менеджеры задействовали ресурсы конторы таким образом, что сама контора пролетала мимо прибыли.

А все коммерческие компании, которые сейчас опенсорс разрабатывают — они тоже «задействуют ресурсы конторы таким образом, что сама контора пролетает мимо прибыли»? Вот, например, MS c VS Code и прочим OSS?
Вы фееричны. Вы просто незабываемо фееричны.

Вот смотрим на Uber. Её сотрудники не возят пассажиров. И сами не являются пассажирами (ну, разве что изредка). Uber работает в связке с водителями и получает прибыль с пассажиров.

Смотрим на ARM. ARM делает архитектуру процессора (т.е. чертёж, технологическую схему), а заказчик сам (или не сам, а на третьей фирме) изготавливает процессор, вставляет/впаивает его в плату и продаёт клиентам.

В обоих случаях — контра делает часть работы, за которую получает часть того, что платит юзер. А другие делают другие части работы. Юзер же готов платить только за законченное изделие.
Всё очень просто, даже элементарно.

Какова роль IBM в Linux? IBM тратит какие-то свои ресурсы на допиливание Linux — в основном на адаптацию Linux к своим машинам и к своим задачам. Потом IBM делает компьютеры и продаёт их — и на этом зарабатывает. А Linux тут — это такая деталь компьютера, без которой компьютер продать невозможно.

А что было с IBM-PC? Там IBM потратила деньги на разработку, выпустила спецификацию, не защитила ничего патентами. Т.е. сама создала питательную среду для конкурентов.
Может, IBM планировала получать лицензионные отчисления? Очевидно, что нет.
Может, IBM планировала продавать программы для IBM-PC? Нет — программы продавал Билл Гейтс.
Простите, а на чём же IBM планировала получать прибыль? Если на продаже компьютеров — то зачем впустила туда конкурентов, причём бесплатно?

Попробуйте смотреть на ситуацию внимательно. Постарайтесь учесть все значимые факторы.
Я, знаете ли, не идеален. Может, я что-то пропустил?
Может, пиар? Ну, точно нет — тогда IBM в пиаре не нуждалась.
Ну так где же планировалась прибыль?

Про MS c VS Code и прочим OSS я ничего не скажу. MS в последнее время вообще ведёт себя странно и нелогично.
Возможно, MS пытается пиарить себя через OSS. В отличие от IBM — ей это реально нужно. Хотя метод — негодный.
А что было с IBM-PC? Там IBM потратила деньги на разработку, выпустила спецификацию, не защитила ничего патентами. Т.е. сама создала питательную среду для конкурентов.
Конкурентов на несуществующем рынке? Вы серьёзно? Не было тогда того рынка, который возник после этих их действий. Вы смотрите на эти действия с позиций пост-знания, постиндустриального мира, и проклятие знания мешает вам понять, что тогда это не было очевидно, что произойдёт всё именно так.
IBM PC вообще никто не предрекал большого будущего — у проекта были сжатые сроки и бюджеты, поэтому строился он на уже готовых, в основном, сторонних компонентах, и собственно IBM'овского там было только 10%.
А что она опубликовала из того, что было их? Спецификации для подключения сторонних компонентов. Которые и так были сторонними, если что. И как это помогало конкурентам?
Вообще, забавно, конечно, что вы обвиняете в некомпетентности/откатах/распилах менеджеров, чей продукт принёс компании 4 миллиарда долларов выручки в одном только 1984 (и это при том, что в цену закладывалась себестоимость в 8 раз меньших объёмов, так что PC был для IBM очень выгодным), столько же, сколько выручили все четырём их ведущих конкурента на этом рынке вместе взятые. И это не считая положительного влияния на их основной бизнес мейнфреймов (а продажи PC составили всего 6% от всех доходов).
Конкурентов на несуществующем рынке?
Рынок — существовал и рос. Именно потому IBM туда и полезла, что рынок уже существовал.

Если рынка не было — то где же Билл Гейтс купил DOS?

Не было тогда того рынка, который возник после этих их действий.
После действий IBM действительно возник новый рынок. Ну или старый переформатировался.

Ибо до того — был рынок разнородных архитектур. А после — стал рынок одной архитектуры.

Вообще, неплохо было бы понимать, что в то время рынок персоналок был сегментированным. Т.е. если кто-то работал на компьютере одного типа, то он не мог так просто заменить его на компьютер другого типа — терялись все (ну, не все, но многие) программы, которые были главной ценностью. Это сейчас можно спокойно заменить компьютер Dell на компьютер Compaq.

А IBM, создавая открытую архитектуру — создавала конкурентов себе. Не Амиге, не Эпплу, не Акорну — а именно себе. И никакого пост-здания для понимания этого факта не требовалось.

А что она опубликовала из того, что было их?
Проблема не в публикации — а в отсутствии патентования. патент — это тоже публикация, но защищённая законом.

И как это помогало конкурентам?
Конкуренты выпустили свои версии компьютеров — и выкинули IBM с этого рынка.

Вообще, забавно, конечно, что вы обвиняете в некомпетентности/откатах/распилах менеджеров, чей продукт принёс компании 4 миллиарда долларов выручки в одном только 1984
Выручки или доходов? Расходы на содержание Билла Гейтса, на написание OS/2 — учитываем?

А главное — потом-то IBM ушла с этого рынка. И ушла явно не просто так — а с убытками. Ибо ничего, кроме убытков, не заставит фирму уйти с рынка.

И это не считая положительного влияния на их основной бизнес мейнфреймов
Как раз в долгосрочной перспективе — персоналки сильно ударили по рынку мейнфреймов.

Если же Вы знаете локальный всплеск рынка мейнфреймов под влиянием персоналок — то я радостно слушаю и жду пруфов.
Рынок — существовал и рос. Именно потому IBM туда и полезла, что рынок уже существовал.
Рынок ЧЕГО? IBM PC-совместимых компьютеров-то?
Если рынка не было — то где же Билл Гейтс купил DOS?
А это тут вообще причём? Что это за рынок, на котором компьютеры конкурируют с операционными системами?
А IBM, создавая открытую архитектуру — создавала конкурентов себе. Не Амиге, не Эпплу, не Акорну — а именно себе. И никакого пост-здания для понимания этого факта не требовалось.
Вот видите, сами же говорите — не было конкурентов, она же их создала. Притом, конкуренты эти занялись своим копирование именно из-за исключительной популярности платформы. Популярности, которой она (сюрприз, сюрприз!) обязана была именно открытости, которая привлекла к развитию платформы и её экосистемы невиданное доселе участие всей индустрии.
Т.е. если кто-то работал на компьютере одного типа, то он не мог так просто заменить его на компьютер другого типа — терялись все (ну, не все, но многие) программы, которые были главной ценностью.
Вот поэтому IBM сделала ставку на открытость и привлечение девелоперов — за первый же год существования на IBM PC появилось, по подсчётам PC World, 753 программных пакета — вчетверо больше, чем на Apple Macintosh.
Выручки или доходов?
Как вы интересно цитируете — обрезаете ровно на ответе на ваш вопрос. «Because its prices were based on forecasts of much lower volume … the PC became very profitable» (пруфлинки в Вики).
Конкуренты выпустили свои версии компьютеров — и выкинули IBM с этого рынка.
Ага, конкуренты, которых, правда, до выпуска PC не существовало. И, собственно, получи какой-нибудь Apple III такое же повсеместное распространение, не факт, что не появились бы точно такие же «Appleiii-совместимые» компьютеры от тех же компаний.
А главное — потом-то IBM ушла с этого рынка
Это через 20-то с лишним лет? Вы серьёзно?
Ибо ничего, кроме убытков, не заставит фирму уйти с рынка.
Недостаточная маржинальность — запросто.
Если же Вы знаете локальный всплеск рынка мейнфреймов под влиянием персоналок — то я радостно слушаю и жду пруфов.
За пруфами — по ссылкам в Вики. И нет — не всплеск спроса, а выбор именно IBM из мейнфрейм-вендоров.
Рынок ЧЕГО? IBM PC-совместимых компьютеров-то?
Был рынок «компьютеров вообще». Рынок был сегментрован на части, в первую очередь на мейнфреймы, мини-ЭВМ (например, PDP) и микро-ЭВМ (настольные).
Каждый сегмент имел в своём составе разные компьютеры. Замена компьютера на компьютер другого типа — была сложной, ибо о совместимости никто не думал. Хотя кое-какие интерфейсы были едиными.

Собственно, нас тут интересует рынок микро-ЭВМ. Этот рынок был наиболее подвижным, ибо и люди могли сменить компьютер (после того, как попробовали компьютер другого типа у приятеля), и предприятия могли для разных задач иметь много разных компьютеров.

И вот на рынок микро-ЭВМ приходит IBM. Основная конкуренция тут — за людей, которые покупают свой первый компьютер; ибо те, кто покупают второй компьютер и далее — знают, чего хотят, и повлиять на их выбор сложно.
И тут IBM поступает крайне странно — она позволяет другим фирмам вторгаться на тот рынок (на тот сегмент рынка микро-ЭВМ), который она собирается создать на свои деньги.

А это тут вообще причём? Что это за рынок, на котором компьютеры конкурируют с операционными системами?
Я как бы намекаю, что если Билл Гейтс купил DOS — то рынок микро-ЭВМ уже существовал и был достаточно развит.

Притом, конкуренты эти занялись своим копирование именно из-за исключительной популярности платформы.
Нет, Вы путаете причину и следствие. Это конкуренты сделали платформу популярной.
Конкуренты занялись копированием потому, что им не надо было тратить силы, время и деньги на разработку/лицензирование платформы.

Популярности, которой она (сюрприз, сюрприз!) обязана была именно открытости
Вот только IBM никогда раньше не делала открытых платформ — и правильно делала. Потому что вот так вот откроешь платформу — и конкуренты тебя с рынка и выкинут.
«Была у зайчика избушка лубяная...»

за первый же год существования на IBM PC появилось, по подсчётам PC World, 753 программных пакета — вчетверо больше, чем на Apple Macintosh.
Статистика, подсчитывающая программные пакеты — это ничуть не лучше, чем считать ВВП. Потому что и ежё понятно, что пакеты программ — разные, их нельзя считать в штуках.

К тому же IBM PC была такой уродской, что для исправления её уродств требовались отдельные пакеты. Например, антивирусы.

И, собственно, получи какой-нибудь Apple III такое же повсеместное распространение, не факт, что не появились бы точно такие же «Appleiii-совместимые» компьютеры от тех же компаний.
Не надо ставить телегу впереди лошади. Сначала — конкуренты, потом — популярность платформы. Ну и закономерный результат: основателя кикают (выкидывают с рынка).

Айфоны популярны — но их не копируют. Почему бы это?

Это через 20-то с лишним лет? Вы серьёзно?
Да IBM всю историю маялась с этим своим неудачным ребёнком. И, после недолгого периода в начале — не была лидером этого рынка.

Недостаточная маржинальность — запросто.
А каким образом закрытие направления повысит маржинальность, если разработки в этом направлении при закрытии просто обнуляются по стоимости? Т.е. инженеров — надо или увольнять с выходным пособием, или переучивать — в обоих вариантах это расходы.

За пруфами — по ссылкам в Вики.
Википедию надо читать осторожно, там нередко бывает лютый бред. Например, в первой же фразе: «easy to use».

Или вот: «more than 40,000 were ordered on the day of the announcemen». Понятно, что это было результатом мощной рекламы, IBM продавливала платформу на рынок своим авторитетом.

И нет — не всплеск спроса, а выбор именно IBM из мейнфрейм-вендоров.
Я что-то не вижу в тексте ничего именно про то, что на рынке мейнфреймов IBM получила преимущество от выпуска PC. Ну, шумиху IBM подняла заметную — но где графики заказав мейнфреймов?
По идее — вменяемые заказчики должны были отреагировать примерно так: «раз IBM решила заняться детскими игрушками — для серьёзных задач лучше выбрать какого-нибудь другого производителя».
Что вы имеете в виду, когда сначала пишете
Замена компьютера на компьютер другого типа — была сложной, ибо о совместимости никто не думал.
а потом
Этот рынок был наиболее подвижным, ибо и люди могли сменить компьютер

Основная конкуренция тут — за людей, которые покупают свой первый компьютер; ибо те, кто покупают второй компьютер и далее — знают, чего хотят
А в чём разница? Нужно, чтобы продукт хотели купить. И если у тебя есть, скажем, Мак, и тебе что-то не нравится, что у IBM PC лучше — ты вполне можешь купить IBM PC.
И тут IBM поступает крайне странно — она позволяет другим фирмам вторгаться на тот рынок (на тот сегмент рынка микро-ЭВМ), который она собирается создать на свои деньги.
Рынок микро-ЭВМ? Конкуренты там и так были, как можно было им в этом помешать? Или вы тут уже «сегментом» называете IBM PC-совместимые?
Я как бы намекаю, что если Билл Гейтс купил DOS — то рынок микро-ЭВМ уже существовал и был достаточно развит.
Рынок микро-ЭВМ был, и те, кто на нём были (Apple, Acorn, Amiga, RadioShack), и свои микро-ЭВМ так и выпускали, ничем хорошим для них IBM PC не обернулся.
Нет, Вы путаете причину и следствие. Это конкуренты сделали платформу популярной.
Воу! Это кто же сделал её популярной, Apple? Apple? Acorn? Amiga? RadioShack? Первый более-менее совместимый «клон» появился только через почти год после запуска IBM PC.
Конкуренты занялись копированием потому, что им не надо было тратить силы, время и деньги на разработку/лицензирование платформы.
Но больше — потому что платформа была популярной ввиду открытости. Не будь она популярной, никто бы этого не стал делать.
Вот только IBM никогда раньше не делала открытых платформ — и правильно делала. Потому что вот так вот откроешь платформу — и конкуренты тебя с рынка и выкинут.
«Никогда такого не было, и вот опять», да? Какая же ошибка — создать продукт, настолько популярный, что породит целый рынок, на котором ты не сможешь удерживать монополию и продержишься «всего» 20 лет, лучше не создавать и не получить прибыль от доминирования (сначала) и просто прибыльного бизнеса (впоследствии).
Статистика, подсчитывающая программные пакеты — это ничуть не лучше, чем считать ВВП. Потому что и ежё понятно, что пакеты программ — разные, их нельзя считать в штуках.
Посчитайте в чём-нибудь другом, если у вас есть возражения. В то время «программный пакет» было не то же самое, что зависимость в нынешних менеджерах пакетов, а ближе к нынешнему «программный продукт». В этой статистике пишут, что из этих 753 — 422 были прикладными программами и ещё ≈200 — утилитами и языками (программирования).
К тому же IBM PC была такой уродской, что для исправления её уродств требовались отдельные пакеты. Например, антивирусы.
Да вы, батенька, хейтер! Уродская она, видите ли… И ничего, что первый антивирус был выпущен под Atari.
Не надо ставить телегу впереди лошади. Сначала — конкуренты, потом — популярность платформы
Так вы кого конкурентами-то считаете? Производителей микроЭВМ до IBM PC? Никто из них не занялся производством клонов IBM PC (aka IBM PC-совместимых компьютеров). Да и популярность у платформы была прямо со старта.
Айфоны популярны — но их не копируют.
Ай лолед. Вы серьёзно? Копируют, ещё как копируют. Только не на уровне бинарной совместимости. Да и айфоны — это часть клиент-сервисной экосистемы, к которой индустрия пришла уже только в конце нулевых.
Да IBM всю историю маялась с этим своим неудачным ребёнком. И, после недолгого периода в начале — не была лидером этого рынка.
Даа, выпустили, понимаешь, продукт по дешёвке (экономили-то на всём, даже ОС на стороне купили самую дешёвую из трёх доступных), срубили кучу бабла, а деньги делать «всего» 20 лет получилось.
А каким образом закрытие направления повысит маржинальность, если разработки в этом направлении при закрытии просто обнуляются по стоимости?
А откуда вы взяли про закрытие? Имела место продажа Lenovo, если что. Вместе с оставшимися «собственными» инженерами, если я правильно помню.
Википедию надо читать осторожно, там нередко бывает лютый бред.
Текст вообще читать осторожно нужно, а то вы всё время слова пропускаете, когда я вам пишу. Я же прямо написал «по ссылкам в Вики». Есть Вики, а в ней есть ссылки, по ним пруфы.
Понятно, что это было результатом мощной рекламы, IBM продавливала платформу на рынок своим авторитетом.
Ну, вот, вам «понятно», что если продажи хорошие — то это «IBM продавливала», а если плохие, то это «IBM выдавили с рынка». Как же ещё.
Менеджеры пошли вразрез с традициями.

Почему в разрез традиции? У них работа такая — придумывать новое что то. Вот и придумали.
IBM всегда делала и до сих пор делает деньги на «сложнее и дольше»

Вас послушать так можно придти и сделать быстрее и проще чем IBM. (и естественно дешевле) Только вот что то IBM до сих пор есть и уходить не собирается… Была бы такая ниша замечательная на рынке уже бы давно заняли ее.
Я предлагаю ставить что-то типа SAN в каждый компьютер.

Я все еще не понимаю — чуть выше был разговор про то что «внутри коробки стандартизация не важна» Так как туда впихнуть стандартный SAN? И все еще не понимаю, что это даст?
Я также предлагаю ставить много процессоров, и у каждого — своя память.

Ну вот AMD пробовал в оптеронах практически такой же подход. (NUMA). Это тяжело поддается программированию и оптимизации. Пока как то не очень пошло.
Скорость и дальность SATA — вроде, как раз подходят.

здесь согласен. Но думаю что скоро все эти SATA и PCI-E будут реализовывать уже на оптике. В принципе уже сейчас кроме цены ничего не мешает. Просто из меди хотят выжать все соки до того как делать новую игрушку. И тогда вообщем то можно будет думать о каком то универсальном протоколе/стандарте как для «внутри» так и для «меж нодами».
Уж не хотите ли Вы сказать, что до появления IBM PC софт не развивался?

Нет Я лишь хочу сказать, что история не терпит сослагательных наклонений.
У меня ощущение, что Вы вообще не знакомы с устройством Unix.

Не знаю откуда такие ощущения и причем тут UNIX ядро которого не было open source до появления Linux. Я прекрасно понимаю что open source позволяет адаптировать под новую архитектуру нечто «всем миром» не дожидаясь того, пока это сделает владелец аналогичного закрытого продукта. Но я также понимаю что очень часто open source аналоги появляются гораздо позже их закрытых прототипов. И UNIX как раз отличное подтверждение этой тенденции. К сожалению на данный момент этот мир таков. Как оно было бы в вашем сценарии, когда стандартов для PC не было бы никто не в силах определить точно. Это только гадать можно.
Почему в разрез традиции? У них работа такая — придумывать новое что то. Вот и придумали.
Вообще-то, работа менеджера — это выбор пути, на котором удастся собрать как можно денег. Эти бизнес — он ради прибыли; а не наука, которая ради нового.
В данном конкретном случае — менеджеры принесли фирме одни только убытки. И тот факт. что они не пострадали — говорит о коррупционном характере их действий, всё было запланировано.

Вас послушать так можно придти и сделать быстрее и проще чем IBM. (и естественно дешевле)
Конечно, можно. Но не нужно. Потому что бизнес IBM — это не соревнование по простоте, скорости и дешевизне.

Для начала я советую Вам вспомнить ещё два параметра, ради которых в этом бизнесе жертвуют тремя перечисленными.

А потом постарайтесь понять, что в той сфере, где работает IBM — дешевле не только не нужно, но и категорически противопоказано. Ибо с дешёвых компьютеров — невозможно платить большие откаты.

Я все еще не понимаю — чуть выше был разговор про то что «внутри коробки стандартизация не важна» Так как туда впихнуть стандартный SAN?
Нет, не стандартный. А совершенно новый. Ну ладно, не совершенно — но явно не типовой. Хотя бы потому, что у этого SAN вполне нормальной будет работа с одним диском.

И все еще не понимаю, что это даст?

* Вынос драйвера файловой системы на отдельный процессор позволит использовать там процессор без FPU — что удешевит систему в целом.
* Объединение RAID-массива с драйвером файловой системы позволит использовать разные нетривиальные оптимизации, в т.ч. «выкладывать мелкие файлы так, чтобы они не пересекали границу диска» и «сочетать в одном разделе разные варианты RAID, выставляя их для каждого файла отдельно».
* Вероятно, там будет использоваться два модуля памяти: в одном выполняется драйвер файловой системы (код и данные), в другом хранится кэш диска. Ибо производители слегка озверели — кэшировать диск в быстрой памяти.
* Вынос любой части системы на отдельный процессор со своей собственной памятью — резко снизит опасность атак типа MeltDown (не понизит вероятность обнаружения таких уязвимостий, а снизит ущерб).

Ну вот AMD пробовал в оптеронах практически такой же подход. (NUMA).
Пруф можно?
Я напоминаю, что NUMA — это когда много процессоров, и у каждого есть своя собственная память. Но при этом каждый процессор может обращаться к памяти другого процессора — однако, это трудно и долго.
Т.е. данная архитектура — реализуется в многочиповой системе, а не в многоядерной (хотя в каждый чип м.б. многоядерный — но между ядрами там UMA). И такую архитектуру реализуют не производители процессоров, а производители плат (возможно — составных плат, что я и предлагаю).

Но думаю что скоро все эти SATA и PCI-E будут реализовывать уже на оптике.
Нет, не будут. Ибо сложно и ненадёжно. К тому же скорость света в оптике — не сильно выше, чем скорость сигнала в меди. Плюс тормоза на преобразователях.

Не знаю откуда такие ощущения и причем тут UNIX ядро которого не было open source до появления Linux.
FacePalm… Про FreeBSD Вы ничего не слышали? А про AT&T?

Я прекрасно понимаю что open source позволяет адаптировать под новую архитектуру нечто «всем миром» не дожидаясь того, пока это сделает владелец аналогичного закрытого продукта.
Ещё один FacePalm…

Портируемость системы определяется ни разу не открытостью исходников. Тут в первую очередь важна архитектура, а вовсе не юриспруденция в EULA.

Если открыть исходники RISC-OS — это не поможет портировать её на другие платформы, ибо она очень сильно завязана на архитектуру процессора: и в том, что много кода на ассемблере, и в том, что API заточен под набор регистров.

Портируемость Unix возникла почти сразу — ибо его почти полностью писали на Си. Т.е. для портировани я- надо переписать компилятор (это да, нетривиально); ну и наделать драйверов для устройств (это тоже сложно). Но после этого — и ядро, и утилиты переносятся почти механически, особенно если нет проблем с разрядностью системы.

Проблемы с разрядностью возникают при сочетании двух-обоих условий:
* новый процессор имеет не ту разрядность, как тот, на котором писалась и отлаживалась программа;
* программист не учёл этого и использовал неявные предположения о разрядности чисел.

Но я также понимаю что очень часто open source аналоги появляются гораздо позже их закрытых прототипов.
А часто — наоборот. И что?

Как оно было бы в вашем сценарии, когда стандартов для PC не было бы никто не в силах определить точно.
Да пусть были бы стандарты, я не возражаю. Но чтобы эти стандарты были хорошими, разумными — а не дебильными типа «локальный диск компьютеру роднее, чем сеть». Ну хоть бы изначально взяли нормальный процессор, а не тянули бы эту уродскую совместимость.

Я лишь хочу сказать, что история не терпит сослагательных наклонений.
Вот из-за таких, как Вы — мир и продолжает катиться в анус. Вы не только не хотите анализировать прошлые ошибки — но и старательно мешаете другим.
И тот факт. что они не пострадали — говорит о коррупционном характере их действий, всё было запланировано.

Не о чем это не говорит. Менеджеры крайне редко «страдают». Как правило их решения безнаказанны.
А потом постарайтесь понять, что в той сфере, где работает IBM — дешевле не только не нужно, но и категорически противопоказано.

Понятия не имею про какие параметры речь. Но зато я точно знаю что вам нравится придумывать сущности там где совершенно спокойно можно без них обойтись. Не буду препятствовать, но не просите в них верить.
Вынос любой части системы на отдельный процессор со своей собственной памятью — резко снизит опасность атак типа MeltDown (не понизит вероятность обнаружения таких уязвимостий, а снизит ущерб).

Все еще не вижу отличий от того что есть сейчас. Все перечисленное (акромя может двух модулей памяти — тут я не совсем понимаю зачем ?) уже используется. И я не могу понять из-за этого в чем все же суть предложения?
Я напоминаю, что NUMA…

И такую архитектуру реализуют не производители процессоров, а производители плат ...

Нет, не будут.

Простите, но назрел вопрос — каков ваш уровень профессиональных знаний в области электроники и программирования? Вы делаете такие категоричные и в целом не правильные заявления, что я даже теряюсь. Можно спорить об истории — я не историк (я кажется говорил уже ?) но вот с электроникой знаком и с программированием тоже. Как вы себе представляете многопроцессорную плату без поддержки процессором этой возможности? Не говоря уже о том что я смысл возражений этого абзаца не пойму. Вы же сами заговорили о передачи части функций другим процессорам. Как вы это собираетесь делать без их синхронизации? Сейчас даже видеокарты и те имеют прямой доступ к памяти основного процессора. И эти команды (и дополнительные выводы под них) для работы с памятью таким образом, заложены в том числе и в сам процессор. Без этого не возможно сделать синхронизацию — пока заполняется память выделенная под общий буфер, видеокарта не должна читать оттуда. Это ж очевидно.
По поводу сигналов и скорости света это полный, как вы говорите фэйспалм. Вы что-нибудь слышали про длинные линии? Понимаете чем отличается передача электрического сигнала от передачи его оптической линией? Как минимум в оптической линии отсутствуют паразитные емкости и индуктивности (не говоря уж о межкабельных интермодуляциях и наводках) Это дает возможность к серьезному увеличению частоты и как следствие ширины полосы и количества данных в единицу времени.
Про FreeBSD Вы ничего не слышали? А про AT&T?

Рукалицо… Что я должен был слышать о FreeBSD? Ее разработка началась в 93-м году прошлого века. А про AT&T что? Давайте вы будете конкретнее излагать ваши доводы вместо бросания фэйспалмами или не излагать никак и разойдемся. AT&T создал UNIX но это была и остается проприетарная система с закрытым кодом. Это не новость для вас?
Портируемость системы определяется ни разу не открытостью исходников. Тут в первую очередь важна архитектура, а вовсе не юриспруденция в EULA.

Попробуйте портировать систему когда у вас нет исходников от нее. И еще похоже мы разное понимаем под open source. Когда вам через EULA запрещают что либо (например распространять код далее), это уже не opensource не смотря на то что вам в руки могут предоставить код. Например код от Windows частично может быть предоставлен определенным организациям но это не делает windows системой с открытыми исходниками. Давайте условимся что мы говорим о Free as the freedom а не о free as beer. Потому что в последнем случае портировать или нет будет решать исключительный владелец авторских прав. И совершенно не вижу для него мотивов портировать на новую неизвестную никому систему. (да есть исключения но должна быть выгода от этого и быстрая)
Портируемость Unix возникла почти сразу — ибо его почти полностью писали на Си.

Я с этим спорить не буду — при наличии исходников ее было легко портировать (впрочем как и большинство систем) Но ктож вам их даст что бы портировать на новую архитектуру?
А часто — наоборот. И что?

И ничего — мы начали с вашего предположения и я вам лишь указываю уже в которой раз что оно безосновательно т к все множество вариантов развития равноценно для нас кроме того который случился реально. Предполагать теперь можно что угодно Это останется в лучшем случае гипотезой.
Вот из-за таких, как Вы — мир и продолжает катиться в анус. Вы не только не хотите анализировать прошлые ошибки — но и старательно мешаете другим.

Похоже вы любитель побросаться красным словцом. Да? Во первых я вам не мешаю — вы свободны в своих действиях как любой другой индивид. Так действуйте — у вас надеюсь руки ноги и голова наличествуют? ничего значит не мешает — вперед. Во вторых — очень даже интересно посмотреть на ошибки которые такие как вы, горячие головы, совершают прямо сейчас. Лезть в прошлое не приходится. Я вам лишь излагаю точку зрения, какие вас встретят проблемы на выбранном пути. И это мое мнение почему так не работает капитализм. Соглашаться с ним или нет — ваше право. Остальных обвинений не буду снимать с себя. Но скажу лишь, что вы так же виновны — вы же бездействуете. Где ваша операционная система и ваше железо для нее? Нету? Ну ок — где хотя бы внятное объяснение чего вы хотите добиться, что бы к вам можно было присоединиться? нету? Так почему вы обвиняете окружающих? Начните с себя. Если считаете, что у вас есть годная идея — начните ее реализовывать. Только начинать нужно с того что научиться объяснять ее, чтобы люди понимали о чем речь. (исходя конечно из того если вы хотите чтобы это получило какую то поддержку и распространение)
Менеджеры крайне редко «страдают». Как правило их решения безнаказанны.
Только не тогда, когда их действия наносят убыток более главным менеджерам.

Понятия не имею про какие параметры речь.
IBM работает на рынке, где важнее всего — надёжность. А там, где надёжности не хватает — обслуживание производителем. И эти два параметра — важнее скорости и дешевизны.

Все еще не вижу отличий от того что есть сейчас. Все перечисленное (акромя может двух модулей памяти — тут я не совсем понимаю зачем ?) уже используется.
Два процессора и два модуля памяти — для того, чтобы каждый процессор залезал только в свою память и не залезал в память другого процессора. После того, как Вам станет понятно, что я написал — можно будет обсудить, зачем это нужно, и какие преимущества даёт. Ну, если сразу не станет очевидно.

И я надеюсь, Вам понятно, почему в этом случае никакой поддержки со стороны процессора не требуется. Всё, что нужно — это коммуникационная среда (типа Ethernet, но более другая) + поддержка со стороны программ (но не процессоров).

Как вы себе представляете многопроцессорную плату без поддержки процессором этой возможности?
Представьте себе две отдельные платы, связанные ну хоть локальной сетью. Очевидно, поддержка процессором этой возможности не требуется.
Теперь совместим это на одной плате, а сетевые линии сделаем не витой парой, а проложим по плате. очевидно, в процессорах ничего менять не надо.

Вы же сами заговорили о передачи части функций другим процессорам. Как вы это собираетесь делать без их синхронизации?
Так же, как часть функций по работе с диском, которая ранее была в CPU — переехала на брюхо HDD.
Так же, как часть функций переносится на другой процессор в клиент-серверной архитектуре (да хоть файловый сервер).

Сейчас даже видеокарты и те имеют прямой доступ к памяти основного процессора. И эти команды (и дополнительные выводы под них) для работы с памятью таким образом, заложены в том числе и в сам процессор. Без этого не возможно сделать синхронизацию — пока заполняется память выделенная под общий буфер, видеокарта не должна читать оттуда. Это ж очевидно.
Вы про какую синхронизацию говорите? Синхронизация работы программ во времени? Или синхронизация содержимого кэшей?

Как минимум в оптической линии отсутствуют паразитные емкости и индуктивности
Вообще-то, они там есть — просто называются иначе. Именно они замедляют скорость света в веществе.

не говоря уж о межкабельных интермодуляциях и наводках
И это в оптике тоже есть. Сделайте расстояние между опто-кабелями меньше длинны волны света — и свет станет перетекать их кабеля в кабель. Ричард Фейнман подтверждает.

Что я должен был слышать о FreeBSD? Ее разработка началась в 93-м году прошлого века.
Например, то, что во FreeBSD вошли чужие исходные коды — что ка бы намекает на то, что открытые коды Unix имели хождение очень давно.

Попробуйте портировать систему когда у вас нет исходников от нее.
У автора системы — исходники обычно есть. Но это не значит, что систему можно портировать.

Но кто ж вам их даст что бы портировать на новую архитектуру?
С 1974 года Unix стал распространяться среди университетов и академических учреждений.

И это мое мнение почему так не работает капитализм.
Как говорят некоторые мои сетевые собеседники: «если капитализм так не работает — значит, пора его уничтожить». ;)
Только не тогда, когда их действия наносят убыток более главным менеджерам.

Я не слышал что бы в IBM страдал кто то из главных менеджеров (да еще за неправильное решение — скорее уж покарают за то что рожей не вышел)
IBM работает на рынке, где важнее всего — надёжность.

Ага. Это именно поэтому я был свидетелем как в одном сервере IBM в течении месяца дважды вылетели планки памяти (естественно все комплектующие были куплены у официальных представителей IBM так как в тот сервер другие и не вставали. Менеджеры осознали свою ошибку с PC видимо =) По факту зачем им надежность когда TOP-500 компаний будут покупать у IBM потому, что они на этом оборудовании и софте сидят как на игле. Откройте стандарты и уберите патенты на коммуникационные протоколы и через год-два железного сегмента IBM не станет. А софт без железа не факт что будет прибыльным. IBM — это сильнейший вендор-лок. Круче только Microsoft со своим офисом.
Два процессора и два модуля памяти — для того, чтобы каждый процессор залезал только в свою память и не залезал в память другого процессора.

Хорошо, это понятно. Но тогда 2 вопроса: 1. в чем разница от просто соединенных по сети машин? То что эти процессоры будут физически на одной плате что-нибудь меняет? 2. Как это может что то ускорить? Все плюсы многопроцессорности будут съедены издержками на передачу данных и копированием меж буферами (ведь от синхронизации через разделяемую память мы отказываемся т к отказываемся от прямого доступа к памяти другого процессора). Ну и еще нужен какой то контроллер этой коммуникации с каждой стороны, раз мы не встраиваем никаких средств в сами процессоры. Он внесет своих задержек еще. Допустим интел идет ровно в другую сторону — встраивает оптические линки прямо на кристалл CPU (технология omnipath кажется) Мне это кажется логичным эволюционным шагом. Если бы можно было сделать революцию в капиталистической системе ценностей то логичным шагом было бы выкинуть нафиг весь x86 и сделать новые простые процессоры зато сразу с 256-ю линками омнипаф, но однако не выходит. Инженеры я думаю с удовольствием взялись бы за такую работу. Но это не выгодно компании — надо вложиться сразу большим капиталом, а вероятность успеха не 100%.
Вообще-то, они там есть — просто называются иначе.

Ну вы же не будете спорить что эти эффекты на несколько порядков меньше?
Сделайте расстояние между опто-кабелями меньше длинны волны света

зачем? дорожки на современных платах все еще очень далеко в сравнеии с длинной волны света. Даже если окажется что надо где то на кристалле сделать разводку из оптических линий то там эти линии будут короткими и взаимное влияние опять же будет меньше. Ну не буду загадывать — я лишь говорю, то что уже вижу. Выше я приводил как пример omnipath.
Например, то, что во FreeBSD вошли чужие исходные коды — что ка бы намекает на то, что открытые коды Unix имели хождение очень давно.

Вот здесь я попрошу ссылку. Unix была и остается проприетарной системой. И если какие то коды куда там вошли, то это очевидно будет нарушением EULA.
У автора системы — исходники обычно есть.

Ну его нельзя заставить портировать. Можно только убедить. В рамках капитализма это означает сделать так что бы он поверил что получит хорошую прибыль.
С 1974 года Unix стал распространяться среди университетов и академических учреждений.

Этот факт мне известен. Но я же и говорю — наличие исходников не делает систему опенсоурс. И даже если кому то удается ее портировать, совершенно не значит что автор примет эти порты даже бесплатно. А это значит что порт устареет в момент выхода следующей версии системы.
«если капитализм так не работает — значит, пора его уничтожить»

Да я то не против, вот только каким образом и что бы в этот раз вышло лучше чем предыдущая попытка…
По факту зачем им надежность когда TOP-500 компаний будут покупать у IBM потому, что они на этом оборудовании и софте сидят как на игле.
Зачем же тогда новые компании, выходящие в топ, тоже садятся на эту иглу?

Откройте стандарты и уберите патенты на коммуникационные протоколы и через год-два железного сегмента IBM не станет.
Кому Вы это предлагаете делать — открывать, отменять? Зачем им это делать?
Что мешает остальным вендорам повторить то же самое, но на открытых протоколах?

Кстати, сейчас Вы подтверждаете мою мысль о том, что PC была разработана и выпущена с нарушением традиций — и поэтому IBM не смогла сохранить под собой этот рынок.

в чем разница от просто соединенных по сети машин? То что эти процессоры будут физически на одной плате что-нибудь меняет?
Ну, для начала — обратите внимание на то, что «жёсткие связи» (дорожки на плате) делают «широкими» (много линий передачи данных); а «гибкие связи» — обычно «одна пара передаёт данные туда, вторая пара — обратно».
Теперь встречный вопрос — почему так делают?
(Надеюсь, вопрос «зачем нужно много линий передачи данных» — не возникает. Это, собственно, ответ на второй вопрос.)

Все плюсы многопроцессорности будут съедены издержками на передачу данных и копированием меж буферами
А вот тут встаёт вопрос о том, насколько правильно мы распределим работу между процессорами. Очевидно, что можно минимизировать передачу данных — вопрос в том, какая программная архитектура для этого больше годится.

Взамен мы избавляемся от безумных расходов на синхронизацию кэшей и вообще резко снижаем потребность в кэшах.

ведь от синхронизации через разделяемую память мы отказываемся т к отказываемся от прямого доступа к памяти другого процессора
Ну, можно использовать что-то типа RDMA. Но отказ от прямого доступа к памяти другого процессора — необходим ради безопасности.

Ну и еще нужен какой то контроллер этой коммуникации с каждой стороны, раз мы не встраиваем никаких средств в сами процессоры.
Да, но он будет не слишком сложный поэтому быстрый.

Он внесет своих задержек еще.
При правильном планировании многозадачности — это несущественно. Сейчас многие компьютеры заняты запуском вирт.машин — зачем тут «прямой доступ к памяти другого процессора»? А ещё есть микросервисы.

Допустим интел идет ровно в другую сторону — встраивает оптические линки прямо на кристалл CPU (технология omnipath кажется) Мне это кажется логичным эволюционным шагом.
Вы размер фотона знаете?

Если бы можно было сделать революцию в капиталистической системе ценностей то логичным шагом было бы выкинуть нафиг весь x86 и сделать новые простые процессоры зато сразу с 256-ю линками омнипаф, но однако не выходит.
Ни капитализм, ни система команд процессора к оптическим проблемам не относятся вообще никак.

Ну вы же не будете спорить что эти эффекты на несколько порядков меньше?
Какова скорость света в оптокабеле? Какова скорость сигнала в дорожках на мат.плате?

Даже если окажется что надо где то на кристалле сделать разводку из оптических линий то там эти линии будут короткими и взаимное влияние опять же будет меньше.
Из-за большой толщины оптокабелей — сам процессор распухнет. А значит, и длина внутренних кабелей вырастет.

Вот здесь я попрошу ссылку. Unix была и остается проприетарной системой.
Википедия. Читайте про FreeBSD, 386BSD и проблемы с лицензированием чужих исходных кодов.
Нет такой системы: «Unix». Это — не вид, а семейство.

Ну его нельзя заставить портировать.
Можно нанять. Но не факт, что у него получится.
В частности, RISC-OS портировать на другой процессор — нереально.

И даже если кому то удается ее портировать, совершенно не значит что автор примет эти порты даже бесплатно.
Зато — тот, кто портировал, сможет её использовать. А при наличии покупателя — автор наверняка согласится продать портированную версию.

А это значит что порт устареет в момент выхода следующей версии системы.
Я говорил про правильную архитектуру, позволяющую портировать. Это когда при портировании надо менять очень мало, и изменяемые при этом части кода хорошо изолированы от остального.
Идеально — микроядро с неизменным API взаимодействия подсистем ядра. Но и в монолитной системе это тоже достижимо — если изначально не допускать к системе говнокодеров.
Зачем же тогда новые компании, выходящие в топ, тоже садятся на эту иглу?

Причин может быть сильно больше одной. Их менеджеры считают что так выгоднее.
Кому Вы это предлагаете делать — открывать, отменять? Зачем им это делать?

Я никому не предлагаю. Это мое предположение примерно такая же фантазия как у вас с альтернативной историей.
Что мешает остальным вендорам повторить то же самое, но на открытых протоколах?

И где это повторенное на открытых протоколах?
PC была разработана и выпущена с нарушением традиций — и поэтому IBM не смогла сохранить под собой этот рынок.

С первой частью утверждения и не спорил. Со второй не вижу никакой связи.
Ну, для начала — обратите внимание на то, что «жёсткие связи» (дорожки на плате) делают «широкими» (много линий передачи данных); а «гибкие связи» — обычно «одна пара передаёт данные туда, вторая пара — обратно».

Я их как то не привык различать в такой «терминологии». Никто не мешает сделать много «гибких» связей. Что вы этим сказать то хотите? Сами то знаете почему «одна пара передаёт данные туда, вторая пара — обратно»?
Очевидно, что можно минимизировать передачу данных

объем передаваемых данных сильно зависит от задачи которую вы собрались разделять. И есть задачи которые нельзя так разделить.
Да, но он будет не слишком сложный поэтому быстрый.

Ну простым относительно еще может быть, но вот с чего вся эта система должна быть быстрее прямого доступа к памяти? В ней очевидно будет больше звеньев логики чем их есть сейчас в мультипроцессорных системах. И это вызовет задержку.
Сейчас многие компьютеры заняты запуском вирт.машин

Какие то гипотетические утверждения посыпались. Что если нет? что если мне нужно на этом железе запускать СУБД а не вирт. машины?
Вы размер фотона знаете?

Вопрос мало того что некорректный, так еще и не ко мне. Задайте его инженерам интел. Почему несмотря на «размер фотона» они таки вcтраивают оптические линки?
Ни капитализм, ни система команд процессора к оптическим проблемам

Потому что особых проблем нет — это УЖЕ делается. С чем вы тут спорите? Просто делается с теми ограничениями которые накладывает совместимость и срок окупаемости.
Какова скорость света в оптокабеле? Какова скорость сигнала в дорожках на мат.плате?

А какова максимальная частота (и ширина полосы) в дорожках? и какова в оптокабеле? Вы мне покажите шину на дорожках из меди которая может на 100 ГГц работать. В оптокабеле сейчас пока основное ограничение — скорость передатчика и приемника. Возможности самой среды передачи далеко еще не достигнуты. Из википедии: «Последний рекорд скорости — 255 Тбит/с» Попробуйте это сделать на меди.
Из-за большой толщины оптокабелей — сам процессор распухнет.

сколько вы хотите их туда засунуть? Я вот беру смелость на себя утверждать, что даже если их там будет хотя бы 16 то мы перейдем к совершенно новой архитектуре в которой как раз таки не будет различий в том куда идет конкретная линия — внутрь этого же системника или в соседний. Потом вполне можно сделать так что порты для этих кабелей будут вне корпуса вынесены и до них будет идти медь. Но этот участок меди будет коротким.
Википедия. Читайте про FreeBSD, 386BSD и проблемы с лицензированием чужих исходных кодов.

Читал. И там ничего нет про то что кто то взял код хоть одной из UNIX-систем и вот прямо так засунул его в ядро FreeBSD. Поэтому вопрос о ссылке остается в силе.
А при наличии покупателя — автор наверняка согласится продать портированную версию.

Еще раз — само наличие открытого кода не дает прав кому угодно куда то что то портировать и потом продавать. Я говорю что изначальному автору может быть «до лампочки» что кто то там хочет его творение портировать. Он банально может считать это не выгодной затеей. Так же как и большая часть тех кто мог бы за это платить. Вообще говоря все кроме автора архитектуры и поэтому вопрос сводится к тому хватит у него ресурсов на портирование достаточно большого количества софта до момента пока эта ситсема станет интересной остальным или нет. Обычно ответ — нет.
Это когда при портировании надо менять очень мало, и изменяемые при этом части кода хорошо изолированы от остального.

Это сладкая сказочка для маленьких детишек. Такого не бывает. Будут изменения и в самом микроядре и этот порт отвалится.
Вообще как то мы от темы отклонились — я все еще не понимаю в чем новизна предложенной архитектуры? По моему мнению все и так примерно движется в намеченную сторону (распараллеливание задач между специализированными процессорами и устройствами) но видимо как то не так как хочется вам это видеть. Это нормально — у всех видение разное. И я видимо вас так и не пойму. Поэтому предлагаю дискуссию завершить (но ссылку на то что исходные коды UNIX угодили в FreeBSD все же жду)
Ну, к примеру, давайте вспомним волшебный пинок под названием ryzen благодаря которому интел в кои-то веки разорился на 6 ядер где-то кроме xeon и hedt. Вот один из векторов увеличения производительности, которым интел до недавнего времени пренебрегал.
Они уже отполировали архитектуру
С дырами и щелями.
С костылями для виртуализации.
Не вижу ничего революционного в интеловских десктопных процессорах,


Вы не в ту сторону смотрите.
Хинт — у интела сейчас самое интересное происходит в нижнем ценовом диапазоне.

Правильно было бы разработать процессор для мобильников. Как выяснилось, отсутствие обратной совместимости не критично. Сейчас имели бы два рынка вместо одного.


P.S. Я считаю, что для потребителей всё повернулось хорошо.

Ну для этого наверняка нужны большие ресурсы, так что x86 все равно сильно бы пострадала.
Погуглите затраты Intel на НИиОКР.

Это не столько трата ресурсов, сколько инвестиции. В Интел решили, что эти инвестиции не выгодны, в ARM и всяких самсунгах — что выгодны.

С какими именно планшетами Вы сравниваете?


С планшетами на ARM под винду и андроид, от 8 до 10". От Самсунга до каких-то полубезымянных китайцев.
(iPad в этом плане не лучше — красивая игрушка, не более )

счет 5:0 и не в пользу Intel


Прогнозы пока делать рано — простыми планшетами все наелись, их четко вытеснили смартфоны.
А с современными Surface дела идут не так плохо, как вам кажется )
x86 архитектура тяжела, как мне кажется под мобильную архитектуру(производительность на ватт) и переход под новый техпроцесс затянулся. Короче: у Intell звезды не сошлись, а это именно то о чем говорит статья.
x86 архитектура тяжела, как мне кажется под мобильную архитектуру(производительность на ватт)


Вы это рассказываете человеку, второй год интенсивно использующему Surface.
Все там в порядке — и с производительностью, и ваттами (временем работы от аккумулятора)
Главное — не брать устройства на Core m3, с временем работы там все ОК, а вот производительность раза в два меньше, чем у Core i5.
Причем это справедливо не только для Surface, но и для MacBook 12".
Мы можем спорить на эту тему еще очень долго.
Но с тем, что на этом рынке Intel в роли догоняющего Вы спорить не будете?
И о том, что он здесь далеко отстал.
Но с тем, что на этом рынке Intel в роли догоняющего Вы спорить не будете?


Intel просто ждет труп врага, проплывающий вниз по течению
;) Логика в этом есть. Рынок насыщен. Цены на среднем сегменте падают.
Все там в порядке — и с производительностью, и ваттами (временем работы от аккумулятора)
Главное — не брать устройства на Core m3, с временем работы там все ОК, а вот производительность раза в два меньше, чем у Core i5.

Вот эту любовь к нагнетанию и инфляции гигагерц в ноутах мне никогда не понять. Всё тяжёлое должно крутиться на сервере, а ноутбук/планшет должен быть максимально простым, стандартным, безвентиляторным и тонкоклиентным. Ну, экран и корпус хороший должны быть.

Неужели нравится тратить кучу бабла на новые макбуки/сурфейсы и проч. раз в два года только потому, что старый вдруг ни с того ни с сего «не тянет»? Мне как человеку, использующему vim/ssh/консоль на работе (не тормозит, хе-хе, на машинах 20-летней давности) и onshape для хобби (полноценный твердотельный CAD/CAM на любом планшете, браузере… да даже на айфоне. Без малейших тормозов и перегревов!) это не понять. Никак.
НЛО прилетело и опубликовало эту надпись здесь
Вот-вот, отстой. Правда, чтобы vim тормозить заставить… это или сеть, или вы как-то особенно круто постарались. Компилируется оно тоже на сервере, разумеется.
НЛО прилетело и опубликовало эту надпись здесь
<ворчливо> у кого он сейчас без темплейтов и вот этого всего…
НЛО прилетело и опубликовало эту надпись здесь
Вот-вот, отстой. Правда, чтобы vim тормозить заставить… это или сеть, или вы как-то особенно круто постарались.

6700K 4GHz
gvim под виндой
тормоза при вводе с++ текста
А это точно вим, а не комп? А то если там в фоне 100500 вкладок крутится, так любой комп на колени поставить можно.
Увы, пока ещё не всё тяжёлое крутится на сервере.


Да и быстрый Интернет есть не везде и не всегда.
И не только быстрый.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Это лэптоп без клавиатуры, а не планшет. Там десктопная ось и ПО плохо приспособленные для работе в форм-факторе планшета. Без мыши и клавиатуры достаточно специфичный девайс. А с ними это просто разновидность ноутбука, причем не самая удобная и мощная.
НЛО прилетело и опубликовало эту надпись здесь

Да, только вот с софтом, который оптимизирован под тачскрин очень и очень скудно.

А какие именно это приложения?
НЛО прилетело и опубликовало эту надпись здесь
Так с этим справится практически любое устройство. Я использую планшет для рукописных заметок, набросков и конспектов, для tethering съемки с зеркалкой, для создания музыки, как графический планшет и второй монитор в поездках. И этот планшет не на Windows, поэтому все работает шустро, удобно и без серьезных проблем.
НЛО прилетело и опубликовало эту надпись здесь
Не знаю, таких задач не было у меня. Но любой ноутбук справится точно.
Это что у вас за стиралка с AVR? o_0
НЛО прилетело и опубликовало эту надпись здесь
Расскажете? В посте или здесь
НЛО прилетело и опубликовало эту надпись здесь
Да куча бытовой техники на атмегах с завода. Возрастом 5 и старше лет.
Что еще нужно от планшета?

1. Всё, что можно делать с пером. Художники почему-то больше любят iPad, самый удобный планшетный софт — там. Цены так и совсем смешно сравнивать (Procreate vs Photoshop, ага). Инженерный софт… ну, вот приложение oneshape для айпадов есть, сурфейсы — через браузер (никакого пальцевого скроллинга, как следствие).

2. От планшета нужна полноценная работа в режиме тонкого клиента. Пока на это, как я понимаю, способен в лучшем случае vim. Там, правда, отсутствие периферии тормозит — удобных клавиатур для планшетов пока нет. Те косплеи под ноутбук, в которые ударились и MS, и Apple — просто ужасны.
К тому же айпаду любую клавиатуру можно подключить, даже проводную через переходник USB-lightning. Не говоря уже о родных маковских безпроводных, которые вполне удобны. Ну вот без мыши тяжко, да. Хотя есть сторонний софт с поддержкой мыши или можно привыкнуть тыкать пером.
Клавиатура должна быть… ну не знаю, например, двухкомпонентная, подключаться с боков устройства и позволять эффективно работать на весу или на не слишком устойчивой поверхности. Желательно в портретной ориентации и на комфортном для планшетов (небольшом) расстоянии от глаз. Сейчас для работы с планшетом и клавой нужен стол, причём хороший. Колени, например, не очень подходят — с них вся конструкция норовит свалиться, на одном колене не поработаешь.
а, в этом смысле? Ну вероятно да, можно что-то получше придумать. Работать с планшетом на коленях в любом случае неудобно — слишком далеко от глаз. Надо скрючиться в три погибели. На мой взгляд в таких сложных условиях проще использовать экранную клавиатуру. Все равно никто в здравом уме не будет набирать тысячи знаков текста стоя в очереди или находясь в общественном транспорте.
НЛО прилетело и опубликовало эту надпись здесь
Это лэптоп без клавиатуры, а не планшет. Там десктопная ось и ПО плохо приспособленные для работе в форм-факторе планшета.


Я так понял, это вы про Surface Pro 4?
С ОС и с работой в режиме планшета там все ОК.
Максимум — пять-десять минут на привыкание после первого включения.
Да. Вы один из немногих кого устраивает режим планшета в windows 10. Я гораздо чаще слышу и читаю жалобы. К тому же, как я писал выше, софта, оптимизированного под планшеты мало. Тот что есть, присутсвует и на альтернативных платформах. А остальным удобнее пользоваться на традиционных лэптопах или ПК
Да. Вы один из немногих кого устраивает режим планшета в windows 10. Я гораздо чаще слышу и читаю жалобы


В наше время нельзя ориентироваться на жалобы на форумах и проч.
(см. историю с Bluedio, здесь же, на Хабре )

Я в таких случаях прошу конкретики, и сразу все проясняется.
А лучше всего работать в прямом контакте с жалобщиком.

Так, в свое время выяснилось, что большинство недовольных вин 8 просто не сумели найти как сворачивать окна и завершать работу компьютера.
(после проведения разъяснительной работы число недовольных стало намного меньше )
А я «наши газеты» и не читаю) Thurrot.com, mspoweruser, reddit — наше все. Блядио вспоминаю регулярно, только при чем тут они? Если пользователю приходится заново учится сворачивать окна и выключать компьютер, то что-то явно пошло не так. Лично мне пришлось как-то гуглить как отключить тот самый режим планшета на ноутбуке с десяткой, где никогда не было тачскрина и он мистическим образом включился сам по себе. На минутку, я сертифицированный специалист (пусть и бывший) по продуктам Microsoft и приличное время работал в support desk.
На минутку, я сертифицированный специалист (пусть и бывший) по продуктам Microsoft


Когда я выше говорил о критиках вин 8 — я как раз имел в виду сертифицированных (и несертифицированных) специалистов по продуктам Microsoft (рядовой пользователь обычно не стеснялся спросить)

Я отношу подобные проблемы к сугубо психологическим, а не к компьютерным.
Психологические или нет — это проблемы на ровном месте. Покажите мне человека, который лояльно будет относится к продукту с которым у него регулярно возникают проблемы. Нет таких. Фрустрация будет постоянно расти, пока человек не откажется от продукта, как это произошло в моем случае.
НЛО прилетело и опубликовало эту надпись здесь
Спорная концепция единого интерфейса и программ для устройств разного типа, которая в итоге провалилась. Теперь у МС нет мобильной системы, UWP с их стором никому не нужен и у десктопных систем в целом туманные перспективы. Мне все это стало неинтересно еще когда Win8 была в бетах. Речь идет не о конкретных системах, а об отсутствии видения в целом и систематических проблемах которые никто и не думает решать. Это топтание на месте и игры с кнопкой пуск со стороны вызывают только жалость и сочувствие к пользователям.
НЛО прилетело и опубликовало эту надпись здесь
До этого я слышал подобное про винXP относительно 98


Я это слышал про DOS )
НЛО прилетело и опубликовало эту надпись здесь
кто с 98se на XP переходить не хотел


Сокращенная статистика:
При переходе с 3.11 на 95 — у меня было примерно десять сносов/установок.
При переходе с 2000 на ХР — у меня было три сноса/установки.
При переходе с ХР на Висту — у меня было два сноса/установки.
При переходе с Висты на 7 — бинго уже после первого запуска.
В дальнейшем переходы осуществлялись сразу, по мере приобретения ОС.
(Все совершенствуется, кроме человеческой психологии )
НЛО прилетело и опубликовало эту надпись здесь
Да у меня при работе с 98SE. такое ощущение, было больше сносов и установок, чем у вас при переходе! )


Переустановки одной и той же системы — не в счет )

полноэкранный режим пуска — одним из лучших решений после классического интерфейса.


Аналогично! (с)
Правда, за настройку первоначального расположения плиток и их выбор «из коробки» — надо руки отрывать.

Вроде как МС собирает кучу инфы, могли бы уже вычислить программы, запускаемые чаще всего.

(Хотя то, что плитка «Калькулятор» должна там быть — и до них, в конце концов дошло )

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
кидают вееесь хлам (пару редмишек, несколько доп утилит, и иконку анинстала), как обычно стараясь превратить пуск в свалку


Это идет в «Список приложений».
В «Пуске» только то, что туда вставлено производителем и пользователем.
Установленные приложения, может быть, и пытаются что-то свое добавить сразу в «Пуск» (судя по опциям в инсталляторе), но им не дают.
Другое дело, что некоторые программы и в «Список приложений» не попадают (косяк их создателей) — лечится поиском установленных файлов и ручным добавлением их ярлыков.
По этой причине у меня есть отдельная папка, в которой хранятся ярлыки всех установленных программ — так, на всякий пожарный. Весьма полезная вещь, на случай добавления нового пользователя.

Единственная критичная проблема «Пуска» — это невозможность его переноса, со всеми сделанными в нем настройками (размеры плиток, их расположения по группам, имена групп) в свою же учетную запись на другом компьютере (в 8 это было можно) + невозможность сохранения всех настроек для использования с другой учетной записью.
НЛО прилетело и опубликовало эту надпись здесь
Ну я был одним из немногих, кто сидел на висте и даже бегал по комментариям и оправдывал систему примерно как вы сейчас оправдываете восьмерку. Восмерка, кстати, точно такая же виста с минорными внутренними изменениями и чутка другим интерфейсом. Да и десятка недалеко ушла

Планшеты и разные 2-1 на винде — это скорее лэптопы. С этой точки зрения ничего особо мобильного, кроме кривого режима планшета и никому ненужного uwp в системе нет.

В возращение тру мобильников вроде как уже даже фанаты не верят. Андромеду отменили, сурфейс фон тоже маловероятен
Восмерка, кстати, точно такая же виста с минорными внутренними изменениями и чутка другим интерфейсом


Это семерка — чуток допиленная Виста.
Восьмерка отличалась очень заметно.

Да и десятка недалеко ушла


Десятка опять же отличается кардинально. У меня часть компьютеров вынужденно (лицензия) работает на 8.1, разницу видно сразу.

Планшеты и разные 2-1 на винде — это скорее лэптопы


Что никак не мешает использовать их как планшеты.
У меня непосредственно перед Surface Pro 4 был Samsung SM-T705. После Surface он воспринимается как детская игрушка.

кроме кривого режима планшета


Откуда такие выводы?

Андромеду отменили, сурфейс фон тоже маловероятен


Я уже писал про то, что раздел рынка между MAGами весьма вероятен. Судя по всему — у М карт-бланш на облачные технологии, в обмен на неконкуренцию в смартфонах.
Так что сурфейс фона действительно не будет.
Будет сурфейс минипланшет )
Покажите мне человека, который лояльно будет относится к продукту с которым у него регулярно возникают проблемы.


Я знаю сотни людей, у которых постоянно возникают проблемы после использования такого продукта как водка.
Причем на лояльное отношение к данному продукту этот факт никак не влияет.
Сложно что-то ответить. Вроде не пятница, смысл аналогии мне не ясен.
Вроде не пятница, смысл аналогии мне не ясен.


Да чего тут сложного-то:
проблемы, возникающие при использовании продукта — не останавливают тех пользователей, которым этот продукт реально необходим.
Так, имеющиеся в винде проблемы — не мешают ей занимать доминирующее положение де-факто уже лет 25.
Спасибо да разъяснение. Да, полностью согласен. Хотя если бы ни пиратство, наличие некоторых проблем у альтернатив, то ситуация могла бы выглядеть по-другому. На мой взгляд, по крайней мере дома, полноценный компьютер с десктопной ОС большинству и не нужен
Хотя если бы ни пиратство


В те славные времена МС никак на защищал Windows от «пиратов» (ввести простой серийник — и все).
(Когда таки МС начал защищать свою ОС- это вызвало сенсацию).
Думаю, что это была хорошо продуманная стратегия бесплатного сыра.

наличие некоторых проблем у альтернатив, то ситуация могла бы выглядеть по-другому


У каких альтернатив? МС, скорее, боролся со своей же DOS, а не с полуосью, которая, несмотря на все восторги фанатов — на роль массовой ОС никак не тянула (в пиратской версии OS/2 (и 3 и 4) напрочь отсутствовали любые драйвера, кроме базового набора).
Простой пользователь мог установить OS/2, полюбоваться на обои с пиниями (в разрешении 640×480) и снести ее на… Тем более, что и пользовательский интерфейс был ужасным (несмотря на внешнее сходство с тогдашней виндой и ОС от Эппл).
Linux, в его тогдашнем состоянии — на конкурента никак не тянул (в 1993...1997 и линуксоидов, как таковых еще не было )

На мой взгляд, по крайней мере дома, полноценный компьютер с десктопной ОС большинству и не нужен


Если компьютер используется для самых примитивных задач — то возможно.
Для всего остального необходим либо ноут, либо десктоп.

Аналогично. После нормальной многозадачности в сторону всяких андроидов и прочих ипедов смотреть не хочется.
Есть планшеты. Ну или были, купил когда-то брат Asus на Atom.
НЛО прилетело и опубликовало эту надпись здесь
Где захват и доминирование на рынке?


Ситуация с микрокомпьютерами (не могу назвать их PC ) в конце 70-х/самом начале 80х
— где доминирование IBM на рынке? )
НЛО прилетело и опубликовало эту надпись здесь
Хм, сравнение появляющегося и уже готового рынков? ;)


Рынок микрокомпьютеров был вполне готов. Появляющимся он был только в СССР.
Да я лет десять жду, пока AMD научится делать энергоэффективные процы интереснее, чем A6.
А сейчас АМД догнали в производительности, считай, процы intel
Вы, наверное, ссылаетесь на новенький Threadripper, который, имея в два раза больше ядер, чем последний i9 (которому уже почти год), выигрывает на 60% на многопоточных тестах, с характерным всасыванием на однопоточных? Да, победа так победа.
Откуда инфа
НЛО прилетело и опубликовало эту надпись здесь
1. ОК, значит не догнали.
2. Тесты загружаются реальными людьми с реальными машинами. Может защиты от дырочек у кого-то и нет, но это значит, что им плевать на дырочки.
НЛО прилетело и опубликовало эту надпись здесь
Я не озвучивал своего отношения к дырам, я лишь сказал, что поскольку тесты проводят юзеры, то результат самый что ни на есть объективный.
НЛО прилетело и опубликовало эту надпись здесь
Кто-то собрал машину, и загрузил бенч на сайт. Допустим у него есть заплатки — ОК, результат будет соответствующим; допустим, он отключил заплатку — ОК, тогда он в принципе работает без заплатки. В любом случае — это реальная ситуация. И кстати, я не увидел пруфов 13 процентов, а тот факт, что при бенчах кто-то выключает заплатки, Вы вообще с потолка взяли.
НЛО прилетело и опубликовало эту надпись здесь
Ибо если было у 10%, а у 90% — не было, то вы ссылаетесь на профанацию.
Если посмотреть на топ результатов тут, то там преобладают новые биосы.
производитель оптимизирует по для получения больших чисел в бенчмарках
Ну так запихивание двух процессоров в одну коробку — это как раз оптимизация под бенчмарк, нет?
Но вы продолжайте верить в синтетику.
А Вы у нас значит всех насквозь видите? ОК, вот Вам реальная ситуация. Буквально вчера тестил две реализации нужной мне функциональности. Вторая реализация — это почти в два раза меньше вычислений и в 6 раз меньше ветвлений. Тестил на мобильном i3 второго поколения и десктопном Ryzen'е первого. Для первой реализации разница во времени ~2.8 раза, для второй — почти 4.5. Из чего сразу делаем вывод, что почти новый чип AMD проигрывает по branch-prediction интелу, которому уже больше 7 лет. А теперь давайте вспомним, где у нас есть бранчи? Правильно, везде, кроме CPU-шных бенчмарков. Хотели реальную ситуацию? ОК, из-за branch-prediction в реальных ситуациях AMD проиграет Intel'у намного сильнее чем на 10-20% (в сингл-треде, конечно, когда ядер в два раза больше, то в мульти-треде проиграть постараться надо).
НЛО прилетело и опубликовало эту надпись здесь
Информации по заплаткам ОС нет вообще.
А, ну раз так, то Intel точно тесты подделывает.
А уж серверные матери под два проца то какая оптимизация под бенчи…
А какая? Я не вижу, как это влияет на бенчи процессора как такого.
Для начала i9-7960X в сингле сливает 8700K, отстой, видимо, полный, да?
Нет, не видимо, потому что 8700K — 8ое поколение, а 7960X — 7ое.
у вас все заплатки и обновки микрокода стоят?
Учитывая, что на Intel'е у меня необновляемая 7ая винда, думаю, что нет. И мне плевать.
Я ж правильно понимаю: вы тестовые стенды сделали правильно, винду накатили свежую, с обновками, Hdd и SSD одинаковые поставили и т.п.?
Задача чисто вычислительная, даже из оперативки почти ничего не грузит. Так что одинаковое положение звезд на небе не критично.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
С таким же успехом можно сравнить в однопотоке i9 с i7?
А сейчас АМД догнали в производительности, считай, процы intel

Так вроде бы они никогда не отставали? Я вот раньше исключительно на AMD сидел, но попробовав однажды Intel не смог вернуться обратно, пробовал, но при тех же характеристиках (а иногда и выше от AMD) по факту всё оказывалось значительно хуже, чем на бенчмарках практически во всём.
и последним пришлось скинуть цены и увеличить ядра незапланировано

Речь вероятно про I7-8700K и Ryzen 2800X? Вроде бы всегда при выходе нового проца он стоит космических денег, но потом цена падает и держится на +- одном уровне. Если посмотреть графики цены, то на 8700К снижение было даже до появления 2800Х, так что хз
НЛО прилетело и опубликовало эту надпись здесь
Приблизительно помню, что 83xx могли быть на уровне i7, 6-ядерники того поколения — на уровне i5, а 4-ядерники — на уровне i3.
Хотя может даже 8320 уступал процессору i5-3330 в большинстве игр, в каких-то правда не очень существенно. В видеокодировании рулил.
Очередной «вендекапец»

Закономерный результат замены в BoD своих технарей на аутсайдеров, которые не в курсе как работает Интел :)
twitter.com/FPiednoel/status/1040288730274099200
Мм, это статья от человека, который турнул Джобса из Apple, после этого не вытащил макось, грохнул дверью и ушел делать своё казино BeOS, но не вытащил и это.
И он жалуется на культуру Intel. Ну-ну.
НЛО прилетело и опубликовало эту надпись здесь
который турнул Джобса из Apple
Проинформировал совет директоров:
In 1985, after learning of Steve Jobs's plan to oust CEO John Sculley over Memorial Day weekend while Sculley was in China, Gassée preemptively informed the board of directors, which eventually led to Jobs's resignation from Apple.
история темная.
Начиная с того, что невозможно сместить генерального в отсутствие генерального (не должно быть таких механизмов в крупной компании), заканчивая тем, что на место поставили самого «стукачка» (не должно быть таких механизмов в крупной компании v.2).
это статья от человека, который десятилетиями находится в команде иллюзионистов, создающих у простоверных иллюзию конкуренции на монопольном рынке
Жан-Луи Гассе

Да-да, помним историю, как за Be, Inc. было заплачено 11 миллионов долларов, что в 18 раз меньше, чем в свое время уважаемый Гассе хотел заполучить от Apple.
А чем нас Intel будет радовать, кроме шикарных дыр, за которые они (ой!) не отвечают (покупали проц на такую производительность, она упала из-за проблем в безопасности, но Intel не при чем, конечно), и не менее шикарного маркетинга, когда процы выпускаются с фичами, активируемыми доп. лицензиями (т.е. за разработку и выпуск заплатили все покупатели, но пользоваться могут не все) — это, думаю, нам вряд ли подобный ветеран точно изложит.
разработку и выпуск заплатили все покупатели

Так цена-то разная?

кроме шикарных дыр, за которые они (ой!) не отвечают

Ой, ты смотри, двойными стандартами повеяло.
Мы программисты низачто и никогда не отвечаем, читайте EULA.
А, в процессоре протерлась дырка — производителя на кол!
Меня всегда удивляли пользовательские интерфейсы софта от Intel — неудобные, не интуитивные. Это не касается самих драйверов. Знаю, что разработчики железа обычно ограничиваются тестами с минимальным функционалом, но такое ощущение, что у них такой подход возведен до уровня корпоративной культуры для всего софта.
UPD. Может с разработкой нейропроцессоров и аппаратной поддержки обучения нейросетей корпорация не пропустит новый виток в развитии технологий — повсеместном внедрении ИИ.
Эти страдают практически все компании поставляющие оборудование.
Меня удивлял подход к предоставлению исходников и документации к их разработкам, в частности, Edison.

Неудивительно, что он не взлетел :(
Не понимаю, почему многие так уверены что то, что intel не представлен на рынке процессоров для смартфонов, это роковой просчёт. Не факт, что если бы они таки взялись за разработку процессоров для айфонов это принесло им огромные деньги, учитывая как умеет выжимать своих партнеров Apple. За последние лет десять мы увидели как рынок мобильных телефонов покинули игроки с огромным стажем за плечами, видели и безуспешные попытки проникновения на рынок других игроков уровня Intel (например Nvidia).
Да, может платформа Wintel уже и не молода, но мне кажется пока нет никаких причин для того чтобы Intel и Microsoft объявили развод с разделом имущества и начали судорожно искать новых партнеров.
Intel, как и любая мегакорпорация не любит рисковать.
В х86 архитектуре все самые вкусные вещи были придуманы не ими — расширение АМД64, интегрированный контроллер памяти, гипертридинг, ЦП+ВК на одном кристалле.
Когда Интел пытался рисковать — получался или титаник или нетбурст+рамбус, т.е. это была наглая попытка прогнуть рынок на весьма странные решения.

Думаю, что попытка нарисовать Атом в мобильный рынок была вообще для галочки.
ЦП без ОоО с потреблением в 5 Ватт в компании с северным мостом (25Ватт) и южником (5Ватт) -это оксюморон.

Они не рискнули и не выиграли. бывает.
У кого HT украли?
А 64 бита могло быть давно у предка Итаниума.
HT не украли, НТ купили патент.
У итаника, если я не ошибаюсь и было 64 бита, да и много у кого было, х86-64 — не интол придумал.
У Итаника совершенно другая архитектураб IA64, это VLIW вообще был. Штука интересная, но ни разу не для консьюмерского рынка, не представляю, как такие расширения использовать в играх.
НЛО прилетело и опубликовало эту надпись здесь
Не факт, что если бы они таки взялись за разработку процессоров для айфонов это принесло им огромные деньги, учитывая как умеет выжимать своих партнеров Apple.

Благодаря мобильным чипам и в особенности Apple, TSMC получили огромные деньги что помогло им свергнуть Интел с позиции технологического лидера.
Третий раз надеюсь будет последний)))))))
(i740 и Xeon Phi)
а Intel Larrabee какой заход был? как раз был долгий R&D и PR был нормальный у этого дела — студию игровую купили чтобы стартовую игрулину сделать.
Но не смогли же, хотя похожий Cell на PS3 работал.
2й как раз. Larrabee же не совсем умер, просто когда стало ясно что как графический ускоритель оно «не взлетит», эту архитектуру стали продвигать и развивать дальше уже как «физический ускоритель» (а позже и «нейро», когда соответвующий хайп пошел) переименовав в Xeon Phi
третий раз надеюсь будет последний)))))))


Скорее всего — да. Причем в любом случае — да.
Видеокарты окончательно станут уделом хардкорных геймеров и профи по графике.
Повышения цен на видеокарты из-за майнинга — большинство обычных пользователей просто не заметило.
НЛО прилетело и опубликовало эту надпись здесь
Веселая шутка :)
Вы должно быть в курсе что происходит с ценами на видеокарты и какие ценники анонсировала зеленая компания. Конкуренции явно не хватает.

Интел не обновлял графику уже 3 года. Она уступает даже самым слабым видеокартам. По большому счету, она только для рабочего стола и утуба.
Интел не обновлял графику уже 3 года. Она уступает даже самым слабым видеокартам. По большому счету, она только для рабочего стола и утуба.


Вы не поверите — но этого вполне достаточно для подавляющего большинства пользователей.
У них же там рулил с основания Эндрю Гроув. Автор книги «Выживают только параноики. Как использовать кризисные периоды, с которыми сталкивается любая компания». Я вот не поверю, что компания такого уровня ошибается на таких простых вещах, которые описаны в этой статье.
интел не для всех, но дороже
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории