Pull to refresh

Comments 174

Интересно, какая ОС там будет. Линукс?
А как будет с софтом под этот линукс? Имеется в виду когда оно выйдет на рынок, а не через месяц/другой. Помнится при переходе на x64 было много косяков.
Думаю, ситуация с софтом под линукс принципиально не изменится за месяц другой. Ну может быть интерфейс наваяют.
UFO just landed and posted this here
Я в курсе, вообще-то. Поэтому она собственно и не изменится :)
UFO just landed and posted this here
>А как будет с софтом под этот линукс? Имеется в виду когда оно выйдет на рынок, а не через месяц/другой.

Уж не знаю, чего Вы там ожидаете «через месяц-другой», но уже сейчас (и вот уже на протяжении нескольких лет) под ARM существует (и поддерживается в актуальном состоянии) весь софт, имеющийся в наличии в репозиториях Дебиана. А это, если мне не изменяет память, где-то ~18 000 пакетов.
Т.е. любой пакет из официальных репозиториев, имеющийся для Debian-i386, доступен и для Debian-ARM.

Тут Вам не Виндовс… %)

Резюмируя и отвечая на Ваш вопрос: с софтом всё хорошо :)
Разумеется. А что еще? Пока Microsoft не проснется и не начнет писать современную десктопную Windows для ARM (пока он отказался), там всегда будут только линуксы — например Google Chrome или Touch OS, Ubuntu Netbook Remix или Android (хотя это и извращение), Moblin или Linpus, gOS.
Windows CE от Windows mobile отличается интерфейсом, а вот Windows CE от Windows XP интерфейсом отличается не сильно. Вы когда-нибудь видели устройство именно с CE?
Разумеется, видел. От XP в плане GUI она отличается тем, что не поддерживает визуальных стилей, а потому у меня вызывает неприятные ассоциации с windows 95 )
UFO just landed and posted this here
Google Chrome кстати бровзер под винду. к линупсу не имеет никакого отношения.
UFO just landed and posted this here
Кстати гугл называет (называет ли гугл её? или только домыслы?) её Google Chrome OS. Google Chrome это бровзер под винду от гугла. ну и вдобавок к тому Google Chrome OS еще нет в природе чтоб о ней хоть что-то говорить.
UFO just landed and posted this here
UFO just landed and posted this here
Google Chrome появится сначало под x86, потомм под 64bit, потом еще год будут ваять под арм.
Они браузер то не могут доделать под 2 линукс, и тем более под 64 битные архитектуры, а вы об ОС мечтаете.
UFO just landed and posted this here
Хуясс, только не говорите, что я компилил под никсы не хром, а IE 6 :(
в душе ниибу что ты там компилил. или дай линку на официальный анонс Google Chrome под линукс или дай скриншот окошка «О программе».

www.google.com/chrome/intl/ru/linux.html?hl=ru&brand=CHMA&utm_campaign=ru&utm_source=ru-ha-emea-ru-bk&utm_medium=ha
Браузер Google Chrome для Linux находится в стадии разработки, и команда наших инженеров делает все возможное, чтобы вы могли воспользоваться им как можно скорее.
smages.com/cd/fa/cdfa392aedb1a57442f9eac6aec0b6cc.jpg.htm
И это не wine.

r00t@r00t-desktop:~$ ps -auxw | grep chrom
r00t 11124 2.6 4.5 148652 29188 pts/2 Ssl+ 19:14 0:10 chromium-browser
r00t 11191 0.2 0.0 0 0 pts/2 Z+ 19:18 0:00 [chrome]
r00t 11204 3.2 5.0 65212 32384 pts/2 Sl+ 19:20 0:02 /usr/lib/chromium-browser/chrome --lang=en-US --type=renderer --channel=11124.9ea8678.981368791
Ну, насколько я знаю, то, что под линукс — Chromium, проект с открытыми исходниками. На нем основан Google Chrome, который под винду и мак(?).
А чувак то что-то замолчал ;D
вдумайся в смысл фразы 'It's Chromium, not Google Chrome'
После того, как ты вдумаешся в смысл фразы «Google Chrome is a browser from Google, based on the Chromium project»
дай ссылку где скачать Google Chrome под линукс, или исходники, или бинарники, или ссылку на анонс хотя бы. пока я вижу попытки сделать вид что Chromium это и есть Google Chrome для линукса.
Google Chrome for Linux работает, и у меня тоже — даже если нет анонсов.
Официально же он, действительно, еще не готов.
Вот это наконец похоже на правду. Когда для публики выпустят?
Да как бы это и есть для публики :) брал, кажется, отсюда: code.google.com/p/chrome-deb/ — давно это очень было, не меньше 3-4 месяцев назад. Теперь через репозитории обновляется.
Вру. Не отсюда ставил. т.к. у меня х64 а там только i386, но, я помню, что при помощи гугля нашел откуда ставить за 10 мин.
БОЛЬШОЕ СПАСИБО! Ценная информация.
Пошел править sources.list.
В вашем ответе из одной строки целых три ошибки.

Linpus Linux — это не весь Linux. Это один из возможных дистрибутивов, впрочем довольно кривой и неудобный. Например, Debian — linux, но не linpus.

Google Chrome OS — это операционная система Google (на ядре Linux), релиз в 2010 году.

Google Chrome — это броузер для широкого круга операционных систем, сейчас он есть например для Linux и для Windows XP.
С большой вероятностью они не будут ничего писать на арм. Интел во всю занимается допиливанием атома, майкрософт готовится к этому. Ибо нет им вообще никакого смысла менять платформу — едва ли все вендоры ПО сразу чухнутся портировать свой софт на мобильные платформы, а объяснять йузерам почему у них симс не идет — себе дороже.
UFO just landed and posted this here
Майкрософту-то зачем «на эти галеры».
Разрабатывать OS дело непростое, а доходу с устройств, которых даже на рынке не в гомеопатически-экспериментальных дозах нет — не дождешься.

Прямая дорога на них Линуксу резвиться.

Я уж не говорю, что разработкой OS все не заканчивается, а только начинается, если ваши задачи не исчрпываются работой в нотепаде и пасьянсе «Косынка».
> Прямая дорога на них Линуксу резвиться
кажется, именно благодаря нетбукам вышла вин7, именно затем, чтобы не дать линуксу на них резвиться :)

сейчас такое дело, что потребитель скорее откажется от винды, чем от идеи использовать дешевую, легкую и долгоиграющую штучку для музыки/кино/офиса и интернета.

имхо, будет новая винда под арм.
Богатая у вас фантазия, наверное с такой никогда не скучно.
> Я уж не говорю, что разработкой OS все не заканчивается, а только начинается, если ваши задачи не исчрпываются работой в нотепаде и пасьянсе «Косынка».

Да, в этом-то и соль — в софте. Вообще-то Debian уже портирован на ARM. Все 18000 приложений из репозитария Дебиана там доступны. Включая по меньшей мере 6 броузеров, 4 аськи, gimp, Open Office, kate, konsole, k3b, а также — да! — значительно превосходящий винды набор карточных пасьянсов.
На самом деле мне даже немного жалко жителей виндов. Корячиться с кракнутым Неро, с ворованым фотошопом, офисом, когда есть превосходящие их свободные и бесплатные k3b и gimp… Ну это как-то и некрасиво, и себя зазря мучить. Приложения в Windows все какие-то сырые, убогие, глюкавые, функциональность у них сознательно обрезана, сопрягать их друг с другом для совместной работы через пайп нельзя. Как подумаю, что и я так когда-то мучался- страшно сказать, для выкачки сайтов кракнутый Offline Explorer использовал вместо wget! — реально жалко виндузятников. А GPS софт взять? gpsbabel. Да куда не плюнь… да хоть кино смотреть (vlc).

Там есть еще минимум 3 современных window manager. А также средства компиляции и разработки для всех известных науке языков программирования. Свободно и бесплатно. И — да! — вот тут-то все интересное и начинается.

Мне кажется, основная проблема тут (в священных войнах на тему кто сильней — слон или кит) в недостатке информации и квалификации пользователей. Т.е. те, кто сидит под Windows, НА САМОМ ДЕЛЕ верят в то, что под Linux «нет софта». Или что интерфейс Linux неудобен. Или что его установка и настрйока требует много времени и офигительной квалификации…

Проблема в так называемом «туннеле реальности». Человек психологически неспособен поверить в то, во что он не верит. Говорят, некоторые первобытные племена не видят пролетающие по небу над ними самолеты. Поскольку в их туннеле реальности самолетам нет места.
По моему наличие «шести броузеров и четырех асек» это как раз прекрасное свидетельство того, что среди них ни одной нормальной, удовлетворяющей пользователя целиком, программы нет :)

На «венде» вот два браузера. Почему? Потому что они (оба) хорошие.

Ну и плюс маргинальные в доли процента объемов.
Очень намешили.

> На «венде» вот два браузера. Почему? Потому что они (оба) хорошие.

У меня установлены Firefox, Opera, Internet Explorer for Linux, Google Chrome, Aurora и Midory. Оперу я ставил из deb пакета.

У вашей «венды» есть броузеры получше? Срочно поделитесь, загружу и их тоже :))))
Как! Да вы что! Срочно бегите ставить еще Konqueror, Amora, Epipany и Links! ;)
UFO just landed and posted this here
Ну, Нвидия вроде не горит желанием Линукс на Тегру ставить, так что вопрос…
Ну, горит или нет, от нее не сильно зависит. На мелких она надавить все равно не сможет, а если хочет, чтобы устройство было успешным, то ему нужна нормальная ОС, а не убогий обрубок от виндуза.
Нвидиа идёт лесом. Вот и будут ещё год щи варить с такой политикой
Сказка, вот впихнуть туда Debian и вообще отлично.
Чем убунту не дебиан?) Подключайте src-репы от дебиана и собирайте ))
Убунта всё же немного не дебиан. Что вобщем-то не портит ее применение в ноутах, дэб всегда славился стабильностью, что для ноута не так уж и важно.
Так дебиан для arm вроде не отменили…
А есть какие-то препятствия для переустановки? Я бы попробовал туда Gentoo впихнуть.
С gentoo и кросс-компиляцией 'можно все', с оговоркой по поддержке железа. Как обычно в таких случаях могут быть проблемы, ну к примеру с проигрыванием видео с ускорением, это в лучшем случае. Про wifi, bluetooth и картридер тоже нужно не забывать.
P.S. если ubuntu пашет 'из коробки' то очень большие шансы что проблем не будет.
> P.S. если ubuntu пашет 'из коробки' то очень большие шансы что проблем не будет.

У меня с Гентой уже года 2 не было проблем, правда пришлось переустанавливать из-за того, что выпимши решил обновиться. Никогда так не делайте!
'Вы просто не умеете его готовить' ©
gentoo из-за своей специфики вещь очень капризная, но если все делать правильно то проблемы сильно минимизируются.

P.S. интересно, когда народ запомнит, что без бакапов ну просто никуда.

Кстати, кросскомпиляция в gentoo не такая уж и 'в один клик'.
интересно, до России он дойдет?
а не важно, при цене около 200 баксов все интернет магазины вам доступны
Доставка часто не-дешёвая
У нас продавать всяко дороже будут.
Почему нет? Маленькие лёгкие — проглотил в резиновом шарике, и как наркотики через границу :)
через границу при такой цене их и так можно по 10 штук провозить без пошлин.
Правда не знаю, может кроме цены еще какие-то ограничения есть на кол-во одинакового груза…
Будет трудно доказать, что это для личного пользования :)
Ну вот и ещё один гвоздь в гроб x86 архитектуры. Если устройство будет действительно удачное, то возможно следует в будущем ожидать целого вала устройств на ARM.
Мобильников, кпк и всякой промышленной и встраиваемой нечести с армом больше, чем х86 компов, btw ;)
Ну согласитесь основное колличество работы осуществляется на больших компьютерах, будь то ноутбуки, нетбуки, или десктопы, а отнюдь не на телефонах и коммуникаторах. Но перенос ARM архитектуры на большие устройства действительно создаёт прецедент для повсеместного перехода на эту архитектуру, а не только в сфере мобильных устройств.
А толку? Зачем менять то, что хорошо работает?
Конечно, в условиях того, что всю работу по переводу кода в процессорный выполняет компилятор, то многие х86 команды висят без толку, как наследие бородатых времен. Но тот же спарк рынка персоналок не захватил.
Спарк не отличался энергоэффективностью и дешевизной ПО. А ARM'ы отличаются. Плюс не уступают PC в решении таких задач, как воспроизведение всякого контента. Стоят дешевле (тут надо учесть и стоимость системы питания, и охлаждение, и даже занимаемое место), весят легче. Так почему бы и не заменить x86 на них в некоторых приложениях?
> Спарк не отличался энергоэффективностью и дешевизной ПО. А ARM'ы отличаются. Плюс не уступают PC в решении таких задач, как воспроизведение всякого контента.

Да ну. Видео показать не лагая, ARM процессор может только в таком разрешении, как на телефоне — 320x240 максимум. Матрешку или H264 еще ни один ARM тянуть не может. И то, что в нетбуках на ARM на выставках показывают как HDTV-видео крутится, то это только заслуга видеокарточки, которая аппаратно распаковывает тот же H264.
UFO just landed and posted this here
Я сравниваю потому, что считал, что mkv — это контейнер с собственной упаковкой, который свое содержимое пережимает собственным супер-пуппер алгоритмом, максимально размазывая все биты по всему файлу.

То есть, имеется в виду, что изменение пары байт в середине mkv файла, приводит к его нечитаемости.

При наличии собственного алгоритма компрессии у контейнера, сравнивать контейнер и видеокодек по нагрузке на проц вполне естественно.

Оказывается, про компрессию mkv — это заблуждение традиционное для интернета, так как «в контейнер mkv обычно помещается видео, запакованное ресурсоёмким кодеком H.264/AVC вместе с AC3 звуком».
UFO just landed and posted this here
А при чём тут mkv? Это же просто медиаконтейнер. Что же касается мощности ARM. А ну и пускай не тянет. Различные MPEG'и и H264 уже давно успешно декодируются силами GPU. И это эффективнее, чем делать эту работу на центральном процессоре. Философия построения SoC систем сейчас именно такая: это куча ускорителей плюс центральный процессор для управления ими. Задачу по рендерингу любого мультимедиа контента такая связка решает, а что ещё нужно?
Гибкость. Завтра придумывают новый алгоритм, и железячная реализация MPEG4...H264 идет фтопку. Новые фильме жмут новым кодеком, и пользователь покупает новый Pegatron-2, чтоб не долбаться с перекодированием в устаревший формат.
Эмс… Как бы. А какая разница, для какого процессора алгоритм реализовывать? Для GPU реализация даже проще может быть, из-за простой модели работы с нитями. Там же не зашито в микросхемы всё, ускорители — те же процессоры программируемые, только специализированные.
Вероятно, с появлением уже анонсированного Qualicomm ARM на 1,3 Ггц, и дальнейшего роста частоты процессора и общей производительности системы, и эти проблемы уйдут в прошлое. Не вижу принципиальных ограничений, почему бы нет. 1 Ггц уже сделан, 1,3 Ггц в производстве.

И это уже не говоря о более архитектурно правильных решениях. О системах на одном чипе, которые тоже уже анонсированы. И не говоря о декодировании GPU.
Затем, что это уже не очень хорошо работает.

Попробую обьяснить:

Вообще сама x86-архитектура была толком оформлена ещё в 70-х 80-х гг. Были заложены методы и принципы, которые тогда казались правильными, но со временем (фигли 20 с лишком лет минуло) стало понятно, что не всё, что было заложено нужно и это просто болтается как баласт, который отжирает мощности, питание и вообще делает работу самого процессора да и дальнейшее развитие не самым эффективным промыслом. Кроме того, на это всё за годы было столько всего понавешано, что мама не горюй. И каждый раз необходимо было соблюсти совместимость. Один факт, что в своё время для перехода на большие частоты производителям процессоров вынуждены были перейти на «гибридную» архитектуру (CISC-процессоры с RISC-ядром) говорит о том, что у самой архитектуры довольно большие проблемы.

И вроде ведь хорошо бы перейти с этой уже довольно устаревшей архитектуры. А почему, спрашивается, не переходим? Виновником этой тягомотины является общая пассивность. Например Microsoft особо вроде и не стремиться продвигать совместно с производителями оборудования правильную аритектуру (хотя почву, надо сказать, прощупывают), а наибольшая доля рынка — это вам не хухры-мухры. Я не пытаюсь обвинять софт-гиганта, просто привёл в качестве примера сценария, который не реализуется. Действительно, считается, что раз всё работает, то на кой трогать.

Но вот видно, что есть зачатки иного сценария постепенного ухода от x86: сначала RISC процы пользовали на мобильных устройствах, теперь вот на нетбуки перекатились. А этот рынок Microsoft упускать не намерена, поэтому скорее всего, когда колличество подобных решений перейдёт определённую грань, контора дяди Билла выкатит очередной Windows и средства для разраотчиков, а тут и до совсем уже больших компутеров недолго идти осталось. А за большим дядей и остальные потянуться (выбора не будет)…

Так что, вот такие пироги…
Ну, так оно, к сожалению, не всегда происходит. Интел достаточно основательно показал свои зубы в истории с нетбуками. Поэтому вероятнее всего, камнем преткновения в этой истории будет именно он, а не MS.
Хотя лично мне тоже интересен полновесный ноутбук на ARM.
У Интела уже есть архитектура отличная от x86. Проблема введения её на массовом потребительском рынке состоит именно в неподдержке этой архитектуры со стороны программного обеспечения. Поэтому должно что-то произойти, чтобы, как говорится, «звёзды сошлись», и что-то отличное (отличающееся) начало пробиваться на рынок персональных (в самом широком смысле) компьютеров… Возможно, развитие архитектуры ARM создаст прецедент, который за собой поведёт отказ Интела и AMD от этой архитектуры и представления на рынке своего нового конкурирующего решения. Первое время это будет конечно пипец (ну вспомните хотя бы битву форматов дисков, а тут не просто диски, здесь процы!!!), но всё равно это может привести к окончательному уходу x86 на второй план, а в перспективе и вообще к отмиранию…

Вообще время покажет, но прецедент создан. Ещё несколько подобных решений и можно буде запасаться попкорном :)
Это вы про itanium?
Не, вы про какой-то апокалипсис тут рассказываете))
itanium, насколько мне известно практически загнулся на десктопном рынке. Его задавила AMD со своей 686. А между прочим жаль, в итаниуме благодаря частичному игнорированию бинарной совместимости (для неё был отдельный модуль, сильно тормазной), была много концептуально хороших решений.
А он разве вообще позиционировался на десктопном рынке? Мне казалось, это чисто серверный продукт.
Топовые процессоры у Intel всегда серверные, а позже на десктопы сходят.
Надо же, не замечал такой тенденции, спасибо. Я знал, что мобильные процессоры обычно (кроме Atom) являются урезанной версией настольных собратьев, да и что вообще в рамках одного поколения как правило разные ветки все равно имеют одну основу, но что сюда нужно относить еще и серверные продукты — не знал.
Потому и не знали, что это глупости и неправда.
Не, вы про какой-то апокалипсис тут рассказываете))
Я всего лишь рассказываю про разные возможности дальнейшего назревшего развития. Хочется надеяться, что революция случится )))
+1.

А революция уже идет.

«Мы уже победили, только это еще не так заметно»
БГ
UFO just landed and posted this here
imho всё произойдет в естественном порядке без апокалипсисов и прочих неприятных вещей
Ну было бы здорово. Просто не совсем понятно, что так долго всё тянется, когда подобные изменения уже назрели. Возможно конкурирующие решения от того же ARM подтолкнут сильных мира сего ускорить этот процесс :)
Не беспокойтесь х86 жил и будет жить ещё очень долго. i8051 до сих пор существует, что говорить о рынке раз в 100 большем.
Никому даже в страшном сне не приснится чтобы поменять всё и даже Интел с Майкрософтрм вместе взятые не смогут сменить ситуацию.
Переписать софт в который вбухано несколько трилионов(почти 30 лет существования платформы) и милионы человеколет не под силу даже самым большим.
А ARM хорош в своей нише. Но нужно ещё много усилий чтобы он начал рассматриватся хотя бы какой-то альтернативой. Нужны более совершенные инструментальные средства, новые процесорные ядра с поддержкой многоядерности. Нужна наконец стандартизация на розширения и интерфейсы акселераторов, а то NVidia делает одно, Marwell другое, Qualcomm третье.
Линукс за почти 20 лет существования в десктопе не занял сколь нибуть существенной роли, а процесорная архитектура дело ещё серёзнее. Сколько RISC, архитектур пало жертвой х86. По сути остались только PowerPC от IBM и SPARC от Sun-Oracle но и у них это уже решения хайэнд, а мейстрим х86.
Выигрывает не тот кто эфективнее, а где разработчиков читай приложений больше. ARM-у нужно очень долгий путь пройти.
А ваши рассуждения чесное слово детский сад.
Переписать софт в который вбухано несколько трилионов(почти 30 лет существования платформы) и милионы человеколет не под силу даже самым большим.
Создаётся впечатление, что софт пишется на ассемблере. Код на сегодня по большей части пишется на довольно абстрагированных от архитектуры языках, а также наблюдается тенденция развития ненативных языков. Так что для большей части того, что уже написано будет достаточно состряпать компиляторы, компоновщики, интерпретаторы, виртуальные машины. К тому же на рынке есть пример довольно большого переписывания огромного проекта (Windows 7, ядро которого, как утверждает Microsoft, было довольно основательно перелапачено).
NVidia делает одно, Marwell другое, Qualcomm третье
Ну тут тоже вы не правы. Ядро-то там одно (архитектура), а они уже навешивают всякие свои фитнифлюшки. С такой же уверенностью можно сказать и следующую фразу насчёт той же x86: Интел делает одно, AMD другое, VIA — третье.
Не беспокойтесь х86 жил и будет жить ещё очень долго.
А я и не беспокоюсь… Правда есть примеры в истории, когда компания, занимающая лидирующее положение умудрялась сделав ряд неудачных ходов и держась за свои старые технологии умудрялась полностью просрать рынок: вспомните хотя бы 3dfx.
Насчёт разширений. Без разширений ядро не так уж и продуктивно. Попробуйте посмотреть x264. А без стандартизации рассширений рынок остаётся фрагментированным.

А сравнение с 3dfx смешно. Лучше сравните с i8051 есть куча более прогресивных архитектур, но за 30 с большим лет никто не смог подвинуть и сегмент этого микроконтролера самый большой. Atmel AVR, MicriChip PIC, Cypress PSoC в лучшем случае заняли сегменты, но к их сожалению не настолько денежные. Это как раз та инертность индустрии которую ни Интел ни Майкрософт осилить не смогу.
Заход ARM я вижу совсем с другой стороны. Не как убийцу х86, а как его дополнение. Он уже доминирует в мобильном сегменте и из него как раз будет вестись наступление. Просто все компанйоны ПК будут на ARM, а со временем в самом ПК у многих нужды не будет. Но это очень долгий процес.
А без стандартизации рассширений рынок остаётся фрагментированным.
Ничо не понял. Что значит «рынок фрагментированным»? Это то, что у каждого производителя свой «велосипед», чтобы увеличить производительность системы на разных и/или конкретных задачах? Если да, то вот интересно, каков будет процесс стандартизации в условиях современных темпов развития it-индустрии (ну как вы его видите или приведите аналоги из смежных областей). Кроме всего, разве сегодня рынок x86 решений не «фрагментирован»? Ведь каждый из производителей встраивает что-то своё… Тогда не понятно, чем ARM будет хуже того же x86 если рынок по сути будет аналогичный по степени «фрагментации».
А сравнение с 3dfx смешно.
А что смешного? Я просто привёл довольно яркий пример, когда одна очень крупная компания, являясь лидером и казалось бы в шоколаде умудрилась сделать несколько неправильных шагов и не видела «леса за деревьями» и таким образом умудрилась пробаянить рынок. Почему такого сценарий не возможен для того же Интел? Ведь крупным компаниям и ошибки совершать более накладно, да и инерция в них большая в отличие от более мелких конкурентов. К тому же есть прецедент: Интел уже в своё время совершил ошибку (Первые Интел Пентиум 4 когда выкатили), когда тот же AMD умудрился довольно неплохо подняться не на таких уж и качественных решениях, но по соотношению цена/качество — наилучших…
Лучше сравните с i8051 есть куча более прогресивных архитектур, но за 30 с большим лет никто не смог подвинуть и сегмент этого микроконтролера самый большой.
Не знаю к чему вы это, но вот то, что противоречит вашим словам:
В течение 1980-ых и начале 1990-ых годов был чрезвычайно популярен. Однако, в настоящее время устарел и вытеснен более современными устройствами, с 8051-совместимыми ядрами, производимыми более чем 20 независимыми производителями, такими как Atmel, Maxim IC (дочерняя компания Dallas Semiconductor), NXP (ранее Philips Semiconductor), Winbond, Silicon Laboratories, Texas Instruments и Cypress Semiconductor.
Источник: Википедия: Intel 8051

У вас есть другие данные? Ссылку в студию, буду готов посыпать свою голову пеплом, если что…
Что вы вцепились в Интел. Они чудесно понимают что х86 несовершенен, но рынок они не перепрут. Когда они с HP ввязывались в Itanium были совсем другие планы по распространению но им не суждено было сбытся. Itanium к єтому времени должен быть стать стандартом дефакто на рабочих станция как минимум.
О i8051 я говорю как о процесорной архитектуре, а не производителе. И смотреть надо не википедию, а отчёты IDC и им подобным по долям занимаемым разными архитектруами в разных сегментах.
Ваша сравнение с AMD как раз очень кстати. Интел не хотела делать х86-x64 вынуждая двигатся в сторону Itanium и именно AMD поламала весь расклад, главным лейтмотивом было эволюция, а не революция.
Насчёт посыпания www.emittsolutions.com/images/microcontroller_market_analysis_2008.pdf даные за 2008-ой год.
Core — 8051, Share 19%
Core — ARM, Share 10%
Неплохо для старичка 30 лет отроду?
А если учесть что в 8-16 розрядном секторе ARM делать нечего, а также что ядро для лицензирования стоит от 1 млн. $ для старых ядер и выше для новых, что ставит фактически заградительный баръер для входа в low-cost рынок, то ситуация ещё долго не поменяется.
Насчёт расширений, на х86 есть стандарт DirectX, OpenGL, тот же MMX, SSE-SSE3 и разработчики компиляторов и приложений пишут с их использованием, а в то же время NVidia, AMD, Intel могут делять инновации.
В то же время движок для игрушек с использованием API для Tegra не портируешь на Qualcomm или Toshiba.

Что вы вцепились в Интел. Они чудесно понимают что х86 несовершенен, но рынок они не перепрут.
Я не вцепился в Интел, просто они лидеры рынка среди десктоп-решений и ноутбуков/нетбуков, вот и привожу их в качестве примера, как наиболее яркого будущего конкурента ARM (если конечно будет реализовываться сценарий, что Intel будет продолжать держаться во всю за x86). А вот Itanium не стал стандартом де-факто на сегодня, во-первых, потому что он сам довольно несовершенен и некоторые преимущества по сравнению с x86 можно оспорить, а во-вторых, он на рынок выходил в совершенно других условиях. Тогда не было толком рынка нэтбуков, поэтому потребности в более продвинутой технологии не было. Сегодня совсем другое дело, потому и выход какого-нибудь альтернативного решения на рынок вполне вероятно.
главным лейтмотивом было эволюция, а не революция.
Ну тогда когда действовала AMD был задел на дальнейшее развитие архитектуры. Сегодня же индустрия практически упёрлась в технологические ограничения, решение которых может привести к значительному пересмотру и переделке очень и очень много, значительное изменение техпроцессо и введение новых более дорогих материалов, что только приведёт к удорожанию удорожанию, а это не есть хорошо.

Кроме всего прочего, AMD закрепилась на рынке значительно раньше, чем выкатила 64 разряда. И главным образом потому чтосмогла на рынок выкинуть решения на основе своих сверхдешёвых по сравнению с Pentium4 Атлонов. Так что цена — очень и очень решающий фактор. Особенно сегодня, когда боьшинство как раз смотрит в сторону дешёвых решений, поскольку они удовлетворяют большинство покупателей.
В то же время движок для игрушек с использованием API для Tegra не портируешь на Qualcomm или Toshiba.
Ну и ??? А решения на основе OpenMP от Intel'а не работают на AMD. Конечно стандартизация в какой-то мере необходима, но это дело будущего. Сегодня рынок ARM решений довольно разрозненный, но если они начнут занимать определённую нишу, то скорее всего ARM пройдёт аналогичный x86 эволюционный путь, после которого что-то да будет стандартизировано, а что-то будет оставаться как фишка от конкретного производителя. Всё загнать под стандарт всё равно не получится.

П.С. За ссылки на материалы спасибо, правда пока некогда даже толком просмотреть и осознать, что тама понаписано. Википедия конечно же не пуп мира, но для первоначального ознакомления вполне подойдёт, хотя к материалам в ней и нужно подходить с некоторой долей скепсиса (особенно в мелочах)
Если архитектура отличная от x86 — это ещё не означает, что она хорошая. У Itanium довольно много чисто архитектурных (логических) недостатков. И работает он быстро только в том случае, когда есть ОГРОМНЫЙ кэш. Да и хороший оптимизирующий компилятор для него Microsoft не осилила (потому что в Itanium реально много заморочек, особенно при работе с памятью). Поэтому для desktop'а он не очень и подходит, чисто экономически. Да и для обслуживания баз данных он не особо хорошо подходит. Хорошо он справляется только с инженерными расчётами, с числодробильными задачами. Вот в этой нише суперкомпьютерной Itanium популярен у тех, кто готов платить тысячи долларов за каждый дополнительный GFLOPS. C ARM'ами же история совсем другая. Они уже являются весьма распространённым решением. Производительностью они особо не блещут, конечно, но в паре с GPU для десктопных задач их вполне может хватить, тем более в многоядерном варианте.
> Да и для обслуживания баз данных он не особо хорошо подходит.

«А мужики-то не знают...»

www.tpc.org/tpcc/results/tpcc_perf_results.asp
Top Ten TPC-C by Performance

Половина мест в десятке — системы на Itanium2
У Itanium'ов хорошо с многопроцессорностью, количеством и берут. А так надо тесты SPEC смотреть, если мы говорим именно о процессоре, а не о системе в целом.
Я специально процитировал то, на что я отвечал.
TPC-C это как раз тест производительности на задачах типа OLTP-баз данных.
Между прочим ни в одном комментарии я об Itanium не упомянул :))) Просто очень весело наблюдать уже второй ответ по тому, чем ты и словом не обмолвился.

Теперь конструктивно: конечно, именно у этой архитектуры есть проблемы, но тот же x86 уже настолько покрылся мхом, что дальше некуда. Я просто готов в ноги поклониться инженерам Интела, АМД и VIA (да, да… эта компания не очень продвинулась в создании высокопроизводительных процессоров, но то, что они своими силами умудрились сделать, по моему должно по крайней мере удивлять), которые умудряются продолжать развивать эту архитектуру.

Никто не говорит об Itanium, как о будущей замене x86. Я больше чем уверен, что в недрах того же Интела зреет в качестве прототипов и экспериментальных моделей ещё что-то. Появление ARM на нетрадиционных для него рынков должно по крайней мере подстегнуть Интел и АМД вынуть свои наработки «из подполы», чтобы довести их до какого-то коммерческого результата. Вот и всё.

Кстати, ARM — это всего лишь архитектура, лицензию на которую могут продавать для воплощения разным потенциальным конкурентам Интела и АМД (если ARM начнёт конкурировать с x86).
Почему-то считается, что Intel — фанаты концепции 'x86 везде'. Они вон даже графический ускоритель пытаются сделать на основе x86. И при этом продали своё производство ARM (StrongARM) каким-то левым ребятам. Хотя, вроде, делают на основе ARM'ов процессоры для сетевых карт разных. Хм… Почему-то кажется, что Intel вряд ли оставит x86. Потому что они интеллектуальные собственники тут полные. И могут делать всё, что пожелают. C ARM'ами такой свободы и таких возможностей у них не будет.

С AMD вот ситуация интереснее. Они в недрах своих конструкторских отделов работают над некой технологией M-SPACE, которая должна позволить неким образом комбинировать различные вычислительные устройства на чипе. Пока они говорят о GPU и x86-CPU, но, вроде, этот подход никак не мешает им прикручивать к чипу и другие процессоры. Или может быть, даже прикручивать к набору функциональных устройств различные front-end'ы. Так что, ждём Бульдозер.

x86 же живёт и здравствует благодаря совершенствованию техпроцесса. В принципе, декодер инструкций — это не такая уж и сложная штука. И чем тоньше техпроцесс, тем большему числу инструкций его можно научить. Так что, тут процесс чисто механический. А вообще, imho, x86 просто не боятся приспосабливать под разные нужды: понадобилась векторная арифметика, взяли и добавили, без всяких там угрызений совести и соблюдения чистоты архитектуры. Понадобились всякие popcnt и прочие инструкции для ускорения мультимедия, взяли — добавили, и фиг с тем, коды инструкций могут по 6 байтов занимать. И т.д. Это чем-то похоже на Linux — в ядро функциональность добавляют все, кмоу не лень, и не обязательно согласовывают её с существующей архитектурой системы.

Может быть, в этом секрет успеха. Может быть, это позволит жить x86 ещё довольно долго. 22nm техпроцесс освоят, наверное. А это позволит ещё пару сотен инструкций добавить.
>>И при этом продали своё производство ARM (StrongARM) каким-то левым ребятам
Я бы не стал называть Marvell левыми ребятами :-)
Не знаю кем это считается, что они там фанаты чего либо — я так не считаю: просто Интел является самым крупным игроком на рынке решений, основанных на x86.
И при этом продали своё производство ARM (StrongARM) каким-то левым ребятам.Честно говоря, не знаю, истории этой «заварушки», но причинами к данному поступку может быть не только то, что Интел считает, что ARM тупиковая ветвь. Причиной может быть, например, что они в сегменте рынка процессоров ARM, которые традиционно занимали нишу мобильных устройств, имели не такие большие производственные показатели, а держать очень малое производство и разработку на своих огромных мощностях — это себе в убыток. В больших корпорациях тоже деньги считают.
x86 же живёт и здравствует благодаря совершенствованию техпроцесса.
Вообще сама Интел уже говорит о том, что техпроцесс скоро достигнет своего предела. Уже подумывают о переходе на другие материалы и прочее, что может только удорожать проектирование и производство последующих процесоров.
Это чем-то похоже на Linux — в ядро функциональность добавляют все, кмоу не лень, и не обязательно согласовывают её с существующей архитектурой системы.
Скорее ARM похож чем-то на Linux: есть компания, которая разрабатывает архитектуру (ARM), а любой производитель, может навешивать потом на это что угодно. Посмотрите хотя бы колличество производителей процессоров на ARM и x86 (до хрена и 3 соответственно), а «эксперименты» делают опять же только эти три компании.
Может быть, в этом секрет успеха.
А может просто в том, что пока ещё не было адекватного ответа. Ведь пока единственное, что я видел в комментариях, что смогли вспомнить отличное от x86 и ARM — это Itanium и то архитектура, как оказывается, не самая удачная. Может быть ARM станет тем адекватным ответом в обозримом будущем?
Сопоставление ARM в хардвере и Linux в софтвере — продуктивная идея. Спасибо.
Ну открытых RISC архитектур на самом деле еще, как минимум SPARC и MIPS. И у той и у другой база серьезных рализаций за спиной поболее ARM-а, который только-только с процессоров в мобилках стал подрастать. Но что-то особых успехов, тем не менее в «опенсорспроцессоростроении» не видно.
Ну а я и не ратую за ARM на рынке больших компьютеров. Я просто хочу сказать, что x86 устарела и пора бы уже закончить затянувшиеся поминки этой архитектуры. Если ARM например хотя бы просто даст толчёк сценарию окончания эры x86, а потом на относительно свободный рынок ринутся та же Toshiba, Sun и даже Intel с каким-нибудь своим новым конкурентным решением, и в конкурентной борьбе выживет сильнейший, то я абсолютно непротив. Почему бы и нет.
у той и у другой база серьезных рализаций за спиной поболее ARM-а, который только-только с процессоров в мобилках стал подрастать.
Я в таком же тоне могу сказать, например, и о MIPS, которая «растёт» только на рынке консолей, а тот же SPARC вообще открытая архитектура и распространяется по лицензии (с ARM найди десять отличий :) )… Почему же эти хвалёные архитектуры не смогли перейти в область больших компов. Новый не значит худший, порой бывает, что груз накопленного за время длительного развития только тянет ко дну, а не помогает оставаться на плаву. Так что тут вопрос опять же спорный.

П.С. Спасибо тебе добрый человек, что вспомнил хоть про эти две архитектуры отличные от x86 и ARM, а то со своим Itanium уже все уши прожужжали :)
Между прочим ни в одном комментарии я об Itanium не упомянул :))) Просто очень весело наблюдать уже второй ответ по тому, чем ты и словом не обмолвился.
========================================

Ну так Itanium самый противовесный противовес x86 архитектуре, с ее суперскалярными реализациями. Никакого out-of-order, никакой переменной длины инструкций, все красиво и законченно.
А если у Интела и есть еще какой-то козырь в рукаве, то думаю это будет что-то с VLIW как в Itanium-е.
Хороший коммент. В общем, суть тут в следующем: экспансия ARM процессоров в нетрадиционные для них ниши может создать «эффект домино». Точнее, эффект лавины. Она вызовет бурное развитие софта, а также подстегнет разработку и ARM, и x86, и возможно иных архитектур процессоров. Последнее приведет к обострению конкуренции, и все это крайне благотворно скажется на общей динамике отрасли.

Которая, мы должна признать, слегка застоялась последние годы. И не был ли этот застой искусственным, созданным монополистами рынка?

Первый камешек стронулся, снежный склон подрезан, лавина пошла и набирает скорость и массу.

Я рад, что не только я так думаю. Комменты были лично для меня крайне инетересны. Спасибо.
А я бы не хотел немедленного «ухода x86 на второй план, а в перспективе отмирания».

Мне кажется, что ситуация обострения конкуренции гораздо более продуктивна и интересна. Она значительно подстегнет софтверную (да и хардверную) отрасль, выведет ее из состояния самодовольной спячки. Реально станут широко востребованы кросплатформенные технологии и технологии виртуализации (думаю, на уровне софтврных гигантов виртуализация станет чуть ли не главной темой). Пойдет портирование софта на все платформы. В том числе массового софта и игрушек.

Начнут выигрывать архитектрно более правильные софтины, обладающие свойством масштабируемости.

Причем включая ОС.

По-моему, это отличная преспектива.
Да и ещё. То что я привёл в качестве примера MS отнюдь не значит, что именно они сыграют решающую роль. Лично я имею некоторые сомнения по этому поводу хотя бы из-за того, что сегодня, например, зубки точет такой гигант как Google, чтобы попытаться занять в будущем ниши традиционно занятые MS. Вообще сегодня происходит очень много интересного, а учитывая, что это только начало — дальше будет ещё интереснее!

Короче, устраиваемся поудобнее и наблюдаем скорую (я надеюсь не через 10 лет) битву титанов :)
На самом деле, даже те RISC-архитектуры, которые во время расцвета desktop'ов проектировались как RISC-процессорами с RISC-ядрами. Ну. И это несколько неверное представление. У суперскалярных out-of-order CISC'ов и RISC'ов ядро действительно выполняет меньший набор инструкций, чем тот который доступен снаружи, но оно не является само RISC-процессором. Оно является dataflow-машиной, способной параллельно исполнять несколько инструкций.

В эту эпоху процессоростроения, если нужен был быстрый процессор делали его суперскалярным и out-of-order, а этот подход в любом случае включает в себя декодирование инструкций, переименование регистров, планирование запуска микроопераций и так далее. И тут x86 оказался, как ни странно, гораздо более удобным для реализации этого всего бардака. Хоть его инструкции декодировать и сложнее, но они позволяют иметь более компактный код, которого банально больше влазит в L1-кэш инструкций: тут самое важное инструкции класса read-modify-write. Код x86 банально проще декодировать: двухадресная адресация, а не трёхадресная, как в большинстве RISC'ов. И так далее. Можно даже сравнить по сложности конвейера какой-нибудь там Power4 и Athlon — вполне сопоставимые длины у них.

Так что, x86 как суперскалярная out-of-order архитектура — очень удачное решение. Плюс инженеры не побоялись и затащили в него наборы векторных инструкций, что в desktop'ных RISC'ах (PowerPC для Apple) было сделано позже.

Добавьте ещё сюда фанатизм Intel по внедрению новых чисто физических техпроцессов производства процессоров. Они реально в это вкладывают просто гигантские деньги.

Такая вот история. Так что, доминирование x86 на рынке — это не просто так. Есть к этому объективные чисто архитектурные предпосылки. Другое дело, что сейчас индустрия подошла к пределу усложнения out-of-order процессоров и по чисто сложностным показателям, и по энергопотреблению. И все плавно начинают соскакивать на SMT-архитектуры (hyperthreading). Или на SMT и векторные архитектуры: это нечто вроде GPGPU современных. А вот для таких процессоров как раз RISC'овые наборы инструкций и RISC'овые архитектурные идеи более выгодны.

x86 тоже собираются меняться в эту сторону, но там уже измнения выглядят похожими на маразм: теряются все достоинства x86-кодировки инструкций, и никаких приемуществ эти изменения особых не дают: кодировки удлиняются, но по логике они ничем особенным от RISC-инструкций не отличаются. Так что, IMHO, вполне возможно, что в новую эпоху процессоростроения x86 уйдёт со сцены, как в прошлую ушли Alpha, PA-RISC и прочие. Потому что требования к архитектуре меняются, а x86 в них вписывается не очень хорошо.

И вот тут реально x86 может держаться только на лояльности Microsoft (которая, кстати, не так уж и привязана к x86: у них были Windows и для Alpha, и сейчас есть для Itanium, и офисы они делали для Apple во времена PowerPC, и сейчас сами они X-Box 360 продают, который тоже на PowerPC работает, и Windows Mobile). Microsoft же не хочет десктопные Windows делать для ARM'ов, imho, по очень простой причине: чтобы потребитель два раза заплатил — один раз за Mobile, другой раз за XP. И тут разделение в процессорых архитектурах MS только на руку. И если бы не было Linux, MS и Apple поддерживали бы такую сегментацию рынков. Но Linux есть, так что, все шансы на изменение рынка desktop'ных процессоров присутствуют.
'Код x86 банально проще декодировать: ' — не декодировать, а транслировать во внутренний набор инструкций.
Да. И ещё нужно добавить, что подсистема работы с виртуальной памятью в x86 более удачна, чем у большинства RISC'ов. Она более сложная, но при этом и более эффективная для условий: в основном работает одно приложение.
Хотеть! Вот сразу нетбуки надо было делать на АРМ, чтобы дооолго работали
А их и делали на ARM — Psion же начала эту историю с нетбуками. Только стоили они бешенных денег.
Ну и не дошли до людей собственно… в этом рпобелма)
Действительно, это самая главная проблема: цена.
И поэтому как раз сейчас у ARM есть все шансы на завоевание нескольких ниш: они бьют существующие системы и по цене тоже.

Как показывает история нетбуков, фактор цены никак нельзя сбрасывать со счетов. Триумфальное их шествие поначалу — следствие разумной цены. Определенная потеря интереса покупателя к ним ныне — следствие цен. Когда нетбук становится дороже ноута, без соответствующего повышения производительности и времени жизни от батареи — в лес такой нетбук.

Подобные устрйоства жизнь в целом отвергла, и рынок в целом отверг. Это крайне нишевый товар, а фишка нетбуков — в массовости и дешевизне, как мне кажется.
Эх, 6-ячеючную бы туда, и можно было бы забыть о розетке на целые сутки!
Ну, думаю, что дополнительные батареи не заставят себя ждать.
UFO just landed and posted this here
Хотя мне мои посты Хабр все равно розовым помечает)
Есть несколько вопросов, буду очень признателен если кто то ответит на них:
Когда планируется появление этого чуда на рынке?
Что там внутри в плане железа, хотя бы ориентировочно?
Какие возможны проблемы из-за новой архитектуры, как в плане софта так и в плане железа?
В плане софта:
Как я понял собрать из исходников софт для линяукса можно почти под любую архитектуру, следовательно посидеть надо будет с недельку, но все необходимое собрать можно будет, да и работать собранное будет шустрее.
вот бы еще в форм-факторе интернет-таблетки размером 7" и вообще шикарно. и чтоб еще с 1080p воспроизведением через hdmi, просто для абсолютности.
Взял бы с разворачивающимся монитором и тачскрином как читалку-писалку. Есть такие дешевые модели?
Посмотрел на свой Асус который от огромной батареищи кушает дай бог часа 3 и взгрустнул.
UFO just landed and posted this here
к нему гиасс в комплектухе?: Р
Это немножко из другой оперы. :)
с таким нетбуком и гиассом пойти покорять мир :)
UFO just landed and posted this here
1.5Ач*3.7В? Просто когда пишите про амперчасы не забывайте указывать вольтаж аккумулятора, так как единицей энергоёмкости является ватт*час, получаемый перемножением Ач на Вольты
UFO just landed and posted this here
совсем забыл, вы на цену и время работы посмотрите!!! atomу для такого, действительно, только атомные батареи нужны.
Ага угу. Точно-точно.
SmartDevices SmartQ 5
667MHz ARM CPU

Compatible operating system: Windows 2000/XP/Vista/Linux

Время работы, говоришь, написано? :-}
В спецификации написана конечно лажа. В отзывах там висит правильный топик, который постоянно обновляется:

«Subject: Compatible Operating Systems (will keep updating) desren Tuesday, July 07, 2009 10:54 PM Reply

Please post any info here and I will add it to the list.

— Ubuntu ARM

default OS. Doesn't seem to take full advantage of what the SmartQ 5 can do. Hardware acceleration starting to being used, though. Videos, the main flaw, getting better.

— Mer

Open ARM distro, still in development, at 0.14 BETA

— WinCE 6.0

often written ''wince''. Looks like Windows 98, so it's cool. No WIFI yet, however surfing via Bluetooth is possible.

— Android

no Wifi yet, maybe more problems??

— Keep us posted!»
Угу. Ни одной нормально работающей. Нет, спасибо, у меня уже есть одна игрушка на ARM/линуксе без софта — Nokia N800. :)

Для удовлеторения страсти к экспериментированию мне хватит.

ЗЫ. Там еще фотографии плат прикольные. Bluetooth-донгл без корпуса припаянный толстыми зелеными проводами куда-то к дорожкам 8)
Ага, китайцы жгут! Но они смелые. И они проторят дорогу, куда потом спокойно войдут Toshiba и Sony, Asus и Samsung.

P.S. Жаль у меня нет железки, я б поставил Ubuntu ARM.
а где там на сайте производителя есть Android? В загрузках вижу тока Win CE.
Уже бы давно заказал, если бы не размер оперативы 128 Мб. Для любой операционки это катастрофически мало.
UFO just landed and posted this here
Ну да, операционка еще работает на 128мб, а вот программам уже мало остается!
Оперативка уже давно копеешная, когда же наконец производители/сборщики повернутся к пользователям лицом, а не другим местом как сейчас.
Жду ARM нетбук, потребности минимальные, но есть, пока терплю ущербные 2-3 часа от eee pc 901/ Куплю следующий, когда опративки будет минимум 1 гб, обязательный видео-ускоритель и время работы минимум 8ч (просмотра видео без wifi). Готов пожертвовать оперативкой, только за счет уменьшения размера до 9" тонкой таблетки (планшетника) и при условии, само собой, приемлемой цены, т.к. не cтоят задачи, возлагаемые на эти устройства, дороже 500$-600$.
UFO just landed and posted this here
А можно поподробнее о хитрых матрицах, vp7 и theora? Ну и про опорные кадры тоже :)
UFO just landed and posted this here
Так а зачем хардварный-то декодер? GPU же программируемый. И доступ имеет полный к памяти, можно хоть сколько кадров хранить. Theora же, вроде, основана на DCT, а GPU неплохо это преобразование ускоряет. Так что… Вот.
UFO just landed and posted this here
Pegatron Smartbook оснащен 8,9-дюймовым дисплеем с разрешением 1024x600 пикселей, 512 Мб оперативной памяти, беспроводными адаптерами Bluetooth 2.0 и Wi-Fi (802.11 b/g), а также слотом для карт памяти SD, такая карта послужит в качестве накопителя. В числе разъемов — VGA, 2xUSB, Micro USB, линейный вход и выход на наушники. Аккумулятор смартбука емкостью 4400 мАч обеспечивает до 8 часов автономной работы устройства, очень хороший показатель. При этом, вес Pegatron Smartbook всего 850 граммов. Смартбук работает под управлением операционной системы Ubuntu 9.01( в статье по видимому опечатся, думаю это 9.10). По всей видимости, продажи смартбука от Pegatron начнутся ближе к концу года, и если его стоимость удастся удержать на отметке около $200, то популярность ему, пожалуй, обеспечена.
Скопировано с news.ferra.ru/hard/2009/08/21/89917/
200 баксов это порядка 7-7,5к рублей. Если в России он будет по цене в 10к, то он обречен на успех.
>а также слотом для карт памяти SD, такая карта послужит в качестве накопителя.
значит традиционных SSD (или даже HDD) мы там не увидим?
видать это то место где они решили съэкономить, ведь ссд даже на 16гигов стоит денег. А Докупить ССД и подключить самому думаю не сложно будет, если там есть место куда его запихать.
Pegatron это ODM-подразделение («производящее», «завод») ASUS.
а 200$ и 900 грамм это много?
имхо этот umpc — то что доктор прописал.
с 10 дюймовым экраном есть, но они тяжелее, потребляют больше, стоят дороже, зачем это все если это UMPC? Представленное железо на мой взляд чуть ли не идеал.
ах, ну если umpc. В тексте этого не написано
а 200$ и 900 грамм это много?
имхо этот umpc — то что доктор прописал.
с 10 дюймовым экраном есть, но они тяжелее, потребляют больше, стоят дороже, зачем это все если это UMPC? Представленное железо на мой взляд чуть ли не идеал.
Мда… Не отправлялось сообщение, решил схитрить и отправить в общие, зря =(
Sign up to leave a comment.

Articles