Как стать автором
Обновить

Комментарии 79

Стыдно за качество фоток ) Большинство из них были сделаны с самого последнего столика. Тем не менее, если всматриваться — можно найти интересные детали ;)
Мне кажется, товарищ придирается
Мне кажется, автор этого комментария и автор поста разные люди ;)
мне кажется, что MIDы как не приживались, так и не приживутся.
Есть навороченные телефоны, поэтому массам MID не нужен. Так гикам поиграться.
Мм, а я думаю иначе ) на примере своего коммуникатора HTC HD2 — огромная диагональ, можно вылезти в инет, но время работы совсем небольшое. Хотя, казалось бы, можно смотреть один фильм за другим, сидеть в аське и опере.
На подобных же мидах свобода действий куда побольше — это еще не нетбук, но и уже не телефон. захотел — вылез в инет (через ту же йоту, используя модем самсунга или встроенный), захотел — позырил фильм на «большой» диагонали. А нетбук в карман тоже неположишь )

В общем, имхо — МИДы, в том смысле, в котором мы их хотим понимать, должны были появиться давно, но до этого упирались в технологические рамки ) Сейчас же у них есть все шансы
Тут встает вопрос, а захотят ли люди носить с собой MID? Он хоть и не ноутбук, но уже и не телефон =)

Я, судя по себе, не стал бы. Только в какие-нить заранее запланированные мини-поездки. А из этого вытекает нишевость устройства. Если HD2 это помимо прочего еще и телефон, без которого никуда, то MID — это развлекуха, не влазящая в карман.

Конечно, всё это гадание на кофейной гуще. Время покажет.
Так в карман-таки как раз влезает ) А mind — в тачку! )
Для сравнения — PSP. Это не телефон и не нетбук — игрушка. Но покупают же )
«Нишевость» определенная есть, но где ее нет )

Кстати, поставь туда скайп и вот тебе замена телефона ) Не так все гладко конечно будет, но со временм может развиться
Вот вот, уж лучше коммуникатор + PSP, нежели телефон и mind…
Что мешает производить МИДы с gsm модулем? Вроде бы такие даже уже есть (viliv s5)…
Так вроде есть миды с gsm? По памяти еще xpphone всплывает )
Он вроде бы еще не в продаже… Но, в сути, я именно об этим и говорю.

Кстати, на сколько я понимаю, нокия н900 как раз тоже мид…
В MIDах мало возможностей для творчества. То ли дело iPhone. И не MID, и не Ноут, но и не КПК, разумеется.
Приложений уже сделано — миллион. Возможностей как таковых — зависит от фантазии разработчиков.
Время уже показало, что будущее за устройствами, которые могут свободно развиваться за счет самих же пользователей.
Т.е. для айфона больше приложений, чем в линуксе? ) Я далек и от того и от другого, но ваше заявления для меня — нонсенс )
Окей, давайте я поясню свою мысль.
Я недавно увидел приложение от Tapbots и осознал саму суть того, к чему стремиться Apple, когда создает новое устройство или расширяет возможности ОС.
Что представляет из себя iPhone: экран и кнопка. Вот и весь интерфейс. Плюс внутри (ПО) есть все необходимое для создания действительно нужных людям приложений. Apple просто не может предугадать, что понадобиться конечному пользователю, но разработчики могут дать поле для творчества, вы согласны? Да, есть некоторые ограничения, но они ни что по сравнению с тем, что можно создать, следуя правилам, которые были установлены.
Для контраста возьмем любою другую компанию «X», которая также создает устройство. Они проектируют электронику, пишут «максимально быстро выполняющийся код» и выбрасывают его на рынок. («It's better than X. Trust me!») Мол, найдется гик, который, фанатея от уймы уже заложенных функций, проникнется этим девайсом.
Ну-ну.
Вместо работающих правил разработки, которые всем были бы понятны, производитель накладывает безумные ограничения, которые тяжело преодолеть и вообще выдумать что-то альтернативное. И вдряд ли это будет хорошая поддержка разработчиков, которые действительно будут помогать пользователям в решении поставленных задач и появляющихся проблем.

Сразу говорю, не будем обсуждать маркетинговую сторону вопроса. И без этого понятно, что девайс должен быть прибыльным. Хотя есть отдельные вещи, которые понимает только определенная группа людей. Как классическая музыка. Чтобы слушать, нужно понимать её.
Спасибо за такой большой комментарий ) Но что мешает производителям хоть завтра-послеззавтра сделать девайс с экраном и одной кнопкой? ) И использовать любой софт с открытым кодом? ) Или я тогда не понимаю, чего народ молится на андройд )
Мне кажется, что дело не конкретно в мультитач экране и одной кнопке. Это лишь способ решения задачи. Открытый исходных код тоже мало чего стоит, если нет этих самых правил, которые помогают ориентироваться разработчикам.
Попробую провести параллель с типографикой. Каждый может поставить себе InDesign и верстать как его душе угодно. Но лишь следуя уже устоявшимся правилам типографики (не традициям!) он сможет создать действительно что-то хорошее.
Возвращаясь к девайсам, мы имеем дело с интерфейсом. Единый стиль, одинаковое поведение, одинаковая реакция на действия — это то, что ждет обычный пользователь, как мне кажется. У человека нет времени разбираться каждый раз в новом приложении. Разве вам не хотелось экономить время на освоении сложных программ? Именно стандартизация помогает быстро освоиться и не тратить время на ломание головы над вопросом «А почему вот в том ПО у меня драг-н-дроп работает, а здесь нет?».
Мне, лично, подходит Андроид в первую очередь по той причине, что iPhone не существует в CDMA версии. В Украине же CDMA очень развитая сеть, и по сравнению с ГСМ (по другому этот кидаловский стандарт в наших странах не назову), в CDMA полностью доступны за 12.5$/мес пакет услуг примерно: до 1500 минут и плюс 700-1000Мб EVDO связи. При всем при этом — был бы iPhone для CDMA, взял бы и не задумывался бы даже.

Хотя вообще-то меня удивляет подход Apple. Я наверное чего-то непонимаю, но в США одни из самых мощных операторов — CDMA-операторы Sprint, Verizon, Alltel… Почему абсолютно полностью игнорируется этот рынок производителями?
В америке, еснимп, частоты CDMA отличаются от наших. Да и наверняка тому есть еще причины — типа унификация, и все такое.
Хм, и правда, кстати. Я на википедии посмотрел статью про CDMA и тоже удивился.
Может тут играет роль деловая договоренность между операторами и производителями?
Ведь придется оборудование целиком менять, а все ГСМ-мобилки на помойку. Вряд ли владельцы сотовых сетей на это пойдут =) Деньги им важнее, чем качество связи для их клиента. Или я не прав?
НЛО прилетело и опубликовало эту надпись здесь
Вы, конечно, извините, но пока самсунг ни одну нокию даже не убил, не то что айфон.
Убийца айфона только один — силикатный кирпич. Чтобы «убить» яблотрубку, нужно убить не железку, а сервис. Продажу музыки в айтюнс и софта в айстор. Сам по себе айфон — среднего уровня тачфончик, без передовых функций. А вот сервисы, унификация и продажа софта через айстор делают его непотопляемым.
НЛО прилетело и опубликовало эту надпись здесь
У меня у самоно 5800. Нету для тач симбиана ТАКОГО разнообразия хорошего софта. Плееров нормальных — нет, а те что есть приходится доламывать, т.к. они писались в китае.

Простите, нокия до сих пор не может сделать рабочий стол как в малдших моделях, не говоря уж про рабочий стол n97, хотя у 5800 почти все те же железки и 1-в-1 такое же разрешение экрана. Под обычную симбу софта валом, не спорю, вот только айфон какая-нибудь n82 явно не потопит. :( И единого репозитория у них нет. Ови — не в счет, редкостно дурацкий магазин.

У яблофона только два более-менее весомых конкурента — андроид, к которому из-за открытости УЖЕ гора софта, и вин мобайл, к которому горы софта из-за возраста. Блекберри не в счет, их у нас нету, вроде как.
это пристрелочный камень в сторону psp неглядя — авось прокатит, если не прокатит — переживут, если прокатит — профит.
нетбуки принесли свой профит несмотря на свою цену
Здесь если всё пойдёт по писанному, то планируемым MID-устройствам придётся столкнуться с планируемыми же планшетниками. Как я понимаю, вопрос тут будет только в размерах (диагонали) экрана.

Для меня же лично экран меньше двенадцати дюймов — не интернет-девайс.
mid не прижились потому что они были убоги. x86, обычная винда, малое время работы. я вот уже долго жду arm, 7", 10+ часов работы, 1080р видео. похожие устройства есть в китае, но еще не то. у нас естественно и близко нет. ах да, цена $200, а не $500+ как у mid
Иконки на рабочем столе — новый Microsoft Office 20..?
Ох, вот на это даже как-то не обратил внимания :) сам я пользуюсь 2000-ым офисом, поэтому даже не в курсе, как выглядят иконки последнего )
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
«небольшое здание где-то в закоулках Барвихи» – это ни больше ни меньше Barvikha Luxury Village! Стоит прямо на Рублевке, вызывая блевотворный рефлекс. Простите за оффтоп, но статья с этого начата, остальное прочитал на одном дыхании )))
НЛО прилетело и опубликовало эту надпись здесь
Нетбук, но чей — не помню.
Спасибо. Жаль…
Мандриву можно поставить на любой нетбук. И Моблин в ней включается в несколько кликов.
Я знаю, но не в этом дело.
Полагаете, она предустановленная и заточенная под девайс?
Почти угадали. Мне нужен моблин не ниже версии 2.0, заточенный под один конкретный девайс.
А на предыдущую MID-платформу в Intel похоже забили… для встроенной графики до сих пор нет нормальных драйверов, любое приложение, с намёком на 3D, ужасно тормозит, хотя по заявлениям видео чуть ли не DirectX 10.1 держит и шейдеры аппаратно обрабатывает 4-я конвеерами. Хорошо хоть аппаратное декодирование HD-видео реализовали.
Боюсь там не в драйверах дело :) Имею на ноуте интеграшку от Интеля, там там мощность карточки реально расчитана на то, чтобы aero и compiz не тормозил, а также HD видео шло. Любые более серьезные задачки карточка еле тянет. По производительности 3D сливает десктопной geforce 8600GT в 10 раз
Как-то странно сравнивать интегрированное видео в ноутбуке и дискретну карточку на десктопе ) Большинство ноутов сейчас идут с дискретной графикой (ну и с интегрированной тоже, благодаря чему могут экономить батарейку, переключаясь с одного на другое в зависимости от потребностей), так что пользователь изначально должен знать, какое устройство и для каких целей он покупает.
Тут же проц и графика — для нетбуков и неттопов, т.е. для железок начального уровня, выполняющие базовые функции пк. То, что они не предназначены для кризиса, фотошопа и прочих 3д-максов, говорят и другие параметры, типа размера экрана (у нетбуков).
Понятно дело, просто сваливать тормоза на драйвер тут не получится, всё же проверялось на двух ну совершенно разных драйверах и FPS был примерно одинаковый, а с дискреткой сравнил для примера
В моем случае скорее всего виноваты драйверы, потому что встроенную графику GMA500 Intel приобрела на стороне, у компании PowerVR, в отличие от более старой GMA950, на которой даже поиграть во что-нибудь нетребовательное можно. По характеристикам GMA500 практически не уступает GMA950, а в технологическом плане даже круче, но на 1-й тормозит абсолютно все что связано с 3D графикой. Aero-эффект сворачивания окон в Windows 7 притормаживает. Одно радует, что можно фильм в HD-качестве посмотреть, а потом еще часа 4 пользоваться нетбуком, это я про Acer Aspice One 751h говорю, который построен на предыдущей MID-платформе от Intel.
В Линуксе с этой GMA 500 и того хуже, ибо драйверописатели там явно жопорукие, а открытый драйвер пока так никто и не написал. Поэтому вот обхожу её стороной.
Вот-вот, немного-таки осталось до полноценного пипбоя на ядерной батареечке с педивикией в видеоформате. Автостопом по галактике не за горами))))
Пост Бумбурума без упоминания твитера Бумбурума [x]
У кого какое мнение насчет вопроса в конце поста? :)
«Скажите, вот тепловой пакет нынешних нетбуков – порядка 12Вт, хотя у ноутбуков, выпущенных в начале тысячелетия на платформе Intel Centrino, была примерно такая же ситуация. Обе системы справляются с качественным видео лишь скрипя зубами, т.е. по сути, решаемые задачи очень схожи. Так где, собственно, прогресс?»

В размере?
Я, если честно, ответ несколько прослушал ) но как минимум в размере, верно.
С другой стороны — количество транзисторов выросло, а законы физики остались )
В начале тысячелетия «качественное видео» озаначало не то, что сейчас :)
Сколько стоило производство центрин в 200ом и сколько стоит производство атомов сейчас? ;) + Оси разжирели и стали кушать больше. Прогресс есть, он — в удосбтве, но как таковых нетбуков с 33 гигагерцами ЦПУ и 16 гигами рамки мы не увидим. :)
НЛО прилетело и опубликовало эту надпись здесь
куда катится мир, руки разбегаются за все потрогать и покопатся
Новые процессоры, старая частота, нетбуки, неттопы, миды… все классно… только в этой «вольтажной» гонке такое ощущение что Intel абсолютно забил на ноутбуки.

Легкая предыстория. Еще весной 2009 года я за 820$ купил Dell Vostro 1310 с комплектацией Intel Core2Duo T8400 (2.1GHz), RAM 4 Гб, 250Гб винт, GeForce 8400M 128Мб, 13.3". Самым основным было — это наличие мощного процессора. При всем при этом по сегодняшний день, учитывая что ноутбук используется в «беспощадном режиме» он держит 3 часа 20 минут на Win7, а на расширенной батарее (+250 грамм и 85$) заказанной со штатов — элементарное расширение до 5.5 часов. При всем при этом 5.5 часов с включенными WiFi, беспроводной крысой, EVDO-модемом и яркость на 75%. Никаких сберегающих режимов не включено.

Что на сегодня мы имеем. Процессора C2D 8400, 9400 где они? На сегодня их можно увидеть только в топовых компьютерах Apple Macbook Pro, Sony Vaio, и т.д., стоимость которых шкалит за 1'700$, да и то не у нас. В магазинах же появились еще с лета какие-то непонятные 1.2-1.3-1.4 ГГц процессора, якобы с мегаультрасберегающим режимом. И на поверке работающие максимально на 10% времени дольше, но благодаря своей «тормознутости» при работе с тем же Photoshop и т.д. в итоге выходит что эти 10% времени вы тупо втыкаете в монитор ожидая реакции. Т.е. на рынке господствуют старые процессора C2D T6600, C2D 5xxxx серии, Pentium T4300 (ааа!.. динозавр...), CoreDuo в своем великолепии засыпан на прилавках и продавцы втюхивающие их как единственные двухядерники, хотя на самом деле…

Вопрос ко всем знающим… Куда пропали нормальные процессора от Intel-а? Появятся ли снова, вообще что с этим вопросом на рынке ноутбуков? Все из магазинов разводят руками, типа — такие поставки, завоз, мямлят что-то и ни один человек не может сказать хоть одну хоть более менее правдоподобную версию. Единственная моя лично версия: что Intel тупо зарезал эти процессора временно и на рынок выкинул просто старый и залежалый товар. Других логичных объяснений у меня нет.
Новые процессоры, старая частота, нетбуки, неттопы, миды… все классно… только в этой «вольтажной» гонке такое ощущение что Intel абсолютно забил на ноутбуки.

Легкая предыстория. Еще весной 2009 года я за 820$ купил Dell Vostro 1310 с комплектацией Intel Core2Duo T8400 (2.1GHz), RAM 4 Гб, 250Гб винт, GeForce 8400M 128Мб, 13.3". Самым основным было — это наличие мощного процессора. При всем при этом по сегодняшний день, учитывая что ноутбук используется в «беспощадном режиме» он держит 3 часа 20 минут на Win7, а на расширенной батарее (+250 грамм и 85$) заказанной со штатов — элементарное расширение до 5.5 часов. При всем при этом 5.5 часов с включенными WiFi, беспроводной крысой, EVDO-модемом и яркость на 75%. Никаких сберегающих режимов не включено.

Что на сегодня мы имеем. Процессора C2D 8400, 9400 где они? На сегодня их можно увидеть только в топовых компьютерах Apple Macbook Pro, Sony Vaio, и т.д., стоимость которых шкалит за 1'700$, да и то не у нас. В магазинах же появились еще с лета какие-то непонятные 1.2-1.3-1.4 ГГц процессора, якобы с мегаультрасберегающим режимом. И на поверке работающие максимально на 10% времени дольше, но благодаря своей «тормознутости» при работе с тем же Photoshop и т.д. в итоге выходит что эти 10% времени вы тупо втыкаете в монитор ожидая реакции. Т.е. на рынке господствуют старые процессора C2D T6600, C2D 5xxxx серии, Pentium T4300 (ааа!.. динозавр...), CoreDuo в своем великолепии засыпан на прилавках и продавцы втюхивающие их как единственные двухядерники, хотя на самом деле…

Вопрос ко всем знающим… Куда пропали нормальные процессора от Intel-а? Появятся ли снова, вообще что с этим вопросом на рынке ноутбуков? Все из магазинов разводят руками, типа — такие поставки, завоз, мямлят что-то и ни один человек не может сказать хоть одну хоть более менее правдоподобную версию. Единственная моя лично версия: что Intel тупо зарезал эти процессора временно и на рынок выкинул просто старый и залежалый товар. Других логичных объяснений у меня нет.
Прошу прощение за дубликат… Вот с такой ошибкой не отправилось, и потому кнопка «Отправить» была нажата второй раз.
«Хабрахабр — Голосования
Some error… We know...»

Вот лажа…
Маркетинг он такой маркетинг! Почему свет клином сошелся на интеле и x86? Почему никто не писает кипяточком от того, что тексас анонсировал OMAP4 процессор?
OMAP4440 — 1+ GHz dual-core ARM Cortex-A9 MPCore + PowerVR SGX 540 GPU + C64x+ DSP + ISP (Image Signal Processor) — на борту у одного кристала какбы. На базе этого чуда есть решения с потреблением менее 1 ватта :) Те же 45нм (хотя по данным на 16 сентября на TSMC линию запустили под 40нм).

Сам являюсь владельцем многих устройств на ARM (в основном — промаппаратура), в том числе — BeagleBoard. 1080i и прочая ресурсоемкая фигня крутится на нем под дебианом (а это еще OMAP3). Сейчас ожидаю отладочник Devkit8000 — там на борту платы поболее периферии, выход на LVDS — хочу с модификацией контроллера заряда воткнуть на место помершей материнки от старого маленького компака (и сколько еще места в корпусе останется!). Пассивное охлаждение? На этих устройствах даже радиатора не надо!

Ладно понимаю фапание виндузятников на новые атомы — под ARM мелкомягкие фишку просрали и прикинулись, что не очень и хотели. Но линуксоидам ИМХО стыдно должно быть — дебиан, кармическая коала и прочие дистрибы (андроид кстати один из первых был портирован) ставятся без проблем и скрипов.

Вас кормят залежалым товаром — а вы радуетесь… Грустно…

P.S.: разгребусь с работой — попишу немного про полезные ARM :)
Боюсь, на него не фапают как минимум потому, что о нем никто толком не знал ) Нет, кто-то конечно и знал, но оно явно не на слуху. Интел, все же, покрупнее будет да и домен у них более запоминаем )
Думаю, если у этих камней действительно так все хорошо, их кто-то да заметит из производителей и порадуют какой-нибудь аппетитной железкой для более широкой аудитории
как так никто не знал ????????????????????
iPhone, Palm Pre, Nokia N900, несколько моделей HTC (HD2 в частности)
Это очень популярная платформа (OMAP-3) а за OMAP-4 уже в очереди стоят, только вот один недостаток у TI'ных SOC'ов — очень дорогие, по сравнению с конкурентами. По этой причине на работе после ресеча была выбрана SH-4 архитектура от STI micro, дешевле на порядок, а в некоторых местах и лучше, единственное чего не хватает — 3Д ускоритель. Но обещают в следующем поколении.
Так что зря про то что никто не знает.
да забыл еще про дин популярный телефон — Samsung omnia HD
Знаете почему? Потому что ось, у которой больше половины рынка почему-то не работает на АРМах. Вот потому и х86.
единственная ось, которая не работает под АРМом — windows. (Windows Mobile не в счет).
Дык про неё и речь.
ну я вообще думаю, что как только повысится популяризация арма, макйрософт будет просто вынуждена портировать свою ось под арм. Тем более что ничего сверх трудного в этом нет, ведь Виндовз написан на С++, конечно-же это трудоемкая задача, но с таким штатом как у майкрософт я думаю это скорее маркетинговая задача, нежели инженерная.
Пусть девайсы на нем зарелизят для начала. n900 вон на OMAP3. Будет что на OMAP4 не за цену самолета — купим и попросим еще.
Что-то максимальное поддерживаемое разрешение маловато.
а зачем больше на мобильном помошнике? )
Судя по замерам нагрузки при проигрывании 1080p, нет никаких существенных улучшений от интеграции графического ядра в процессор, за исключением экономии места и тепловыделения.
Интересная политика, размещать в техописании процессора опционально-докупаемый HD-декодер производства Broadcom…

з.ы. как можно опечататься в адресе собственного распиаренного блога? =)
там не ошибка ) в адресной строке буква «n», но в реале это «m», что видно в тексте страницы выше )
отрезает буквы… запишем…
Не, браузер там нормальный. Даже флеш держит более-менее.
вы забыли основной и самый главный параметр — цена. От интеграции графического ядра в процессор очень сильно уменьшается стоимость конечного устройства и его размер:
1. уменьшается сложность разводки
2. уменшается количество «навесной» электронники (а ведь обвес микросхем как раз и стоит большую часть устройства).
3. не нужно вообще платить деньги за графическое ядро.
4. уменьшается теплоотдача (достигается конструктивными особенностями).

И это все очень сильно сказывается на конечную цену.

Оно стало на 5$ дешевле и все равно не играет HD-видео…
сам камушек можнт и стал для реализации дешевле. Зато на устройствах, которые только будут, цена может быть и правда пониже ) Время покажет
HD бывает разное, и по разрешеию и по межстрочности/прогрессивности и по битрейту, вот допустим не видел ни один SoC, который бы смог Blue-Ray показывать (битрейт 30 мегабит и выше) и даже в будущих анонсах не предвидится, так что все относительно
Зарегистрируйтесь на Хабре, чтобы оставить комментарий