Pull to refresh

Comments 124

В разных источниках написано по разному: где то говорится про разработку устройств, где то про разработку приложений. В любом случае можно ссылку на сам конкурс?
UFO just landed and posted this here
Вот это уже интереснее, чем минновобоард.
То есть, SD-ху уже не надо препарировать, чтобы достучаться до консоли?
Теперь, дополнительно к паяльнику и осциллографу, надо будет покупать еще и микроскоп.
Выходы, питание, производительность?
400 MHz, выводы похоже как у SD карты
вот еще картиночка покрупнее

UFO just landed and posted this here
Да любопытно, что на вашей фото Intel Edison изображено несколько другое размещение и разводка микросхем, чем на фото в заглавии статьи.
К чему бы это?

Изображены разные экспериментальные вариации Intel Edison?
Или в Intel не смогли накупить одинаковых микросхем?

Да и что там по вашему изображено?
По-моему тут очевидно, что есть:
1. сам чип Intel Quark SoC;
2. наверное есть Флеш-память;
3. наверное есть Генератор тактовых импульсов;
4. и что-то ещё?
3. наверное есть Генератор тактовых импульсов;
Часто устанавливается только кварц (+возможно конденсаторы), а сам генератор и PLL — внутри SoC, с него уже тактирование памяти и периферии.

Для современного проца на плате точно должны быть:
— DC-DC преобразователь;
— преобразователи уровней (выходы sd-карты — 3.3v)
— EEPROM биоса или efi (мы же о x86), может быть на самом SoC
— EEPROM для пользовательских данных (скорее всего — чип над процом)
— SDRAM (может быть на самом SoC, но, скорее, четыре чипа сверху)
— RF-фронтенд и, вероятно, baseband процессор (на фото это скорее всего чип справа от проца, судя по наличию чип-антенны и противовеса в этом углу)
мм, а зачем его сделали по форме SD карты, он что в слот вставляться может?
Наверное что бы подчекнуть миниатюрность. Мол у нас в размер карты памяти влез целый компютер. Все же SD вещь общеиспользуемая, и в некотором плане может служить мерой размера.
Возможно. Маркетологи посмотрели, на то что сделали инженеры, и сказали «Уголочек отпилить! Будем PR-ить на тему размера SD-карты»
Ага "… и по бокам выемки сделать!"
Судя по тому что на внешней стороне ничего нет, выходы и питание на обратной стороне как у SD, так что скорее всего они действительно совместимы.
И почему никто ещё не задумался о том, какой прекрасный серверный шкаф получится с такими-то девайсами?
Я задумался, только собрался на Клубничке делать… теперь вот ждать в серии Эдисона :)
Классные сервера на 400 МГц. Что запускать будете?
Я вам юнит в кластер стойку принес!
Вот тут, под катом!
image
умную квартиру ;)
Простой сайт вполне потянет.
Ну и у Intel всё же не ARM, а x86
Но вот вопрос: а какое там ядро x86?
Разные ядра x86-архитектуры — обладают совершенно разной производительностью работая на одной и той же частоте.

Intel упорно не желает рассказывать подробностей про ядро Intel Quark.
Единственно что известно про Intel Quark, что это: 32-битная x86-совместимая система-на-кристалле, которая меньше по размеру, энергопотреблению и вычислительной мощности, чем процессоры Atom.

Да ещё мы знаем, что Технология производства этих чипов = 32 нм — т.е. такая же как у современных Intel Atom.

Дальше можно включить логику и начать рассуждать: за счёт чего они так сильно уменьшили ядро Intel Atom — просто выкинули пару лишних функций типа: поддержки расширений SIMD (MMX, SSE) — и нет же за счёт всего-лишь удаления этих функций не возможно добиться значительного уменьшения ядра. А значит это не ядро Intel Atom!

Ещё варианты — тупо взять и перепроектировать по новым технологическим нормам (на 32 нм) какое-нито ядро 32-битного старого процессора типа: Intel 486 (1989) или даже ещё более древнее Intel 80386 (1985).
Скорее всего Intel поступило именно так (это обычная практика Intel — они очень любят долго эксплуатировать свои старые наработки) и если это так, то Intel Quark — имеет всего лишь немного модернизированное и выполненное на 32 нм ядро процессора Intel 486:)
— Тормоза вы мои 486-тормоза:))))

Хотя для встраиваемых систем без графического интерфейса может вполне хватить тормозных 400 МГц Intel Quark, но я бы не стал утверждать, что Intel Quark (на 400 МГц) и на старой архитектуре x86 будет заведомо быстрее и мощнее современного 32-битного ARM-чипа на 200 МГц — они могут быть вполне равны по своей производительности, а вот по энергопотреблению современный 200 МГц ARM-чип явно выиграет!
Единственно что известно про Intel Quark, что это: 32-битная x86-совместимая система-на-кристалле, которая меньше по размеру, энергопотреблению и вычислительной мощности, чем процессоры Atom.
Ну, ещё мы знаем, например, что кэш — 16кб и MaxTDP 2.2Вт, поддерживается NX-бит, скорость работы с памятью до 1.6 ГБ/c.
См. официальную страницу характеристик: ark.intel.com/products/79084/Intel-Quark-SoC-X1000-16K-Cache-400-MHz
Сума сойти — этот Quark жрёт целых 2.2 Вт!
Да современные Intel Atom жрут почти столько же — по 3 Вт!
В чём тут разница-та? И чего же они сумели добиться в энергоэффективности (Производительность / Ватт).
Intel Quark вроде как спроектирован для носимой электроники и предполагает встраивание в устройства типа SmartWatch — и что я теперь должен в Intel`овских часах менять батарейку каждую неделю?
Как всегда Intel с продвижением своей x86-архитектуры оторвалась от реальности:(

Полноценные чипы для планшетов ARM-архитектуры значительно более энергоэффективны и потребляют в среднем 0,5 — 2 Вт.
Например мощный 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».

А уж энергоэффективность чипов MIPS-архитектуры вообще для Intel является недостижимой планкой, потому как даже одни из самых мощных на сегодняшний день экземпляров — например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (кстати он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».
современные Intel Atom жрут почти столько же — по 3 Вт!
Процессоры, или вся система? Quark же включает не процессор, но и 2Гб ОЗУ и встроенные контроллеры сети, USB и PCIe. Сомневаюсь, правда, что туда включено по 150мА на каждый из трёх USB портов, но всё же больше, чем один ЦП.
Кстати, со страницы описания есть ссылка на страницу с даташитами: communities.intel.com/community/makers/documentation/quarkdocuments в том числе полный 920-страничный Intel® Quark Datasheet
Можно качать и читать.
Технология производства 22нм, а не 32нм. Это несколько меняет дело.
А в какую сторону, по вашему, это меняет дело?

То, что Intel умудрилась сделать по новейшим технологическим нормам в 22 нм чип для носимой электроники жрущий целых 2.2 Вт — вот это достижение:)))))
Да, для этого надо было очень сильно постараться:))))))))))
На мой взгляд — это всего лишь доказываете, что они даже и не пытались хоть как-то оптимизировать по энергоэффективности старое 32-битное ядро P54C процессора Intel Pentium от 1993 года.

Флаг им в руки и электричка на встречу — с таким ленивым (и даже хамским) отношением к потребителям.
См.: «Intel заморозила завод стоимостью $5 млрд по выпуску процессоров нового поколения» — эта последняя новость как раз подтверждает, то что если корпорация Intel не начнёт кардинальные реформы, и не перестанет впихивать свою неэффективную по энергопотреблению x86-архитектуру в носимую электронику и мобильные гаджеты — то их в ближайшее десятилетие ждёт банкротство.
Например такое же, какое произошло в 2012 году, с когда-то громадной и страшной корпорацией Eastman Kodak.

Я лично считаю, что для Intel единственный идеальный вариант идти по стопам корпорации AMD — и выделить все свои заводы в независимую компании, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как: TSMC, UMC, GlobalFoundries, и т.д.
Вы с упорством, достойным лучшего применения продолжаете холиварить, несмотря на то, что Вам указали на то, что это энергопотребление всей системы, в которой кроме самого процессора есть ещё память, вся системная обвязка и беспроводные модули.

По поводу энергоэфективности можно будет что-то говорить достоверно только когда продукт попадёт в руки пользователей и можно будет протестировать производительность, энергопотребление и сравнить с конкурентами.

К тому же Ваше утверждение о том, что х86 архитектура не энергоэффективна — это ваше личное мнение, попахивающее популизмом и желтизной. Для начала логика говорит о том, что гораздо важнее микроархитектура (наличие OutOfOrder, размеры различных буферов для предсказания ветвления, кешей и прочего), а не архитектура (под коей в данном случае подразумевают просто систему команд). Далее факты говорят, что современные Атомы уже не проигрывают в энергоэффективности современным АРМам. Проблема х86 чимов в мобильном сегменте больше заключается в отсутствии нужной обвязке в SoC и достаточного количества мелких и средних производителей научившихся быстро и дёшево клепать устройства на основе х86 чипов. АРМы же при попытке получить сравнимую с х86 производительность греются куда сильнее, а производительность всё как-то хуже — это всё говорит о том, что дальнейшие пути повышения производительности в современных архитектурах присутствующих на рынке заключаются в реализации сложного оборудования внутри чипов, которое очень хорошо жрёт энергию. И это объектиный процесс, не зависящий от системы команд.

Да, и кстати, на новости о приостановке введения в строй завода акции Интела неплохо подросли.
Да, да — акции Intel`а неплохо подросли именно потому, что инвесторы вкладывающие деньги в акции Intel наконец-таки увидели адекватное действие руководства Intel.

Всем инвесторам уже давно ясно, что для падающего рынка PC-компьютеров (падение которого постепенно происходит уже несколько лет — см.: «В 2013 году рынок ПК показал новые антирекорды», и ещё: «IDC предрекает мрачное будущее ПК») глупо строить ещё один новый завод за 5 миллиардов $
— Это уже всем давно ясно (кроме самого Intel), что Intel просто выбрасывает деньги на ветер (притом, что другие уже существующие заводы Intel НЕ полностью загружены заказами и порой простаивают).

Инвесторы уже давно настаивают, чтобы Intel пошла по стопам корпорации AMD — и выделила все свои заводы в независимую компанию, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как GlobalFoundries.

Но при предыдущем руководстве Intel упрямо не хотела замечать проблем (как будто там вся верхушка обкурилась), и упрямо твердила, что вот щас-щас они уж как выйдут на мобильный рынок, прижмут всех конкурентов делающих свои еретические ARM-чипы и тогда-то загрузят все свои заводы (и старые и новые) бесконечной работой — наштампуют миллиарды своих x86-чипов и будут подсчитывать свои монополистские сверхприбыли:))))
Да, но это к сожалению просто сны и мечты оторванных от реальности старых дядек привыкших руководить монопольно господствующей на PC-рынке корпорацией.

А реальность такова, что рынку НЕ нужны x86-чипы для планшетов и носимой электроники — рынок их не принимает.
Хоть сколько-нибудь реально потеснить дешёвые и энергоэффективные ARM-чипы Intel`у никак не удаётся.

И получается, что реальный-то рынок для Intel x86-процессоров — это всего-лишь падающий рынок PC-компьютеров:(
— Вот и всё, поезд приехал, дальше ехать некуда — тупик! Нужны новые инновационные идеи в чипостроении, нужны эксперименты с архитектурой для мобильных чипов.
А оказалось, всё что умеет громадная, монстрообразная корпорация Intel — это строить новые заводы с передовыми техпроцессами, и модернизировать свои старые x86-процессоры — и ничего нового сделать они просто не могут (к сожалению это беда всех старых корпораций-монополистов) :(
Они, мягко выражаясь, нужны в:
— ноутбуках,
— рабочих станциях,
— серверах.

Падение рынка десктопов не означает, что чипы Intel стали никому не нужны.

Это, конечно, если вы имели ввиду x86-64, а не чистый x86, который уже давно никому не нужен (и фактически вымер на десктопах, в ноутбуках и оставался только в виде atom'а на нетбуках).
Я ведь ничего и не говорил конкретно про Десктопы — Настольные компьютеры.
— Откуда вы это взяли?
Может быть выражение «рынок ПК» вы воспринимаете как рынок Десктопов — но извините, это совершенно ошибочно (какая-то безграмотность).

Советую вам внимательно прочитать статьи:
* IBM PC-совместимый компьютер;
* Персональный компьютер.

«Рынок ПК» — это общепризнанный термин — обозначающий ВЕСЬ рынок IBM PC-совместимых компьютеров построенных на x86 / x86-64-процессорах!
— Этот огромный рынок включает в себя все перечисленные вами виды компьютеров: — IBM PC-совместимые Ноутбуки, — IBM PC-совместимые Десктопы, — IBM PC-совместимые Рабочие станции, — IBM PC-совместимые Сервера.

Именно этот самый рынок IBM PC-совместимых компьютеров (на котором последние ~25 лет правят бал два старых монополиста Intel и Microsoft — консорциум Wintel) сегодня падает и ежегодно сокращается всё более возрастающими темпами.
Теснимый со стороны мобильных устройств: Планшетов и Смартфонов — разработанных на ARM-процессорах и никаким местом НЕ совместимых с IBM PC-стандартом и никакого отношения НЕ имеющих НИ к Intel, НИ к Microsoft.

Именно это очень сильно раздражает как Intel так и Microsft — и поэтому оба эти игрока пытаются каким-то образов влезть на этот новый мобильный рынок Планшетов/Смартфонов.

Соответственно Intel пытается выпускать новые мобильные процессоры Intel Atom/Intel Quark для Планшетов/Смартфонов и Носимых устройств.
А Microsoft выпустила новую ОСь MS Windows RT for ARM, выпустила свой Планшетник Surface RT, и даже купила целую компанию Nokia.

Но у обоих старых монополистов пока ничего не выходит и они не могут занять сколько-нибудь значимые позиции на новом рынке Планшетов/Смартфонов!
И обе компании очень боятся остаться «у разбитого корыта» замкнувшись в своём усыхающем Wintel`е.

* Microsoft уже почуяла что пахнет жареным — она теряет ширпотребный рынок: начала глобальные реформы и смену руководителя — см.:«Спасут ли Microsoft реформы Балмера?», и ещё: «Стивен Элоп перестроит бизнес Microsoft, если станет главой компании».
* Intel пока только лишь осмелилась сменить руководителя — см.: «Кто такой Брайан Кржанич, новый директор Intel?» — да и того выбрали из своей старой команды, так что он пока всё ещё не решается на кардинальные реформы:(
Я ведь ничего и не говорил конкретно про Десктопы — Настольные компьютеры.
— Откуда вы это взяли?
Может быть выражение «рынок ПК» вы воспринимаете как рынок Десктопов — но извините, это совершенно ошибочно (какая-то безграмотность).

«Рынок ПК» — это общепризнанный термин — обозначающий ВЕСЬ рынок IBM PC-совместимых компьютеров построенных на x86 / x86-64-процессорах!
При этом в статьях, на которые вы ссылаетесь, речь о рынке ПК не включает сервера (и не факт, что включает рабочие станции).

Рынок серверов на x86-64 в 2013 году по отчету Gartner упал в деньгах на 3.8%, но возрос в количестве на 4%. По IDC выручка -6.2%, количество -1.2%.

Статьи, на которые вы ссылались описывают падение массового потребительского рынка ПК, как вытеснение домашних ПК и ноутбуков планшетами, т. е. касаются только потребительского железа. И вымирать рынок серверов на архитектуре amd64 пока не собирается. Или вы считаете, что там ARM — достойная замена? Может, пора ещё суперкомпьютеры собирать не на Opteron'ах, а ARM-based?

И да, я считаю, что, используя ваше выражение, «безграмотно» ссылаться на статьи не осознав их содержание.

Советую вам внимательно прочитать статьи:
* IBM PC-совместимый компьютер;
* Персональный компьютер.
Википедия, особенно русская, слабый аргумент. Но даже, если бы вы удосужились заглянуть туда самостоятельно, то увидели бы, что ПК — «настольная микроЭВМ, имеющая эксплуатационные характеристики бытового прибора и универсальные функциональные возможности», что чуть-чуть не совпадает с общепринятым значением понятия «рабочая станция», а тем более «сервер».

ARM хорош по энергоэффективности (соотношение производительность к мощности), amd64 — по производительности.

Если бы вы перестали фанатично набрасываться на MS и Intel, то увидели бы рациональное зерно в моих словах, что x86-64 не уходит с рынка, т. к. есть в них потребность. Ибо не всё применение компьютеров — потребление контента в сети. Кто-то этот контент должен на чем-то производить и предоставлять, как минимум.
Да, но вы ведь всё равно заметили, что «Рынок серверов на x86-64 в 2013 году по отчету Gartner упал в деньгах на 3.8%По IDC выручка -6.2%» — всё равно же упал (и для бизнеса важна именно прибыль в денежном выражении, а не количество произведённого товара).
У Intel в I квартале 2013 года «прибыль снизилась на 25 %» — см.: «Кто такой Брайан Кржанич, новый директор Intel?».

Так что, в Intel есть серьезные проблемы с прибыльным сбытом своих x86-процессоров во всех сегментах ранка IBM PC-совместимых компьютеров (включая сервера).

Да и уже совсем скоро ещё появятся и сервера на ARM64 — см.: «Facebook предпринимает новые шаги для использования чипов ARM в своих серверах», и ещё: «AMD начнёт поставки 64-битных ARM-процессоров для серверов в 2014 году».

И причём рынок x86-процессоров падает не только из-за наступления ARM-чипов на всех фронтах, но и просто по объективным обстоятельствам сокращения всей мировой экономики в связи с продолжающимся Мировым экономическим кризисом
(Тот самый кризис который вошёл в первую активную стадию в 2008 году и по некоторым прогнозам именно в 2014 году может перейти на новую более глубокую кризисную стадию — так что спрос может сократится во всех сегментах экономики).

Вот и получается, что Света в конце тёмного тоннеля для Intel`а я лично пока не вижу :(
Учитывая что рынок процессоров и рынок серверов в сборе — это две большие разницы, не факт, что второй сократился в серверном сегменте.

Кроме того, исследование IDC, приведенное выше, например, затрагивает только Dell, Oracle, IBM, Fujitsu, Hewlett-Packard, Cisco.

Учитывая, что Google, Facebook, Amazon, потребность которых в серверах огромна, покупают whitebox'ы. А агенства оценивают рынок серверов в основном по финотчетам вендоров, делая прикидки, но не зная реальной картины рынка ODM (http://www.wired.com/wiredenterprise/2011/11/server-world-bermuda-triangle/).

На 4Q12 Google входил в top-5 производителей серверов на базе процессоров Intel (http://www.wired.com/wiredenterprise/2012/09/29853/). Но при этом Гугл не продает эти сервера. Аналогичная ситуация у Amazon и Facebook.

Id est значительная часть рынка серверов не фигурирует в отчетах по продажам серверов. Логично, что вышеперечисленные компании, производя сервера для себя, сократили или прекратили покупку серверов у вендоров.

А появление серверных ARMv8 является приятным моментом, который, в том числе, может снизить цены на чипы от Intel.
У вас всё так красиво написано, но факты упрямая вещь.

См: «Intel огорчила рынок слабым финансовым прогнозом»:
«Генеральный директор компании Брайен Крзанич говорит, что Intel сталкивается с падением спроса на ПК в Азии, а также бизнес-заказами на серверные чипы по всему миру...»

«Брайен Крзанич возглавил крупнейшего мирового чипмейкера в мае 2013 года. Сейчас он предпринимает большие усилия на фокуссировании компании на мобильно-планшетном направлении, однако существенных подвижек здесь у intel пока нет...»

«intel заявила, что компания не надеется на рост показателей на протяжении всего 2014 года...»

«По итогам всего года компания ожидает падения продаж на 1,2% до 52,7 млрд долларов.»
Вы с упорством, достойным лучшего применения продолжаете холиварить, несмотря на то, что Вам указали на то, что это энергопотребление всей системы, в которой кроме самого процессора есть ещё память, вся системная обвязка и беспроводные модули.
Поддержу zboris. Зайдите на ark.intel.com/products/79084/Intel-Quark-SoC-X1000-16K-Cache-400-MHz и посмотрите.

Только SoC жрет 2.2 W. Это без учета SDRAM, EEPROM, RF-frontend и broadband processor.

Далее факты говорят, что современные Атомы уже не проигрывают в энергоэффективности современным АРМам.
Приведите, пожалуйста, эти факты. Крайне желательно — не из маркетинговых материалов Intel.
Приведите, пожалуйста, эти факты. Крайне желательно — не из маркетинговых материалов Intel.

Например вот: www.extremetech.com/computing/144778-atom-vs-cortex-a15-vs-krait-vs-tegra-3-which-mobile-cpu-is-the-most-power-efficient

При этом если говорить о производительности, то Bay Trail (таблеточный Атом) превосходит ARM на голову и сравнивают его теперь всё больше с настольными товарищами. Термический пакет при этом сравнимый и ограниченый батарейкой таблеки.
www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/3
В статье по первой ссылке первоисточник — тот же anandtech. Если посмотреть на методологию сравнения — то она «странненькая». Сравнивать энергопотребление двух процессоров «в idle» по потреблению при открытом home screen'е win rt или android — это ни о чём, извините. Даже перевод в airplane mode, снижающий всплески потребления, не позволяет этим измерениям стать адекватными.

Сравнение приложений (тех же js-тестов в браузере) также сложно назвать адекватным. Стоит помнить, что, кроме железа, отличались компиляторы (а история развития оптимизирующих компиляторов под x86/amd64 куда дольше), ядро, стек драйверов и, вероятно, браузеры.

Это даже не считая того, что тестирование, направляемое инженером Intel, вызывает некоторые сомнения.
Lenovo Thinkpad Tablet 2 работает 8-10 часов в режиме просмотра видео через Wi-Fi.
У меня есть этот планшет, действительно работает.

На x86 (Intel Clovertrail) под Windows 8.
И платформа вышла полтора года назад. Так что не надо тут рассказывать про неэффективную по энергопотреблению архитектуру.
И благодаря x86, можно, если сильно нужно, и Visual Studio запустить, и Adobe, и полноценный офис — на аппарате менее 500 грамм.
Да, согласен. Статья по вашей ссылке, конечно, чисто маркетинговая и не содержит никакой конкретики.
Хотя конечно я возможно перегнул палку, предположив, что Intel Quark — имеет всего лишь немного модернизированное и выполненное на 32 нм ядро процессора Intel 486 (1989 года).

Ещё можно предположить, что с большой долей вероятности Intel Quark имеет немного модернизированное и выполненное по 32 нм техпроцессу ядро Intel Pentium.
Скорее всего даже конкретно P54C (1993 года).
Потому как Intel заявляет, что Intel Edison является «персональным компьютером класса Pentium» (см.: «Intel продемонстрировала компьютер размером с SD-карту»), и так как именно ядро P54C Intel активно эксплуатирует последние годы в таком проекте как Intel Larrabee плавно переросшем в современные чипы Intel MIC.
Так, что 32-битное ядро P54C давно уже перепроектировано по современным технологическим нормам и последние годы уже много лет находится в активной переработке у инженеров Intel.

Но всё-равно это устаревшая архитектура и она никак не может сильно обогнать современные ARM-чипы по параметру энергоэффективности (Производительность / Ватт).
Возможно, это именно так.
Чем меньше размер, тем неудобней воткнуть mini\micro usb, а любой распространенный стандарт лучше своего велосипеда.
Судя по распиновке SD в википедии (ну и логика, да) есть пины на питание и землю. Т.е. для упрощения отладки, её можно поместить в слот, и она будет питаться от него (хотя не понятно, хватит ли этого по питанию), а связь через wifi/bt.
Ну и удобный доступ к внутреннему хранилищу мини-компьютера с обычного компьютера.
Может потому что существует большое количество готовых комплектующих (разъемы внутренние, внешние, накладные, шилды) для SD?
Возможно, разводка и разводка как у SD сделана для удобства питания и подключения к макетной плате и т.д. Ведь достать разьём под SD карту сейчас можно практически везде, а городить ещё один стандарт не стали.
Предполагаю, что её можно запхнуть в любой, допустим, фотоаппарат и она заработает.
Раньше фотоаппарат подключали к компьютеру, а теперь компьютер — к фотоаппарату…
Почему бы нет? Вставляешь в фотоаппарат, и сделанные фотографии моментально заливаются в Инстаграм :) Или на ноутбук.
да, это именно так и работает сейчас с Eye-Fi
как вариант, на телефон — самое удобное, когда в пути
карточка сама создаёт wifi-сеть, телефон через их приложение подрубается и скачивает новые фотки

с телефона уже сам решаешь, как выложить
если напрямую с карточки — они ж неизменными будут валиться
а с телефона можно подредактировать, выбрать, уменьшить…
Ну да, Интел просекла тренд. А если еще что-нибудь вроде CHDK в фотик подгружать, так вообще красота будет.
Ну и чем оно отличаеться от большинства ARM-подобных SoC? Тут бы информацию поконкретней, а то пока что получаеться очередной SoC, которых множество.
Было бы интересно воткнуть такую карту в dSLR и делать, например, in-camera HDR.
Современные камеры и так уже это умеют, но правда без затей и поэтому результат так себе получается, во всяком случае в Canon 70D. Все-таки к процессу создания HDR надо подходить творчески, а такой ИИ еще не изобрели.
Да, согласен. А что в 70D, уже что-то для этого встроено? Я помню exposure bracketing даже был в камерах достаточно тупой, +-N, то есть один шаг. Сейчас лучше?
Ну там, конечно, есть и просто брекетинг, который можно довольно гибко настроить — максимальный разброс +-3 EV и в этом интервале вроде как можно до 7-ми кадров делать (или даже 11, но я больше 3-х никогда не делал, поэтому тут могу наврать). Причем центр этого интервала необязательно должен быть в нуле. Короче, из этого можно потом на компе собирать хорошие HDR.

А есть отдельная фича — внутрикамерный HDR, там тоже надо задать +- 1, 2, 3 или Auto EV. Можно включить Auto Alignment, но нет Anti Ghosting'а. И после нажатия на спуск камера, конечно, все равно делает брекетинг (тут вроде 3 кадра без вариантов), но сама склеивает по какому-то алгоритму и пишет на карточку уже готовый hdr jpeg (raw не умеет), а промежуточные результаты выбрасывает. Делается это довольно быстро, секунд 10, наверное.
Интересно, спасибо за инфу. Я как-то привык мучаться в Photomatix, но конечно хочется сразу видеть ориентировочный результат. Тут правда есть еще нюанс что я люблю панорамы снимать, но мне кажется в этом плане софт тоже должен уже дотягивать… по крайней мере в мобильниках панорамы сшиваются. Правда иногда неточно :)
Не умеет софт нормально сшивать. Точнее, либо с артефактами, либо с серьезным уменьшением разрешения. К тому же для сшивки многопиксельной картинки, к какой я привык надо около 10 минут работы 4 ядер i3. Сколько она на этом кварке будет сшиваться? Час, два?
Нда, для такой задачи может даже что-нибудь вроде FPGA было бы и лучше — можно было бы заточить под задачу. А что Photomerge быстро работает, это да, кстати не подскажете, есть ли какие-то альтернативы которые сшивают лучше и быстрее. Что-то мне подсказываеть что при сшивании Photoshop ни GPU ни SIMD не использует, хотя я возможно ошибаюсь.
Я Hugin пользовался только, других не знаю.
а промежуточные результаты выбрасывает.

В 5D III можно настроить, что б оставляла 3 промедуточных кадра + HDR jpg.
Ключевой момент — цена. Если будет в районе 20$ для оптовых партий, то это бомба. Если больше, то там уже сильно больше конкурентов и придется играть на чем-то еще.
Например? Что-то соизмеримое по цене ($30~40) с BT+WiFi на борту, пусть даже бОльшего размера?
Спасибо… но тут ключевая фраза — без BT. Месяца 2 уже ищу «такой же, только с Wi-Fi + BT», по цене $30~40.

Там стоит простой микроконтроллер с крохами памяти и ресурсов.
На оффсайте говорят, что там какой-то Cortex-M3, и «Robust embedded operating system with fail-safe firmware updates» и «Virtual machine for vendor firmware». Деталей сходу не нашел.
ну да, ST-шный М3 там, 256КБ ОЗУ, 1МБ флеша, часть из этого отдано на виртуалку

по частоте он проиграет раза в 2,5-3, по производительности значительно больше
по памяти тут не понятно, но даже при скромной конфигурации скажем 128МБ ОЗУ + 64МБ флеш разница в памяти будет огромной

не говоря о том, что на процессоре будет крутиться полноценных линукс, а на микроконтроллере виртуалка с простеньким приложением

это мопед и минивэн, сравнивать их бессмысленно
Класс. А есть где почитать про использование такой чудо-карточки на русском? Чтобы с хардкорными примерами, типа «поднимаем сервак на sd-карте».
Вещь «отличная», лежит 3 штуки, думал будет счастье, НО, эти заразы работают только с их облачным сервисом.
Только через интернет. И точка. Счастья не случилось, лежат в тумбочке.
Не знал, что все настолько печально :(
Без блутуса есть куча роутерных мозгов под OpenWRT, даже дешевле 20$. Можете погуглить в сторону AR9331.
А какой юзкейс? Добавить BT USB-свисток в TP-Link TL-MR3020 — и уложитесь в 30$.
Для мелкопартийного производства навесные элементы в виде usb-свистков, в моем случае, не применимы. Поэтому и ищу одноплатный вариант с wi-fi + bt.
Данное решение от Intel, на первый взгляд, идеально подходит. Аналогов, к сожалению, не нашел. Если кто-то предложит еще варианты $20-40 одноплатных linux-based систем с bt и wi-fi, буду премного благодарен.
Вариант «спроектируйте да закажите изготовление сами» — пока не рассматривается…
Вообще это wireless-модули такого плана дешево делаются на базе Arduino + RF.
Примеры:
moteino.com
pinocc.io
www.rfduino.com

В вашем случае подойдет разве что такое.
Большое спасибо! К последнему варианту присмотрюсь внимательней.
Как там IO делается-то? В смысле, что оно умеет кроме математики?
Прямо представил себе — полки 1U-серверов, где в каждом до дури картоводов под SD, а в каждом — по такому вот «лезвию».

Правда, wifi+BT для них не нужен, ну да Ethernet развести — дело для вендоров наживное!
и может конектиться к специальному app store

Интересно, это опять речь идет о монополизации процесса установки ПО на компьютер в руках компании Intel с последующим цензурированием ПО, или это просто как опция в дополнение к возможности установки ПО из других источников?
Судя по пресс-релизу, Edison будет открыт и придерживается концепции OpenSource. Скорее всего магазин пригодится простым смертным пользователям, которым не комильфо ставить пакетики через командную строку.
Интересный сценарий использования мог бы быть для роутера, что бы увеличить его производительность.
UFO just landed and posted this here
Это просто люди с ухоженными руками :)
UFO just landed and posted this here
О, секундочку… Дык оно же х86 совместимо, вот в чём основная фишка же получается!
Да а толку. Кризисы на 400MHz камне без FPU (или все-же с ним?) вряд-ли потянет. Винду выше версии 3.0 (или 2.1, уже не помню точно) тоже не удастся поюзать — начиная с версии 3.11 начинает страшно материца и не запускаться при отсутствии видео карты. ДОС или какой насмерть кастрированный (с тремя с половиной процессами) линух — самое оно. Но опять же, тот же линух есть под любую архитектуру, и особых прелестей юзать x86 линух, а скажем, не MIPS линух — никаких. x86 было бы хорошо, если бы оно могло всем привычные Автокады и прочие Ворды, но сабж этого явно не может. Поэтому остается только одно — DOS!
А откуда такая уверенность в отсутствии видео?
Да ну, работает винда вообще без видеокарты, сам проверял, заходил на удаленной рабочий стол. Тут больше от материнки зависит — говорят не на каждой так можно. С другой стороны нафиг винда на 400MHz? Linux и причем не особо кастрированный!
Думаю имелась ввиду установка. Работать-то без видео, оно работает, факт.

А 400 МГц это не так уж и плохо вообще-то, у меня был в своё время Pentium II 333 МГц на вполне себе функциональной 2k. Про первые распространённые в народе пеньки с 266 МГц (да-да, те что с гордой приставкой MMX) вообще можно даже не упоминать — тоже всё отлично работало, хотя 98-ая винда это уже не серьёзно, конечно.
266 MHz, если память не подводит, это уже pentium 2 были, первые пеньки они бывали и без MMX начиная от 75 MHz.
Про первый распространенный вы, наверное, с 166 MMX перепутали.
Установку можно сделать через образ, может быть не совсем тривиально но точно реально.
Я вообщем то написал к тому, что нафиг тут винда вообще, какие реальные задачи тут может решить винда, которые не сможет linux.
Плюс же сей штуки на самом деле x86, но как выше писали — неясно что выкинули из чипа, может он будет тормознее схожего ARM.

Ну да, без подробностей это гадание на гуще получается…
Подробности должны быть в даташитах.
Например:
Блочная диаграмма

Фичи процессорного ядра
• Single processor core
• Single Instruction 5-stage pipeline
• 32-bit processor with 32-bit data bus
• Integrated Floating Point Unit
• 16 Kbyte, 4-way shared instruction and data L1 write-back cache
• Integrated local APIC
• Support for IA 32-bit Pentium x86 ISA compatibility
• Supports C0, C1, and C2 states
• Supports Supervisor Mode Execution Protection (SMEP)
• Supports Execute-Disable Page Protection (PAE.XD)
И более тысячи страниц прочей инфы.
Да может этот Quark и не тормознее схожего ARM, но для носимой электроники (области его применения) самым важным становится его потребление — а он поразит жрёт целых 2.2 Вт — см.: Intel® Quark SoC X1000 (16K Cache, 400 MHz)!

Но извините, ведь мощный ARM-чипы для планшетов, например 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».

Или MIPS-чип, например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (притом, что он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».

С одной стороны Intel Quark — это по-сути целая материнская плата, уже вместе с памятью. И его потребление = 2.2 Вт — это по-видимому потребление не только ядра процессора, но и всего его окружения: всех контроллеров и памяти.

Но всё равно Intel`свская x86-архитектура не может тягаться по энергоэффективности (Производительность/Ватт) с ARM`мами и MIPS`мими — это уже ранее было многократно доказано.
Зачем Intel тратит кучу деньги на впихивание x86-чипов в носимую электронику совершенно не понятно — потому как для этой новой области применения, нужен совершенно новый софт (ну не нужна там MS Windows), и НЕ нужна там совместимость с классическим x86/IBM-PC софтом:(

Так зачем же Intel хочет запихать свой Pentium в часы? Ну они же когда то выпускали ARM-чипы (StrongARM/XScale) — и делали это неплохо, зачем нужно сегодня зацикливаться на своёй x86-архитектуре, которая ну никак не подходит для часов?

По моему они должны либо разработать свою новую энергоэффективную архитектуру для мобильных процессоров (не совместимую с x86, типа RISC-процессоров Intel i860/i960), либо смирится и делать ARM-чипы для носимой электроники, выплачивая очень незначительные отчисления за лицензию компании ARM Ltd.:)
мощный ARM-чипы для планшетов, например 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт!
Он «мощный» только по сравнению с мобильниками того года. Более поздний и более быстрый четырёхъядерный i.MX6Quad в Zealz gk802 без тормозов даже голую Lubuntu не показывает, при том, что греется в металлическом корпусе так, что можно обжечься.
Но всё равно Intel`свская x86-архитектура не может тягаться по энергоэффективности (Производительность/Ватт) с ARM`мами и MIPS`мими — это уже ранее было многократно доказано.
Intel, видимо, так не считает.
практически по теме: мы недавно купили попробовать карточку Eye-Fi
идея неплоха, но пока куча баттхёрта с настройками и тыканий-пыканий, пока заработает…

По идее, этот эдисон (как один из вариантов применения) должен породить «более лучшую» Eye-Fi-подобную карточку.
А что — компьютер установлен в виде карточки в фотоаппарате, и никаких компьютерных функций самому фотоаппарату уже и не нужно. Управляешь этим компом с телефона, скажем, или с компа. Как тот же Eye-Fi, только лучше, больше возможностей.
И фотоаппараты могут стать легче и дешевле.
Фотоаппарату в любом случае нужен свой «компьютер», перекладывать его функции на подобную карточку — глупо. Там почти всегда стоят специализированные SoC, процессоры общего назначения не справятся.
Вот смотрю я на свой фотоаппарат, который способен пережевывать 6 равок в секунду, делая постпроцессинг, да сжимая все это дело в jpeg. Мощная настольная станция не то что с проявкой равок на такой скорости не справится, даже обычный резайс не сделает.
Да и меньше и легче фотоаппараты не станут — вес и стоимость процессора в современной камере, это мизер по сравнению со всем остальным.

А вот кастомные прошивки для карточек типа Eye-Fi все же очень нужны. Нестабильность зачастую связана с глюками софта, да и хочется просто какие то стандартные протоколы обмена.
вы более «в теме», чем я, спасибо за подробности :)
Сервер выпал из бумажника и закатился куда-то под шкаф…
Страсти про уборщицу тётю Зину со шваброй обретают новую жизнь.
Ждём microSD, можно будеть апгрейдить смартфоны (но зачем?),
Вопрос к автору статьи:
А откуда вы взяли, что «Intel представил двухядерный компьютер размером с SD-карту со встроенным WiFi и Bluetooth на представленной ранее Quark SoC»?

Почему компьютер-то получился двухядерный, когда Intel Quark SoC X1000 — является ОДНОядерным чипом?
Ну т.е. в Intel Edison впихнули не совсем тот самый Intel Quark SoC X1000, который был представлен ранее!
Вы тогда из своей статьи уберите пожалуйста ссылку и фразу: "… на представленной ранее Quark SoC".

Потому как то, что было ранее представлено в виде Intel Quark SoC X1000 — имеет ОДНО ядро и выполнено по 32 nm техпроцессу — см.: Intel Quark SoC X1000.

Да и ещё если возможно попробуйте пожалуйста объяснить: зачем же в носимой электронике типа SmartWatch нужны целых ДВА CPU-ядра?
На мой взгляд в носимой электроники нужно минимальное энергопотребление:(
И мне очень интересно как Intel собирается использовать эти ДВА ядра в часах?
Одно ядро будет таймером, а второе — выводить время на экран, конечно же ,)
Например, одно реал-тайм, жрёт мало и всегда работает. Второе включается когда нужно что-то посчитать. И Quark — это чип, Edison — полноценная система, там даже на фотографии видно что там много чипов внутри.

Расскажите нам зачем в смартфонах 8 ядер big.LITTLE, а мы тут дружно посмеёмся над идиотами производителями, которые не знают как правильно делать чипы.

Кстати, а если в Edison окажется более свежая версия Quark, то вы заявите что вас обманули и на этом основании скажете, что продукт отстой? :)
Ну во-первых если бы в Intel сделали более свежую версия Quark — о-ооо, да ихние маркетологи бы не упустили такой возможности, чтобы раструбить об этом на весь мир — об очередной победе на пути к коммунизму одержанной славной корпорацией Intel.

Ну, что вы реально думаете, что вот в IV-ом квартале 2013 года они с такой помпой только-только запустили в производство версию Intel Quark SoC X1000 (16K Cache, 400 MHz, 1 Cores, 32 nm) — не продали ещё ни одного чипа (только лишь бесплатно раздали всю выпущенную партию заинтересованным разработчикам).

— И вдруг тут же в I-ом квартале 2014 года, тихо безо всякого шума, запустили производство нового Intel Quark SoC (400 MHz, 2 Cores, 22 nm) — и никому об этом не объявили, и даже не вывесили никакой строчки на странице Products family: Intel Quark SoC.
Как-то чудно:(
Какая-то небывалая скромность для корпорации Intel (они обычно на 10 MHz повысят частоту какого-нито своего чипа и то об этом раструбят).

Я думаю, что тута всё намного проще, просто какие-то маркетологи Intel перепились на Новый год и всё перепутали (не могли на своём же сайте проверить информацию прежде чем публиковать), а может даже и специально вводят несведущую публику в экстазирующий восторг и пугают конкурентов.
> И Quark — это чип, Edison — полноценная система, там даже на фотографии видно что там много чипов внутри.

Вот этой фразой вы вообще меня насмешили:)))
Т.е. вы утверждаете, что Intel Edison — это ДВУХ-ПРОЦЕССОРНЫЙ компьютер!
Нет, ну двух-ядерный чип это ещё как-то можно переварить (хотя я так и не понял, что там надо посчитать-то в носимой электронике типа часов с дисплеем 96х96 точек).

Вы тут вспомнили смартфоны — так вот по-моему пока-что никто ещё не догадался выпустить НИ ОДНОГО — ни Смартфона, ни даже Планшета, ни Смартбука, ни Ультрабука ни даже компактного Ноутбука на ДВУХ-ПРОЦЕССОРНОЙ платформе — ну таких просто не бывает.

Пока обычно в IT-отрасли встречаются лишь ДВУХ-процессорные Рабочие станции и Сервера.

Да и на фотографии прекрасно видно, что все чипы Intel Edison являются разного размера, разного вида и предназначения, ну нету тама никаких двух одинаковых чипов Intel Quark SoC.

Ну может быть Intel Edison — это настоящий сервер — га-га-га :)))))))))))
Если я всё понимаю правильно, то речь о совершенно разных ядрах для разных целей, а не о двухядерном процессоре в классическом понимании.

хотя я так и не понял, что там надо посчитать-то в носимой электронике типа часов с дисплеем 96х96 точек

Если вам надо что-то отобразить на дисплее 96х96, то вам хватит микросхемы, в которой на несколько порядков меньше транзисторов. Идея в том, чтобы устройство было умным — а это значит что там или можно гонять какие-то сложные алгоритмы (машинное обучение, например, не слышали про такое?), или взять какие-то фреймворки/языки из более взрослых платформ и заэнейблить их на маленьком девайсе для простоты работы с ними / скорости прототипирования — тот же JS, например. Это, конечно, прекрасно когда приходится программировать контролеры на Embedded C с ассемблером, но не всех это устраивает.
Извините, но это фантазии:(
Об этом Intel нигде ничего не говорит!

Не надо фантазировать, ну согласитесь, что двухядерный Intel Edison — это просто ошибка маркетологов.
На сайте Intel: ark.intel.com/products/family/79047/Intel-Quark-SoC — нету никаких двухядерных Intel Quark SoC

И Intel Edison просто не может быть двухпроцессорным компьютером — материнская плата двухпроцессорных систем намного сложнее, на ней на много больше, чем на однопроцессорной системе всяких дополнительных микросхем организующих связь и взаимодействие двух (тем более разных) процессоров.
www.engadget.com/2014/01/06/intel-edison/

Процессор точно 22нм. На keynote сладах CEO ошибок такого рода не бывает. И ядра точно два то тойже причине. Ещё раз — спеки на сайте и слайды CEO — это разные вещи.

На счёт природы двухядерности — я останусь при своей гипотезе. К сожалению, до новой порции публичной информации об этом спекулировать дальше не имеет смысла. Но то, что Quark в Edison — это несколько другой кварк, нежели представленный ранее, похоже на правду.
Всё оказывается очень просто — в конце статьи Engadget сказано:
«It'll be available sometime in mid-2014.»

И конечно же к середине 2014 года, Intel вполне может запустить производство новой версии Quark SoC — на 22 нм и с 2-мя ядрами — это похоже на правду:)

Только я так и не смогу понять зачем же устройствам типа SmartWatch нужны два ядра — наверное, чтобы быстрее сожрать и прикончить батарейку:)
Не имея достовеной информации по этой теме, я поддерживаю ваш последний комментарий. Сейчас есть одноядерные модели, через полгода появятся двухядерные. Это — нормальная практика развития.
Вика, опередила меня на одну минуту :)

Смотри мой комментарий ниже, я связался с ответственными товарищами и раздобы достоверные факты :)
Вике и вам — большое всем прибольшое СпасиБо:)
Всех поздравляю с прошедшими Праздниками:)

P.S.: Простите, если слишком агрессивно с вами дискутировал.
Я проконсультировался с товарищами, занимающимися проектом Edison, и они мне подтвердили, что чип действительно 22нм, действительно двухядерный (в классическом понимании этого слова — два одинаковых ядра на одном кристалле).

Как ядра будут использованы в итоге может зависеть от того, где чип будут применять, но один из вариантов — одно ядро бежит в энергосберегающем режиме, а второе включается для того, чтобы посчитать ресурсоёмкие задачи. Факт, что железо допускает такой сценарий использования, всё остальное — моя интерпретация.

Так что посыпаю голову пеплом за свою теорию, что будет два разных чипа. Просто я не думал, что удастся реализовать настолько хорошее управление питанием, что можно будет включать-отключать ядро и сильно варьировать его энергопотребление.

Да, кстати, всё сказаное мной является публичной информацией, которая озвучивалась во время CES в многочисленных интервью техническим изданиям. Странно, что так мало информации в итоге оказалось в статьях ведущих изданий.

Одно из следствий того факта, что чип 22нм — это то, что кушать он будет не 2.2Вт, а заметно меньше.
Так там, значит, не Кварк? По крайней мере, не тот Кварк, что уже был представлен и числится на ark'е?
Кварк. Только по 22нм технологии и двухядерный. Как отдельный чип он не аннонсирован пока.
Стоп. Теперь уже я перестала понимать. Кварк в Edison — НЕ тот, который уже выпущен и есть в ARK. Да? Так что же такое это «Так что посыпаю голову пеплом за свою теорию, что будет два разных чипа»? Или я что-то пропустила?
Выше я писал, что возможно двухядерность значит два разных ядра возможно на разных кристаллах. Это не так. Чип двухядерный в классическом понимании этого слова (два одинаковых ядра на одном кристалле).

И да, ещё раз, это не тот Кварк, который в ARK, ибо в ARK 32нм одноядерный. Тот, что в Edison он 22нм и двухядерный. Это всё на CES подробно рассказывали в интервью различным изданиям, только как-то всё это затерялось за короткими аннонсами на один абзац, которые всплывают в Гугле на первой странице.
Sign up to leave a comment.

Articles