Pull to refresh

Comments 71

Когда эту штуку дотянут до хотя бы мегабайта, а лучше двух, ОЗУ, можно будет воспринимать их как компьютеры. Пока что это микроконтроллер для жестокого embedd'а.
Да вроде бы ни кто и не воспринимает их как компьютер
А зря, потому что из таких штук и будет состоять будущий IoT. Множество компьютеров с копеечной ценой и копеечной производительностью. Зато всюду и автономных.
Вы уже определитесь тогда компьютер в современном его понимание или IoT….
В обоих. IoT на микроконтроллерах не будет. Будет функционал, который мало будет отличаться от предыдущих поколений. Чтобы получить Сингулярность и Винджа надо иметь универсальные компьютеры. При том, что с 32кб оперативки компьютер вполне себе Тьюринг-полный, но в практическом понимании — нет, т.к. нет ОС и всё надо писать перебирая байтики.
Вы меня немного запутали,
IoT на микроконтроллерах не будет
и
Будет функционал
мы с вами сейчас о железе или о функционале говорим, понятно что вещи эти несколько связанные, но всё-таки?

О железе, которое всего лишь utility. Для того, чтобы софт заиграл (а весь IoT — это о софте, а не о железе), ему нужно чуть больше, чем 32 кБ памяти.

Если оно будет в масштабе микроконтроллеров, то и применение у него будет такое же как и было. Ну, будет микроволновка на два цента дешевле. И?

А если что-то вкусное, то подавай BT LE, wifi, tcp, etc.
а что должны будут делать эти мелкие компьютеры? Сейчас даже копеечная arduino с 8 битным контроллером может рулиться по wi-fi и держать веб-сервис отдавая некоторое количество данных
В волшебном мире будущего, как рассказывают, они будут поддерживать самоформирующиеся mesh-сети, обеспечивая сенсорное покрытие всего и вся, обеспечивать коннективити и датчики всюду, где это только возможно, предоставляя компьютерным системам быть «в курсе» что происходит в области интереса, а сами области интереса будут сильно перекрываться с областью обитания человека.

Для этого нужно коннективити. А кроме этого нужно коннективити. Ну и чуть-чуть место для rapid development (то есть GC, общеизвестные и общеупотребительные фреймворки и т.д.).

Арудинка нихрена под это не попадает. Во-первых дорого, а во-вторых ничего не умеет. Распберря, кстати, уже ближе. Если её ужать раз в 20 по размеру, раз в 10 по энергопотреблению и раз в сто по цене.
Распбери сейчас стоит около 2 000 руб. Вы хотите за 20? Нет, я конечно тоже не против халявы, но чтобы цена вполне рабочего компьютера была ниже чем стоимость проезда в общественном транспорте — это Вы слишком жёстко играете!
RFID метки сейчас стоят что-то в районе 5-10р в крупных партиях. 20-50р за железку уровня RPi (но запиханное все на один чип) — имхо вполне возможно при крупносерийном производстве и совершенствовании технологии.
Стартап: робот, который способен разобрать постиранные носки по парам.

Сколько денег вы готовы потратить на каждый носок за такую фичу?

Вот 20% от этой суммы — ожидаемая цена «wearable chip».
Для этой цели достаточно RFID меток. Возможности Raspberry Pi много, много шире. В Интернете о малинке много написано.
Для этой — да. Для следующей клёвой идеи, нет. Я просто иллюстрирую то, сколько должен стоить IoT'овский чип, чтобы это был реально IoT, а не «лампочки по сто баксов с BT внутрях».
>>т.к. нет ОС и всё надо писать перебирая байтики

Я десять лет профессионально писал для десктопов и серверов. А тут попробовал Ардуино. Очень странные ощущения — какие-то килобайты, но все пишется на взрослом С++, есть множество удобных высокоуровневыхбиблиотек. И главное эта штуковина выполняет полезные прикладные задачи, будучи на несколько порядков(!) менее производительной машиной, чем домашний компьютер.
Ценность ОС в моих глазах очень сильно пошатнулась, после всех этих экспериментов.
И как у вас с поддержкой SSL в этих условиях? А что будет, если к вашей арудинке подключить usb жёсткий диск с ntfs внутри?

Заметим, вы пишите на С++ и всё хорошо. А кто-то хочет писать на ruby или php. Можно сказать «а нефиг тогда со своими скриптовыми языками к нам лезть», но чем выше порог вхождения, тем меньше людей пишет, тем хуже платформа для потребителя (потому что меньше кода и меньше людей, которые этот код могут написать под возникшую задачу).

ОС и библиотеки нужны не потому, что «без них нельзя». Десктопы полтора десятилетия жили без ОС (MS-DOS, ага, ага), и всё было просто радужно и пушисто. Но потом перешли на приличные ОС, по итогу. Потому что ОС (не только ядро, но и все эти миллионы соглашений о том, где какие файлы в каком формате, кто куда может, а кто нет) — это экосистема. Чем более дружелюбна экосистема к разработчикам, тем больше под экосистему кода, тем лучше эта экосистема для пользователя. А дружелюбность к разработчику — это как раз «любимый язык с любимыми библиотеками», плюс «battery included».

IoT не будет писаться «хардкорными С++ программистами». Точнее, пока он так будет писаться, с IoT'ом, как с концепцией, будут все бегать и показывать десятый год подряд.

А вот взлетит он когда на нём любой школьник сможет написать на своём любимом visual go с использованием модной чоткой современной суперлибы с крутыми смайликами.

Смотрите на судьбу мобильных платформ. Что их двигает? Дизайн и архитектура? Нет, масса разработчиков. Которых надо чем-то привлекать. Деньгами, идеей — хоть чем-то.

> А что будет, если к вашей арудинке подключить usb жёсткий диск с ntfs внутри?

А зачем? Если нужно хранилище — зачем лишние прослойки?
Ну а если очень надо — то что мешает взять аппаратную реализацию usb/ntfs на специализированном чипе?

> написать на своём любимом visual go с использованием модной чоткой современной суперлибы с крутыми смайликами.

Ну так а потом компилятор возьмет и перегонит все это дело в некий условный байт-код, который уже далее задеплоится куда нужно.

IoT — это не чип «все в одном, с полноценной ОС с окошками, ютубом и смайликами, и еще вконтактик сбоку» — это мелкие специализированные автономные дивайсы в большом количестве, выполняющие возложенные на них функции.
И задачей «настоящего программиста» здесь будет, КМК, не хардкорный код писать, а обрабатывать всю эту модную БигДату, поступающую с этого роя дивайсов.
Расскажите про аппаратную реализацию ntfs, да?

Кроме того, если вы будете ждать чипа по каждому чиху, то дождётесь. Парочки. И на этом весь IoT закончится. Потому что когда вам придёт в голову идея клёвой mesh-сети, то «аппаратной реализации» вашей идеи не будет. И адекватного фреймворка для самостоятельной реализации — тоже.
> Расскажите про аппаратную реализацию ntfs, да?

Какие принципиальные проблемы есть в реализации такой штуки?

> Кроме того, если вы будете ждать чипа по каждому чиху, то дождётесь. Парочки.

Репрограммируемая логика?
Репрограммируемая логика?


ПЛИС? Вы с ними работали? По необходимому уровню подготовки это… скажем так, довольно далеко от мигания светодиодом на Ардуине.

К тому же, ПЛИС по понятным причинам недёшевы.
Ну можно же набор готовых библиотек сделать и запихать все это в IDE. Т.е. для конечного пользователя останется только накидать блоков в формочку и задеплоить.
Что недешевы — знаю :(
Ну и получится очередная ардуина, которой заполнен весь DIY-интернет и которую одновременно попросту не имеет никакого смысла использовать в каких-то минимально серьёзных изделиях.

А так как в DIY масса, габариты и энергопотребление никакой особой роли не играют (см. те же Arduino, Raspberry), то вся идея изначально не имеет смысла и отношения к IoT, а превращается в «надо сделать как Arduino, но только применительно к ПЛИС».
Так идея же сделать IoT более-менее массовым. А значит нужен некий, грубо говоря, Arduino-way. Только более технологически продвинутый.
> сделать IoT более-менее массовым

Вернее, даже «сделать разработку для IoT более-менее массовой».
Arduino-way — это не «сделать микроконтроллерную технику массовой», это «сделать детский конструктор для тех, кто хочет поиграться с микроконтроллером». К реальной технике оно имеет такое же отношение, как LEGO к жилищному строительству — ну то есть, возможно, ребёнок, поиграв с LEGO, потом пойдёт учиться на инженера-строителя, но прямую причинно-следственную связь всё-таки провести сложно.

Сделав Ардуино для ПЛИС, вы получите такой же конструктор, который к настоящему IoT не будет иметь никакого отношения.
Хорошо. Что вы предлагаете?
Да то же, что и amarao — IoT будет расти в основном за счёт микрокомпьютерных платформ, под которые есть более-менее стандартизированные ОС и средства разработки. Микроконтроллеры, подобные выпущенному Atmel, пока пойдут только на носимые устройства и микропотребляющую технику, которая в силу специфики всё равно не пионерами делается.
Но объясните же мне, зачем там нужна операционная система общего назначения? Почему не тот же RTOS?
Потому что под систему общего назначения, в которой используются общеизвестные языки и общеизвестные библиотеки, на порядок проще писать. А под специфические RTOS вам для начала придётся искать специфических людей.

Вообще по сложности разработки (выражающейся как в трудности поиска людей, которые эту разработку сделают, так и в трудности реализации конкретных вещей) порядок же простой: 1) embedded Linux, 2) микроконтроллеры, 3) ПЛИС. Причём внутри каждого пункта своя градация — если под STM32 или AVR вы человека найдёте легко, то под какой-нибудь 8-битный Samsung имеете шанс в процессе проклясть всё (ну т.е. в итоге вам придётся взять человека, который будет целенаправленно осваивать этот самсунг, при этом понимая, что за пределами вашей конторы ему это знание никогда более не пригодится).

Вот почему вы пользуетесь каким-то странным Arduino, а не пишете под AVR на обычном C в обычном Atmel Studio?
> Потому что под систему общего назначения, в которой используются общеизвестные языки и общеизвестные библиотеки, на порядок проще писать.

И это тянет за собой дикий оверхед в виде тонны прослоек. Я уж не говорю о безопасности (а как вам вариант червя, который заразит ВСЕ 500 дивайсов у вас дома, и потом будет заражать всех подряд на улице?).

> А под специфические RTOS вам для начала придётся искать специфических людей.

Все это можно легко обойти на уровне IDE. Т.е. с т.зр. пользователя все будет как описано выше — накидать блоков в формочку и задеплоить. Ну для гиков еще и скрипты на условном питоне нарисовать. Компилятор все это дело скомпилирует в условный байт-код, который и будет уже работать на той условной RTOS.

> Вот почему вы пользуетесь каким-то странным Arduino, а не пишете под AVR на обычном C в обычном Atmel Studio?

Я не пользуюсь ни тем ни другим :)
А, да, пардон, это ncix открыл для себя Arduino.

И это тянет за собой дикий оверхед в виде тонны прослоек.


А всем плевать. Железо давно уже стабильно дешевле труда программиста. Никто не пишет под Windows на ассемблере, даже под 8-битные микроконтроллеры уже почти никто на нём не пишет — в 99 случаях из 100 проще доплатить 5-10 центов на изделие и поставить MCU с 512 байт ОЗУ вместо 256.

Все это можно легко обойти на уровне IDE. Т.е. с т.зр. пользователя все будет как описано выше — накидать блоков в формочку и задеплоить


IDE — это лишь средство разработки. Даже если предположить, что кто-то сделает IDE под специфическую платформу, которой будут пользоваться нормальные разработчики, IDE никак не решит проблему «мне нужен динамический веб-сервер с https — и я не хочу писать его сам». Эту проблему решает только существующая под платформу экосистема ПО.

накидать блоков в формочку и задеплоить


Вы много знаете коммерческих проектов, в которых разработка ПО для продаваемых ими решений идёт в таких IDE?.. Я вот — мало. Потому что как только пожелания к функционалу выходят за пределы стандартных решений (а они это делают регулярно), оказывается, что блока такой формы разработчики IDE не нарисовали, так что в формочку кидать нечего.
> оказывается, что блока такой формы разработчики IDE не нарисовали, так что в формочку кидать нечего

Ну для этого я и сказал «еще и скрипты на условном питоне нарисовать» :)
Для очень грубой аналогии вспомните тот же Дельфи. Там можно сделать все тасканием мышкой стандартных блоков, а можно через WinAPI сделать все это же, но чисто текстом (а потом и нестандартные фичи прикрутить вместо нытья по форумам вида «где взять такой-то компонент»).
А ардуиновский язык это всё тот же С сдобренный особыми макросами которые превращают разработку в более интуитивный процесс, но ценой траты ресурсов и быстродействия. Годится только для быстрого прототипирования. А лучшее решение всеравно возможно только на ассемблере(на С порой бывает не сильно проще писать — синтаксис простой но ньюансов на несколько порядков больше и предсказуемости все меньше и меньше). Но время…
Помоему, основная проблема современности — боязнь не успеть. Все хотят быстрее да побольше! Отсюда и масса проблем которые мы себе создаём и гордо преодолеваем.
>>IoT не будет писаться «хардкорными С++ программистами».… Смотрите на судьбу мобильных платформ. Что их двигает? Дизайн и архитектура? Нет, масса разработчиков.

Вы правда считаете что проще написать HelloWorld под Android на Java чем поморгать светодиодом в плюсах на Ардуине?

>>Которых надо чем-то привлекать. Деньгами, идеей — хоть чем-то.
А вот это уже в точку. Если гипотетически появится рынок приложений для контроллеров (откуда — не знаю) — мигом все выучат C++, уж поверьте мне :)
HelloWorld не знаю, но я точно знаю, что на Android значительно проще сфотографировать, кропнуть/ресайзнуть и зааплоадить картинку. Так что да, на Арудинке можно спокойно мигать светодиодами, а на Андроиде — более высокоуровневые и интересные пользователю вещи.
Рискну предположить, что интерес пользователя не ограничиввается «фотографировать, кропнуть/ресайзнуть и зааплоадить ». IoT в моем понимании это прежде всего сбор данных с устройств и удаленное управление ими. И для этих задач вполне хватает и современных контроллеров.
Да, конечно, будут наверное устройства, несущие и на борту солидную вычислительную мощность, но это скорее исключение.
Повторюсь, основная идея IoT в том что устройства «подключены», а это значит всего лишь возможность получить с них данные и отправить управляющие команды. В общем-то и всё.
Вы знаете, заранее, что оно будет делать? Я — нет. В этом и сила компьютеров, что создатели не могут придумать заранее, как их будут использовать, и делают универсальное решение.

А если заранее закладываться «они будут только сенсорами», то они только сенсорами и останутся. То есть никакого интересного развития не будет, и весь магический IoT сведётся к нескольким успешным локальным проектам и сотням неуспешных.

И уж точно никакой Сингулярности
Знаете, а я с вами соглашусь! IoT это прежде всего пользовательский фан, «юзер-френдли» прикладное ПО и экосистема.
Вот только ПО IoT большей частью будет работать на серверах да мобильниках. А «подключенные» устройства останутся простыми датчиками и исполнителями, за редким исключением.
Вы сейчас закладываете, что IoT железки будут тупыми сенсорами с одной функцией. Если бы компьютеры планировались в таком виде, то у нас до сих пор были бы настольные программируемые калькуляторы.

Вся суть компьютеров — в универсальности. И возможность засунуть код в неожиданные места даёт неожиданные результаты, которые не были предсказаны создателями «мест для засовывания». И это круто, и это движет собой все инновации в компьютерной сфере.
>>Если бы компьютеры
IoT это нечто совсем новое, аналогии слишком слабы и далеки от правды. Тем более что классические и мобильные компьютеры в IoT будут играть центральную роль

:)>>Вы сейчас закладываете, что IoT железки будут тупыми сенсорами с одной функцией.
Большинство — да. Конечно это мое предположение.

Кстати «тупизна» устройства — залог универсальности. Молотком хочешь гвозди или скобы забивай, хочешь — шурупы, хочешь — голову кому проломи. А вот мебельным степлером можно только скобы забивать, причем только одного размера.
Тем более что классические и мобильные компьютеры в IoT будут играть центральную роль


Не будут. Вы под видом IoT рисуете какую-то странную архитектуру «я с мобильника подключаюсь к датчикам». А зачем мне к ним подключаться? Мне куда удобнее подключаться к какому-нибудь центральному хабу «умного дома», который с этими датчиками общается по своим протоколам (и физическим, и логическим). Датчики в этой схеме вообще частью IoT не являются.
>>к какому-нибудь центральному хабу
Вот именно. Центральный хаб и будет тем местом, где будет основное программирование пользовательских сценариев. Конечно же там будет полноценный ПК с ОС. Разве что в компактном корпусе вроде роутера (или вместе с ним). Или вообще в облаке. Интерфейсная часть возможно будет реализована именно в мобильнике в виде приложения, а может и а-ля тонкий веб-клиент.

Правда недавно анонсировали проект децентрализованного «умного дома», как там что будет и будет ли — неизвестно.
На кой чёрт там нужен персональный компьютер?..
Не цепляйтесь к словам :) ЭВМ с открытой ОС, устроит?
Там будет железо уровня средненького роутера.
Скорей всего децентрализуют центральный хаб, их будет больше но меньшей мощности и обслуживать будут меньшее пространство, имея возможность использовать ресурсы других узлов по необходимости — например при резкой необходимости просчитать число Пи до 1024-го знака т.к. пользователь сидя в туалете с терминала запросил такую задачу.
Думаете? Мне видится схема когда 95% логики где-то в облаке, а на месте только некий аварийный набор, пока нет сети. Впрочем, могу ошибаться.
МК-61, мои первые программы… Пришел приятель, я дежурил в ночную, принес с собой метровую простыню по мат статистике на бэйсике и сказал, что завтра сдавать, а он не успел посчитать. Я прыгал двумя ногами на программе, использовал 104 шага памяти, все 15 ячеек числовых, пару констант пришлось хранить прямо в теле программы, но запихал всю эту простыню!!! Калькулятор просчитывал группу, вставал на паузу, выдавая сообщение, показывал поочередно три числа, которые мы записывали на бумажку, и запускался на следующий цикл. Д3-28 на кафедре АРТ имели 16 килобайт оперативки, собственно исходная программа и писалась для них. А тут целых 32 килобайта. Да не на всех первых клонах спектрума столько стояло.
UFO just landed and posted this here
Вот как раз ОС и всевозможные фреймворки на ней — это то зло которое надо искоренить из конечных датчиков и исполнительных механизмов.
Они должны быть именно как это говорится жесткий эмбед.
Представьте себе ситуацию… в доме сотни устройств, которые в мгновение ока оказываются заражены вирусом… и который вытравить будет очень непросто — надо отключить все и постепенно девайс за девайсом лечить, забудешь что-то и оно повторно заразит все остальное.
Нет, типичный IOT должен иметь лишь внешний интерфейс а внутри очень жестко оптимизирован по функциям и потреблению.
Собственно наличие ОС и фреймворков для нее ставит крест на оптимизации и минимизации потребления энергии. Это допустимо только в прототипировании. А в реальной жизни все должно быть оптимизировано до уровня «перебирать байтики».

Зачем к примеру выключателю и датчику температуры полная реализация функциональности SSL и TCP/IP стека? только для того чтобы тот смог передавать температуру раз в минуту… При этом он не будет способен проработать от батарейки больше одного года.
Ок, ок, жестокий эмбедд победил. У нас ещё одна микроволновка, которая умеет пищать и мерять температуру. IoT? Пшик, а не IoT.
IoT не означает что каждая лампочка обязана подключаься напрямую в интернет и иметь весь набор библиотек для этого. Это возможно, но стоимость решения убьёт эту идею на корню. Более простое решение всегда будет выигрывать. IoT не перестанет быть таковой если будет взаимодействовать с интернетом через шлюз.
Датчик исчерпал себя по функциональности? Замени на более функциональный… интерфейс будет тот же.
Вы же предлагаете сделать «репликаторов» каждый узел такой системы полностью универсален и может выполнять роль координационного узла, шлюза в интернет, сенсора давления, света, присутствия и т.д.(какие там еще функции на него взвалить чтобы узел был во истину универсальным? ах да, не зыбыть еще возможность подключения видеосенсора со всеми возможными библиотеками кодирования и стриминга)… это будет жесткий оверинженеринг и перерасходование ресурсов. В итоге рядовой модуль будет использован на 0.01% своих способностей.
Конечные датчики и исполнительные механизмы вообще к IoT никакого отношения не имеют. Им мозги как таковые не нужны, равно как и полноценный доступ в интернет.
UFO just landed and posted this here
Не зажрался. Большая была экосистема на этих штуках? Нет. Всё, что было — это от бедности и безальтернативности.
Никого железо не интересует, всех интересует софт. IoT требует миллиарды человекочасов программистов для написания этого софта. А чем вы планируете программистов привлекать? Удовольствием тыкаться в 256 тысяч бит, в любой на своё усмотрение?

Как насчёт подтащить любимую среду разработки, да с докером? «Ах, нету? Ну и не буду писать». И если такая позиция будет занята значительной частью тех, кто мог бы писать, но не будет, ничего не взлетит.

Собственно, давайте я задам вам простой вопрос: микроконтроллеры с нами уже десятилетия и встроены в каждую бытовую технику, включая пылесос. И где этот 'IoT'? Чего-то не хватает, правда? Например, программ и экосистемы. А почему программ не хватает? Потому что людей не вдохновляет битики на микроволновке переставлять, думая, где там ещё три байта сэкономить.
>>И где этот 'IoT'? Чего-то не хватает, правда?
Рискну предположить, что не хватало прежде всего понимания зачем собственно подключать пылесос к Интернету?
В рамках хипстерско-киберпанковских решений: чтобы грузить видеофид процесса на сервер, и рапортовать о проблемах. Десять пылесосов заехало в собачье говно, скоринг у собачьего говна пошёл вниз, сервер роботу говорит в ответ на очередной видеофид собачьего говна по курсу говорит «туда не езди».

Это я вам сходу сфантазировал про реальные проблемы. Разумеется, придумают. Вы, главное, комфортный фреймворк для фантазий дайте.
Очень интересный чип. Обязательно поиграюсь с ним.
При таких потреблениях будет идеальной основой для платы с GPS и барометрическим датчиком.
А вы считали? На фоне того, сколько жрёт GPS, неважно какой микроконтроллер, — малопотребляющий или микропотребляющий.
Кстати.
Есть тритиевые элементы питания, которые выдают довольно слабый ток, но при этом их время работы ограничено только периодом полураспада трития — возможно, для всякой очень автономной электроники. Кроме того, если сделать небольшое устройство для накопления тока (достаточно одного конденсатора и одного ключевого элемента) — можно время от времени позволять более энергоёмкую нагрузку.
Вот только плотность энергии у тритиевых элементов значительно ниже чем у обычной литиевой батарейки
Ещё можно предложить вариант, если там действительно микроамперы. Экзотический, но забавный. Детекторный приёмник, я думаю, многие собирали в своё время? Если жить рядом с телебашней или в зоне плотного покрытия мобильных сетей — думаю, можно насобирать из радиоволн на работу такой штуки. Хотя это считать надо, да.
Да, где-то читал о приёмнике, который добывал энергию для воспроизведения звука прямо из эфира. Там, конечно, порядок токов другой, но всё равно хватит.
Другое дело, что изотопная батарея, насколько я знаю, не зависит от географического положения и прочей инфраструктуры. И — поскольку там реакции не химические — от температуры тоже. Т.е. такие штуки спокойно могут работать десятилетиями на северном полюсе, на дне океана. Да хотя бы в космосе (хотя там уже нужна другая, радиационно-стойкая электроника)
РИТЭГ-ами такие батарейки зовут. Они давно и успешно используются, парочка таких батарей даже на марсе уже есть.
А на земле используют для запитки маяков в отдаленных и труднодоступных местах.

Детекторный приемник. Да, он так и работает — использует энергию принимаемых волн для воспроизведения звука. И отобрать энергии на лампочку можно, вопрос лишь в размере антенны.
Была одна история — один шибко предприимчивый любитель развернул 100-метровую антенну и собирал с неё энергию с близкой радиостанции на питание ламопчки. Вот только вычислили его — такая антенна даёт четко измеримую тень затухания сигнала и мешает принимать сигнал от станции в удалённых районах.
Нет, РИТЭГ тут ни при чём.
Ритэг преобразует тепловую энергию в электричество.
Тритиевые элементы питания дают энергию за счёт бета-распада, т.е. «напрямую» (http://geektimes.ru/post/170209/, к примеру)
Вангую появление имплантируемого микроконтроллера, работающего от тепла человеческого тела :)
Который будет что? Бить имплантированного током когда тот коммитит не собирающийся код? :)
От сферического «тепла человеческого тела» ничего работать не будет. Для получения энергии нужен перепад температур (т.е. можно поставить такой имплант только на/под кожу). Для имплантов более перспективно использование топливных элементов на глюкозе и кислороде крови, например.
Откуда радиатор будет торчать? )
Гусары, всем молчать!!! ©
Sign up to leave a comment.

Articles