Ну, дак после того как подцепились к AP кондеры скорее всего почти разряжены ведь? Нет? И им после того надо зарядиться.
Вообще, 0.01 V/sec это очень похоже на ток порядка 10-15 mA. Что довольно много особенно если учесть, что они обещают «Standby power consumption of < 1.0mW (DTIM3)».
Ну вот по спеке в подключенном к AP состоянии оно кушает 1mA. Это меня вполне устраивает (если проработает от одной батарейки несколько суток — будет нормально). Основной затык в том, что батарейка cr3032 естественно не сможет в пике (во время передачи) выдать 180mA.
А кто-нибудь пробовал питать esp8266 от cr3032 (вероятно в комбинации с конденсатором и/или ионистором)?
Если допустим мне надо раз в 10 секунд отсылать один udp-пакет? То есть esp должен быть постоянно подключен к Access Point, секунду в таком режиме спать, затем просыпаться и отправлять один udp-пакетик.
По идее посылка одного udp штука быстрая — доли секунды, и того, что накопилось в конденсаторе/ионисторе вполне может хватить чтобы обеспечить нужный ток во время передачи.
Напомните, сколько кушает BLE при передаче, какая типичная скорость передачи у BLE и сколько нужно будет передавать данных при передаче видео, ну или хотя бы не сжатого фото, а если сжатого, то сколько потребуется энергии для его компрессии.
Стоит полагать, что это рабочий прототип. Беспроводные коммуникации совершенствуются, вон блютуз 4 уже потребляет меньше чем микроконтроллер
ble потребляет больше чем MCU. Собственно ble — одна из самых жручих штук у сенсоров (если конечно прошивку для MCU писал не рукожоп который не может в сон).
Энергии вполне может хватить для передачи на пару метров.
Это для видео то? Это ведь вам не температуру раз в 15 минут передать (один-два байта), это ВИДЕО. Это огромный поток данных. А если не видео, а даже просто фото, это все равно МНОГО информации.
Энергии хватает, чтобы снять изображение с частотой 30 кадров/с и передать его по кабелю на компьютер.
Что-то я не понимаю где тут профит, все равно камера привязана проводом к компу, по этому же проводу отлично можно и питание подать.
Но допустим сделают еще и внутреннюю память, а провод уберут. Но в таком режиме камера будет просто копить данные на внутренней памяти, и при чем тут тогда IoT (см. тэг)? Куда-либо их передать ей силенок точно не хватит при этом.
В общем, в лучшем случае получаем автономный видеорегистратор для улицы днем (в случае чего можно успеть достать из него данные пока они не затерлись более новыми). И никакого интернета вещей.
Терпеть не могу сайты в таком виде. Они же не удобны! Они тяжеловесны. Единственный их плюс — это просмотр на планшете, когда хочется просто полистать картинки не вникая в суть (и не делясь этим с кем-либо, ибо дать ссылку на конкретный элемент данной страницы (подстраницу страницы?) обычно довольно сложно).
Ну, видимо пора уже учить хотя бы технический китайский :-) А то немалая толика тех. доков сейчас в первую очередь появляется на китайском уже (в различным их железякам-микроконтроллерам и проч). Да и некоторые статьи научные тоже.
Движок свой, или системный, от IE? Возможность выбирать руками кодировку страницы есть? (IE например иногда ошибается в автоопределении кодировки, и нужную руками уже никак на WinPhone не выбрать)
Ну вот я знаю одно место где я бы точно-точно не стал бы использовать Go — при программировании микроконтроллера с 512 байтами ОЗУ на борту (есть у меня тут такой). Для этого я использовал С++ (c лямбдами да шаблонами, да).
Насколько я понимаю, они вполне себе продолжают взаимодействовать с FSF, по крайней мере сборка GNAT не от AdaCore, а от FSF все еще имеется (в том числе в том же mingw 4.7 и прочем) — сборка GNAT от FSF отличается прежде всего лицензией (ну и стыковкой фронтенда и бекенда — этим там занимаются несколько другие люди).
То есть GNAT никуда из gcc не выкинули. См. например чейнджлог для gcc 4.9: gcc.gnu.org/gcc-4.9/changes.html — там есть секция Ada. Так что все нормально, gnat как был частью gcc так и остался. Хотя конечно модель разработки GNAT отличается от модели разработки например g++.
Вообще, 0.01 V/sec это очень похоже на ток порядка 10-15 mA. Что довольно много особенно если учесть, что они обещают «Standby power consumption of < 1.0mW (DTIM3)».
По идее подключкние к AP это да, долгий процесс, после подключения должно стать легче.
Если допустим мне надо раз в 10 секунд отсылать один udp-пакет? То есть esp должен быть постоянно подключен к Access Point, секунду в таком режиме спать, затем просыпаться и отправлять один udp-пакетик.
По идее посылка одного udp штука быстрая — доли секунды, и того, что накопилось в конденсаторе/ионисторе вполне может хватить чтобы обеспечить нужный ток во время передачи.
Например вот: stackoverflow.com/questions/199747/how-to-detect-possible-potential-stack-overflow-problems-in-a-c-c-program
PS. А операционной системе про мой «стек» знать вовсе и не обязательно. См. например как это сделано в gcc.
ble потребляет больше чем MCU. Собственно ble — одна из самых жручих штук у сенсоров (если конечно прошивку для MCU писал не рукожоп который не может в сон).
Это для видео то? Это ведь вам не температуру раз в 15 минут передать (один-два байта), это ВИДЕО. Это огромный поток данных. А если не видео, а даже просто фото, это все равно МНОГО информации.
Что-то я не понимаю где тут профит, все равно камера привязана проводом к компу, по этому же проводу отлично можно и питание подать.
Но допустим сделают еще и внутреннюю память, а провод уберут. Но в таком режиме камера будет просто копить данные на внутренней памяти, и при чем тут тогда IoT (см. тэг)? Куда-либо их передать ей силенок точно не хватит при этом.
В общем, в лучшем случае получаем автономный видеорегистратор для улицы днем (в случае чего можно успеть достать из него данные пока они не затерлись более новыми). И никакого интернета вещей.
Да десктопе же они не удобны в принципе.
Сюда Rust подошел бы? ;-)
То есть GNAT никуда из gcc не выкинули. См. например чейнджлог для gcc 4.9: gcc.gnu.org/gcc-4.9/changes.html — там есть секция Ada. Так что все нормально, gnat как был частью gcc так и остался. Хотя конечно модель разработки GNAT отличается от модели разработки например g++.