Думаю тут скорее в пуш-серверах дело, а не в операционке (во втором случае). Про первый случай — не скажу. То есть тут нужно провести ряд экспериментов с «секундомером» чтобы можно было сказать действительно ли эффект в iOS отличается от WinPhone.
У меня в iOS это самое «очень быстро» растягивалось на десятки минут, если не на часы (то есть, видимо, до момента когда та сторона комп свой не включит). А иногда все четко и быстро.
Это немного не так. по сути они всего лишь суперноды все перетащили в Azure, так что при звонке теперь медия идет через ноду в их облаке (когда невозможно прямое соединение). Но при этом саму логику этих нод они не изменили, то есть сообщения в них не хранятся (единственное что этот кластер дополнительно умеет делать — слать уведомления о сообщении через пуш-сервисы)…
Я конечно не работаю в MS-Skype, но результаты эксериментов показывают что описанная мною картина очень похожа на правду.
На самом деле со скайпом в точности та же картина на iOS, так что думаю ось тут не при чем. Все дело в том, что пуш-нотификации прилетают по одному интерфейсу (это tcp-соединение которое устройство держит постоянно с кластером Apple, в случае MS — c кластером MS) и оттуда прилетает сообщение которое обрезано и не является нормальным сообщением скайпа. Благодаря этому, пуш работает даже когда скайп не запущен.
После того как мы ткнули на пуш и запустился скайп, оный скайп начинает обычным образом получать сообщения которые пришли пока он был в оффлайне через свой протокол. Уже через p2p. А это ме-едленно и не гарантированно (обычно для этого требуется чтобы был онлайн комп с которого было это сообщение отправлено). Про пуш скайп при этом ничего не знает (а если бы знал, он показал бы обрезанную версию сообщения — в пуше размер сообщения ограничен).
Поддержка Bluetooth LE позволит оптимизировать работу смартфонов Lumia с беспроводными гаджетами нового поколения вроде спортивного датчика Adidas MiCoach. Низкий расход электроэнергии в новой технологии позволит избавиться от «головной боли» владельцев этих устройств — быстрой разрядки устройств из-за постоянно включенного «блютуса».
Ну это же не правда. В том смысле, что BLE ( Bluetooth LE) и Bluetooth обычный — это просто два РАЗНЫХ протокола, друг с другом никак не совместимых. Соответственно внешний дивайс или работает через BLE (как например наш фотоплетизмограф) и тогда с ним общаться можно только через BLE (и тогда у нас все профиты в виде низкого энергопотребления, и все недостатки в виде черепашьей скорости передачи данных), через «обычный» Bluetooth до него никак не достучаться. Либо он работает через Bluetooth, и тогда он не будет работать через BLE.
Теоретически возможно конечно сделать гаджет который может и так и эдак (например смартфоны могут и так и эдак), но в случае автономных фитнес-устройств это просто не имеет смысла (слишком сложно, слишком громоздко, обычный Bluetooth к тому же жрет энергию как не в себя).
Но новость конечно очень позитивная, значт мы теперь сможем и эти нокии поддержать ;-)
Так. Стоп. А «новость» то аж 2010 года! То есть за прошедшие 3 года явно должны были уже внедрить в производство. Ну, или как это водится в медицине, начать клинические исследования, и глядишь еще лет через 6-7 этот дивайс будет допущен к операциям.
Во-вторых у разного типа принятия решений будет разный тайминг и цепочка рассуждения. То есть когда я продумываю архитектуру софта, либо скажем решаю какую-то математическую задачу, тут явно идет не 200 мс, тут довольно долгие и длинные цепочки именно сознательного мышления (хотя безусловно тут участвует и бессознательное — в ходе этих долгих рассуждений работает и то и это, меняется и обучается и сознательное и не сознательное. «подсознание» иногда подкидывает решения, которые осознаются как внезапные озарения, и которые потом анализируются на протяжении иногда нескольких часов).
Так что 200мс это скорее всего именно мышечная активность — то, что «автоматизируется» лучше всего. Кроме того, не на каждую такую активность, и не всегда, у сознания есть право вето. Попробуйте ка наложить вето на сокращение сердечной мышцы.
Получалось, что то, что мы ощущаем как сознательное волевое решение является лишь следствием работы нашего мозга.
Таким образом, получается, что мы всего лишь высокотехнологичные биологические компьютеры с возможностью самообучения и перепрограммирования. И вся наша свобода на самом деле заключается в том, чтобы либо принимать, либо отвергать решения, предлагаемые мозгом на основе шаблонов.
Пардон, но чем еще мы должны принимать сознательное волевое решение как не мозгом? Сознание оно в мозгу, поэтому не вижу в результатах экспериментов ничего необычного. Вот если бы эксперимент показал, что решение принимается БЕЗ активности мозга, вот это был бы нонсенс.
И да, принимаем и отвергаем решения мы опять таки мозгом. Это все реально очень логично и нормально. Сознательная деятельность очень энергозатратна и ОЧЕНЬ тормозная и ограниченная. Если всё повесить на сознание, то скорость реакции и выполнение действий будет не больше чем у роботов на DARPA-соревновании, что прошло недавно. Желающие могут оценить: www.youtube.com/watch?v=mwWm3HaDbnQ&feature=share&t=1h5m56s
С чем бы сравнить… Ну вот у нас есть FPGA и на ней реализована некая логика, это работает быстро с высокой степенью параллельности, а часть логики реализована в виде софта для RISC-ядра (реализованного там же, на FPGA, в виде какого-нибудь MicroBlaze например). Логика на FPGA работает очень быстро, но перепрограммируется медленно и сложно. Зато софтверная часть логики перепрограммируется просто и может быть весьма сложной, но работает очень и очень медленно, последовательно, и при этом жрет ресурсы как не в себя.
PS. Кстати, есть научные исследования на тему реализации всякого разного Machine Lerning на FPGA — оно само себя переконфигурировало на лету.
Это очень круто! Ну, то есть это реально огромный шаг вперед. Постоперационный период должен в результате проходить намного лучше. Ну и вообще преимуществ море.
Единственное что меня тут смущает это то, что похоже это (по крайней мере частично) работает под управлением винды (судя по видео). А винде, я бы, по возможности, свою жизнь не стал доверять.
А вот интересно, как этот скриншот заверяющий может проверить вообще? Ведь его и нарисовать можно. да и вообще, на своем компе я могу вывести на экран любую картинку (не важно какими средствами — просто нарисовав в рисовалке, или же подсунув нужному софту сгенерированные данные (например html браузеру), сделать скриншот, и пусть заверяют.
То есть нотариально заверенный скриншот может быть фейком с тем же успехом, что и не заверенный.
А как пользоваться acme без мышки? Я пробовал пользоваться acme, и именно это меня остановило в свое время.
Во-первых на ноутбуке (макбуке) у меня мышки нет. Но есть тачпад. У тачпада нет третьей (средней) кнопки мышки (в правая кнопка там относительно неудобна, то есть кликать часто не будешь). Тачпад мне удобней, так что подключать мышку не предлагать.
Во-вторых когда я программирую, предпочитаю вообще к минимуму свести мышевозение. Максимум клавиатуры. Так банально удобней и быстрее (даже если использовать тачпад а не мышку (в случае тачпада не так далеко руки переставлять чтобы курсор подвинуть)).
Так что на картинке не cat++, а Objective-Cat ;-)
У меня в iOS это самое «очень быстро» растягивалось на десятки минут, если не на часы (то есть, видимо, до момента когда та сторона комп свой не включит). А иногда все четко и быстро.
Ну или хотя бы в виде веб-сервиса что-ли. А то львиная доля проектов таки под *nix.
Я конечно не работаю в MS-Skype, но результаты эксериментов показывают что описанная мною картина очень похожа на правду.
После того как мы ткнули на пуш и запустился скайп, оный скайп начинает обычным образом получать сообщения которые пришли пока он был в оффлайне через свой протокол. Уже через p2p. А это ме-едленно и не гарантированно (обычно для этого требуется чтобы был онлайн комп с которого было это сообщение отправлено). Про пуш скайп при этом ничего не знает (а если бы знал, он показал бы обрезанную версию сообщения — в пуше размер сообщения ограничен).
Вот как-то так.
Ну это же не правда. В том смысле, что BLE ( Bluetooth LE) и Bluetooth обычный — это просто два РАЗНЫХ протокола, друг с другом никак не совместимых. Соответственно внешний дивайс или работает через BLE (как например наш фотоплетизмограф) и тогда с ним общаться можно только через BLE (и тогда у нас все профиты в виде низкого энергопотребления, и все недостатки в виде черепашьей скорости передачи данных), через «обычный» Bluetooth до него никак не достучаться. Либо он работает через Bluetooth, и тогда он не будет работать через BLE.
Теоретически возможно конечно сделать гаджет который может и так и эдак (например смартфоны могут и так и эдак), но в случае автономных фитнес-устройств это просто не имеет смысла (слишком сложно, слишком громоздко, обычный Bluetooth к тому же жрет энергию как не в себя).
Но новость конечно очень позитивная, значт мы теперь сможем и эти нокии поддержать ;-)
Вот у, скажем осьминогов, у них да, их нет перед сетчаткой. У них эволюция глаза шла иначе.
Во-вторых у разного типа принятия решений будет разный тайминг и цепочка рассуждения. То есть когда я продумываю архитектуру софта, либо скажем решаю какую-то математическую задачу, тут явно идет не 200 мс, тут довольно долгие и длинные цепочки именно сознательного мышления (хотя безусловно тут участвует и бессознательное — в ходе этих долгих рассуждений работает и то и это, меняется и обучается и сознательное и не сознательное. «подсознание» иногда подкидывает решения, которые осознаются как внезапные озарения, и которые потом анализируются на протяжении иногда нескольких часов).
Так что 200мс это скорее всего именно мышечная активность — то, что «автоматизируется» лучше всего. Кроме того, не на каждую такую активность, и не всегда, у сознания есть право вето. Попробуйте ка наложить вето на сокращение сердечной мышцы.
Ну русском:
lesswrong.ru/
www.fanfics.ru/index.php?section=3&id=40982
Пардон, но чем еще мы должны принимать сознательное волевое решение как не мозгом? Сознание оно в мозгу, поэтому не вижу в результатах экспериментов ничего необычного. Вот если бы эксперимент показал, что решение принимается БЕЗ активности мозга, вот это был бы нонсенс.
И да, принимаем и отвергаем решения мы опять таки мозгом. Это все реально очень логично и нормально. Сознательная деятельность очень энергозатратна и ОЧЕНЬ тормозная и ограниченная. Если всё повесить на сознание, то скорость реакции и выполнение действий будет не больше чем у роботов на DARPA-соревновании, что прошло недавно. Желающие могут оценить: www.youtube.com/watch?v=mwWm3HaDbnQ&feature=share&t=1h5m56s
С чем бы сравнить… Ну вот у нас есть FPGA и на ней реализована некая логика, это работает быстро с высокой степенью параллельности, а часть логики реализована в виде софта для RISC-ядра (реализованного там же, на FPGA, в виде какого-нибудь MicroBlaze например). Логика на FPGA работает очень быстро, но перепрограммируется медленно и сложно. Зато софтверная часть логики перепрограммируется просто и может быть весьма сложной, но работает очень и очень медленно, последовательно, и при этом жрет ресурсы как не в себя.
PS. Кстати, есть научные исследования на тему реализации всякого разного Machine Lerning на FPGA — оно само себя переконфигурировало на лету.
Единственное что меня тут смущает это то, что похоже это (по крайней мере частично) работает под управлением винды (судя по видео). А винде, я бы, по возможности, свою жизнь не стал доверять.
То есть нотариально заверенный скриншот может быть фейком с тем же успехом, что и не заверенный.
Во-первых на ноутбуке (макбуке) у меня мышки нет. Но есть тачпад. У тачпада нет третьей (средней) кнопки мышки (в правая кнопка там относительно неудобна, то есть кликать часто не будешь). Тачпад мне удобней, так что подключать мышку не предлагать.
Во-вторых когда я программирую, предпочитаю вообще к минимуму свести мышевозение. Максимум клавиатуры. Так банально удобней и быстрее (даже если использовать тачпад а не мышку (в случае тачпада не так далеко руки переставлять чтобы курсор подвинуть)).