All streams
Search
Write a publication
Pull to refresh
28
0
Send message
superset'ом Сей является ObjC, а C++ не является надмножеством Си и, в общем случае, не является с ним полностью совместимым :-)

Так что на картинке не cat++, а Objective-Cat ;-)
Думаю тут скорее в пуш-серверах дело, а не в операционке (во втором случае). Про первый случай — не скажу. То есть тут нужно провести ряд экспериментов с «секундомером» чтобы можно было сказать действительно ли эффект в iOS отличается от WinPhone.

У меня в iOS это самое «очень быстро» растягивалось на десятки минут, если не на часы (то есть, видимо, до момента когда та сторона комп свой не включит). А иногда все четко и быстро.
А версия для linux/os x будет? А то не вижуал студией единой…

Ну или хотя бы в виде веб-сервиса что-ли. А то львиная доля проектов таки под *nix.
Это немного не так. по сути они всего лишь суперноды все перетащили в Azure, так что при звонке теперь медия идет через ноду в их облаке (когда невозможно прямое соединение). Но при этом саму логику этих нод они не изменили, то есть сообщения в них не хранятся (единственное что этот кластер дополнительно умеет делать — слать уведомления о сообщении через пуш-сервисы)…

Я конечно не работаю в MS-Skype, но результаты эксериментов показывают что описанная мною картина очень похожа на правду.
На самом деле со скайпом в точности та же картина на iOS, так что думаю ось тут не при чем. Все дело в том, что пуш-нотификации прилетают по одному интерфейсу (это tcp-соединение которое устройство держит постоянно с кластером Apple, в случае MS — c кластером MS) и оттуда прилетает сообщение которое обрезано и не является нормальным сообщением скайпа. Благодаря этому, пуш работает даже когда скайп не запущен.

После того как мы ткнули на пуш и запустился скайп, оный скайп начинает обычным образом получать сообщения которые пришли пока он был в оффлайне через свой протокол. Уже через p2p. А это ме-едленно и не гарантированно (обычно для этого требуется чтобы был онлайн комп с которого было это сообщение отправлено). Про пуш скайп при этом ничего не знает (а если бы знал, он показал бы обрезанную версию сообщения — в пуше размер сообщения ограничен).

Вот как-то так.
Поддержка Bluetooth LE позволит оптимизировать работу смартфонов Lumia с беспроводными гаджетами нового поколения вроде спортивного датчика Adidas MiCoach. Низкий расход электроэнергии в новой технологии позволит избавиться от «головной боли» владельцев этих устройств — быстрой разрядки устройств из-за постоянно включенного «блютуса».


Ну это же не правда. В том смысле, что BLE ( Bluetooth LE) и Bluetooth обычный — это просто два РАЗНЫХ протокола, друг с другом никак не совместимых. Соответственно внешний дивайс или работает через BLE (как например наш фотоплетизмограф) и тогда с ним общаться можно только через BLE (и тогда у нас все профиты в виде низкого энергопотребления, и все недостатки в виде черепашьей скорости передачи данных), через «обычный» Bluetooth до него никак не достучаться. Либо он работает через Bluetooth, и тогда он не будет работать через BLE.

Теоретически возможно конечно сделать гаджет который может и так и эдак (например смартфоны могут и так и эдак), но в случае автономных фитнес-устройств это просто не имеет смысла (слишком сложно, слишком громоздко, обычный Bluetooth к тому же жрет энергию как не в себя).

Но новость конечно очень позитивная, значт мы теперь сможем и эти нокии поддержать ;-)
Кстати, каким образом они умудрились от них (кровеносных сосудов) избавиться? У нас же с ними общий предок.

Вот у, скажем осьминогов, у них да, их нет перед сетчаткой. У них эволюция глаза шла иначе.
Так. Стоп. А «новость» то аж 2010 года! То есть за прошедшие 3 года явно должны были уже внедрить в производство. Ну, или как это водится в медицине, начать клинические исследования, и глядишь еще лет через 6-7 этот дивайс будет допущен к операциям.
Ну, тут всё же не Tegra. Надо поковыряться, вдруг есть публичная информация о технологической составляющей.
Гм. А куда собственно железка от nvidia подключена? Ужель ради этого проекта они драйвер с поддержкой CUDA под QNX написали?
Ну, во-первых человек это таки животное.

Во-вторых у разного типа принятия решений будет разный тайминг и цепочка рассуждения. То есть когда я продумываю архитектуру софта, либо скажем решаю какую-то математическую задачу, тут явно идет не 200 мс, тут довольно долгие и длинные цепочки именно сознательного мышления (хотя безусловно тут участвует и бессознательное — в ходе этих долгих рассуждений работает и то и это, меняется и обучается и сознательное и не сознательное. «подсознание» иногда подкидывает решения, которые осознаются как внезапные озарения, и которые потом анализируются на протяжении иногда нескольких часов).

Так что 200мс это скорее всего именно мышечная активность — то, что «автоматизируется» лучше всего. Кроме того, не на каждую такую активность, и не всегда, у сознания есть право вето. Попробуйте ка наложить вето на сокращение сердечной мышцы.
Юдковского да, читать не только интересно, но и очень полезно. Знатный популяризатор науки.

Ну русском:
lesswrong.ru/
www.fanfics.ru/index.php?section=3&id=40982
Получалось, что то, что мы ощущаем как сознательное волевое решение является лишь следствием работы нашего мозга.

Таким образом, получается, что мы всего лишь высокотехнологичные биологические компьютеры с возможностью самообучения и перепрограммирования. И вся наша свобода на самом деле заключается в том, чтобы либо принимать, либо отвергать решения, предлагаемые мозгом на основе шаблонов.

Пардон, но чем еще мы должны принимать сознательное волевое решение как не мозгом? Сознание оно в мозгу, поэтому не вижу в результатах экспериментов ничего необычного. Вот если бы эксперимент показал, что решение принимается БЕЗ активности мозга, вот это был бы нонсенс.

И да, принимаем и отвергаем решения мы опять таки мозгом. Это все реально очень логично и нормально. Сознательная деятельность очень энергозатратна и ОЧЕНЬ тормозная и ограниченная. Если всё повесить на сознание, то скорость реакции и выполнение действий будет не больше чем у роботов на DARPA-соревновании, что прошло недавно. Желающие могут оценить: www.youtube.com/watch?v=mwWm3HaDbnQ&feature=share&t=1h5m56s

С чем бы сравнить… Ну вот у нас есть FPGA и на ней реализована некая логика, это работает быстро с высокой степенью параллельности, а часть логики реализована в виде софта для RISC-ядра (реализованного там же, на FPGA, в виде какого-нибудь MicroBlaze например). Логика на FPGA работает очень быстро, но перепрограммируется медленно и сложно. Зато софтверная часть логики перепрограммируется просто и может быть весьма сложной, но работает очень и очень медленно, последовательно, и при этом жрет ресурсы как не в себя.

PS. Кстати, есть научные исследования на тему реализации всякого разного Machine Lerning на FPGA — оно само себя переконфигурировало на лету.
Это очень круто! Ну, то есть это реально огромный шаг вперед. Постоперационный период должен в результате проходить намного лучше. Ну и вообще преимуществ море.

Единственное что меня тут смущает это то, что похоже это (по крайней мере частично) работает под управлением винды (судя по видео). А винде, я бы, по возможности, свою жизнь не стал доверять.
А вот интересно, как этот скриншот заверяющий может проверить вообще? Ведь его и нарисовать можно. да и вообще, на своем компе я могу вывести на экран любую картинку (не важно какими средствами — просто нарисовав в рисовалке, или же подсунув нужному софту сгенерированные данные (например html браузеру), сделать скриншот, и пусть заверяют.

То есть нотариально заверенный скриншот может быть фейком с тем же успехом, что и не заверенный.
Давайте. Ретины у меня все равно нет (да для меня и обычный монитор ретиной является :-) )
А как пользоваться acme без мышки? Я пробовал пользоваться acme, и именно это меня остановило в свое время.

Во-первых на ноутбуке (макбуке) у меня мышки нет. Но есть тачпад. У тачпада нет третьей (средней) кнопки мышки (в правая кнопка там относительно неудобна, то есть кликать часто не будешь). Тачпад мне удобней, так что подключать мышку не предлагать.

Во-вторых когда я программирую, предпочитаю вообще к минимуму свести мышевозение. Максимум клавиатуры. Так банально удобней и быстрее (даже если использовать тачпад а не мышку (в случае тачпада не так далеко руки переставлять чтобы курсор подвинуть)).
Дык, уже! Еще 18 декабря сходил туда и записался.
А когда уже будет хоть какой-то альфа/бета/гамма/каппа релиз C++ IDE от JetBrains? Хотя бы левой пяткой пощупать бы! :-)

Information

Rating
Does not participate
Location
Нижний Новгород, Нижегородская обл., Россия
Date of birth
Registered
Activity