Ну если я не согласен с собеседником, я ставлю ему минус. Количество плюсов и минусов выражает мнение большинства читателей по тому или иному сообщению. А как еще, вроде так и задумано? А то что собеседника банят при каком-то там количестве минусов — это уже странно. Все-же выражение своего мнения и самомодерация сообщества — это несколько разные вещи (по крайней мере должны быть разными вещами ИМХО)…
Вообще например такие фичи как embedding и использование в нем не только непосредственно объектов, но и указателей/ссылок на объекты, это одна из тех удивительно простых вещей, про которые думаешь когда впервые узнаешь: ну почему это еще в Си не было сделано, это же так просто и красиво!
Разумеется от операторов никуда не деться, да и не нужно от них «деваться». К примеру торренты не заменяют web-сайты, это просто разные технологии.
Просто может пойти так, что эти фишки будут сразу закрытыми где-то в недрах прошивки gsm модуля, а может — станут открытыми и доступными программно через API основных мобильных ОС. Тогда дело за гиками, которые уже и будут думать как этим воспользоваться. А применений масса, начиная от простейшей рации для юзания в лесу и заканчивая огромными, неподконтрольными правительству меш сетями, охватывающими целые города…
Ну так i2p, торренты и подобные вещи. Полезно будет для распространенного контента и в местах высокой концентрации людей (кстати, для стационарных wi-fi роутеров никто не мешает реализовать подобное — а пропихнуть можно будет под видом «домашней микросоты» в роутере).
В общем, нужная некая большая открытость со стороны gsm сетей, чтобы они переставали быть технологиями, доступными только для сотовых операторов и сближались с «пользовательскими» технологиями.
По идее, если эта технология каким-то образом сольется с wi-fi (или с будущими расширениями wi-fi), а не останется огороженной в недрах стека сотовой связи, то да, со временем удастся обойти операторов и сделать меш-сети; тогда операторы будут использоваться для туннелей нелокальной связи, а все что в пределах досягаемости — напрямую между пользовательскими устройствами; это же открывает дорогу децентрализованному мобильному Интернету, когда на каждом смартфоне будет крутиться меш-сервер. Хотя, конечно, концентрация людей на территории должна быть достаточно высокой, чтобы это заработало.
Надо надеяться что инженеры достаточно умны, чтобы заложить эти возможности в архитектуру, но пока не афишировать эти перспективы.
Хорошо конечно что сети развиваются, но вот «принципиально другой уровень», «бум»… вряд ли, больше похоже на маркетинговые фразы.
А вот «device-to-device» это действительно вещь, но это может быть интересно с точки зрения обхода оператора вообще (чтобы не платить денег, разумеется:) ) Только что-то мне подсказывает, что прямого программного доступа к этой функции не будет.
Вообще интересно, что же это такое — Великий Аттрактор и другие гравитационные центры? Просто очень большое скопление материи? Гигантская черная дыра? Или что-то еще?
Возможно это чисто психологический момент, но однобайтовые символы (т.е. из той части unicode которая раньше была ascii) воспринимаются как более «фундаментальные» что-ли. Где-то в одной группе с латинскими буквами и цифрами, которые есть везде — на любой клавиатуре, в любом шрифте, в любой локализации, которые прочитаются гарантированно правильно из любого файла.
Соответственно, нужно выбрать из множества unicode 25 наиболее важных символов и забиндить. Можно было бы даже голосование в интернете устроить:)
И еще огромное количество файлов, в том числе и исходных кодов, существует в однобайтовой кодировке, и в этом нет ничего плохого.
Как вторые (третьи для локализованных клавиатур) символы на буквах. И букв по количеству как раз примерно сколько, сколько там неиспользуемых кодов, так что все сходится:)
Ну если корпус может вращаться, то уж совсем логичным было бы при проектировании добавить четвертую «ногу», расположив все «ноги» по вершинам тетраэдра. Тогда было бы без разницы, на какие три «ноги» из четырех он прикометится.
Ну так сложилось, что весь Unicode по факту делится на две части: символы, которые присутстуют на всех клавиатурах мира, и которые присутствуют только на части клавиатур. К первой группе относятся английские буквы, цифры и базовые символы из ASCII. Именно этот набор символов и принято использовать в языках программирования, по понятным причинам — чтобы разработчикам допустим из Европы не пришлось иметь дело с идентификаторами из китайских иероглифов.
То есть Unicode победил только в части внутрикомпьютерного представления информации; на клавиатурах для всего Unicode к сожалению просто нет места, поэтому там по-прежнему господствует ASCII, а Unicode представлен лишь частично и совершенно по-разному в зависимости от страны.
Отсюда и предложение с использованием незадействованных кодов… за счет своего расположения они ассоциированы с частью Unicode, доступной на клавиатурах всего мира (бывший ASCII).
Microsoft и программинг под конкурирующие платформы iOS и Android в Студии? Что-то с ними случилось. Может они через пару лет и Visual Studio for Linux выпустят???
Да я понял ваше предложение. Я и сам так думал когда-то.
В действительности написание программ в виде текста — это очень сильный стереотип, и разрушить его не так-то просто. Фактически, для этого нужно заново продумать самые фундаментальные вещи — так как даже элементарные операции типа copy и paste там будут (и должны) работать немного не так (а иногда и совсем не так). Программистам свойственно активно править код, нарушая при этом корректную структуру кода. Взяли и убрали закрывающую скобку… взяли и поставили открывающий комментарий, сидим и думаем где-бы его закрыть… В любом редакторе AST такое будет невозможно. То есть там в принципе будет невозможно сломать синтаксическое дерево, поэтому сам способ работы с кодом должен быть каким-то другим. А текстовые клавиатуры рассчитаны именно на ввод текста, а не узлов AST.
Грамотно спроектированный язык программирования (т.е. в том числе и с учетом быстрого парсинга для IDE) позволит все это получить и на plain text тоже. Ведь какая разница — plain text, xml, binary xml или что-то подобное — все равно это файл с набором байт. Грамотный plain text будет отличаться от «богатого формата» только тем, что в нем будет использоваться какое-то подмножество символов, а не все множество 0x00..0xFF. А иметь возможность открыть файлик в любом текстовом редакторе это весьма полезно (по крайней мере до тех пор, пока не получил распространение какой-то универсальный двоичный формат для представления произвольных иерархических данных).
В современных языках не хватает в первую очередь скобок — одни только шаблоны на угловых скобках всю красоту ломают. Поэтому такие мысли и возникают — добавить еще пару-тройку скобок, простейшие стрелки и возможно какие-то универсальные математические/типографские символы…
Unicode везде есть, согласен; но я не случайно упомянул набор символов ASCII (который сейчас тоже является частью Unicode) — тут дело в том, чтобы символы были на всех клавиатурах мира; а поскольку ASCII есть везде, то логично включить их именно в ASCII, задействовав неиспользуемые коды. Кроме того, еще немало текстовых файлов создается и хранится именно в ASCII, и ничего плохого в этом нет.
Я уточнил, что не все символы 0x00..0x2f, а только те которые не входят в набор POSIX. То есть все, исключая \0, \a, \b, \t, \n, \v, \f, \r.
По поводу телнета… текстовый файл в формате UTF8 тоже содержит коды 0x00 — 0x2f, и ничего.
Костыли.
Я уже как-то высказывал мысль, что идеальное решение нехватки спецсимволов (которое ощущается кстати во многих современных языках программирования) — это:
1. консорциуму Unicode нужно выбрать из всего множества символов 25 самых востребованных спецсимволов и назначить (продублировать) их на коды с 0x01 по 0x2F (исключая символы POSIX — пробел, табуляции, null, backspace и переносы строк). Т.е. по сути включить в ASCII. Ибо «управляющие коды для печатных устройств» это уже анахронизм.
2. производителям клавиатур нанести эти дополнительные символы на буквенные клавиши как дополнительные символы, которые можно ввести с каким-то сочетанием шифтовых клавиш.
Конечно будет какой-то переходный период, но зато потом — красота:)
Интересные нас ждут времена. Я давно уже задумываюсь над потенциальными возможностями Brain-Computer Interfaces, интересная тема. Пожалуй, развитие таких интерфейсов будет даже более значимо чем появление Интернета…
Прежде всего, следует отделять однонаправленный интерфейс «из мозга в компьютер» и полноценный двунаправленный интерфейс (создание которого гораздо сложнее). Однонаправленный интерфейс — это устройство ввода, по сути еще одна «мышка» (его пределы — это генерация визуальных образов и звуков). Сейчас разрешающая способность такого интерфейса слишком маленткая, но сама по себе возможность рисовать картины «одномоментно» с помощью воображения это уже будет большим прорывом.
Однако по сравнению с полноценным двунаправленным интерфейсом это все покажется детскими игрушками. Двунаправленный BCI вероятно позволит получить полноценную виртуальную реальность с полным погружением; телепатическую связь любого уровня; слияние и разделение сознаний; копирование сознания на цифровой носитель или в цифровую среду; расширение мыслительных способностей человека с помощью электронных расширителей сознания, и т.п. В общем, это обещает стать действительно качественным скачком в будущее.
Правда, могут возникнуть трудности. Не знаю как это правильно сформулировать… мозги людей не стандартизированы. Нет протоколов обмена информацией… практически нет модульности… Это просто клубок нейронов, уникальный у каждого человека. И по сути — не предназначенных для прямого обмена информацией с внешним миром. Каждый нейрон сам по себе ни за что не отвечает… А для нормальной работы BCI требуется все-же какая-то стуктурность и модульность. Пока совершенно неясно что с этим делать.
Еще непонятно можно ли эффективно взаимодействовать с мозгом неинвазивным способом, то есть без имплантации чего-либо в черепную коробку. Понятно, что для примитивного однонаправленного канала достаточно десятка электродов через кожу, но вот всякая телепатия уже скорее всего потребует введения в мозг специальных матриц, способных одновременно считывать и записывать миллиарды состояний… в общем, пока вообще не представляю как это можно сделать.
Просто может пойти так, что эти фишки будут сразу закрытыми где-то в недрах прошивки gsm модуля, а может — станут открытыми и доступными программно через API основных мобильных ОС. Тогда дело за гиками, которые уже и будут думать как этим воспользоваться. А применений масса, начиная от простейшей рации для юзания в лесу и заканчивая огромными, неподконтрольными правительству меш сетями, охватывающими целые города…
В общем, нужная некая большая открытость со стороны gsm сетей, чтобы они переставали быть технологиями, доступными только для сотовых операторов и сближались с «пользовательскими» технологиями.
Надо надеяться что инженеры достаточно умны, чтобы заложить эти возможности в архитектуру, но пока не афишировать эти перспективы.
А вот «device-to-device» это действительно вещь, но это может быть интересно с точки зрения обхода оператора вообще (чтобы не платить денег, разумеется:) ) Только что-то мне подсказывает, что прямого программного доступа к этой функции не будет.
Соответственно, нужно выбрать из множества unicode 25 наиболее важных символов и забиндить. Можно было бы даже голосование в интернете устроить:)
И еще огромное количество файлов, в том числе и исходных кодов, существует в однобайтовой кодировке, и в этом нет ничего плохого.
То есть Unicode победил только в части внутрикомпьютерного представления информации; на клавиатурах для всего Unicode к сожалению просто нет места, поэтому там по-прежнему господствует ASCII, а Unicode представлен лишь частично и совершенно по-разному в зависимости от страны.
Отсюда и предложение с использованием незадействованных кодов… за счет своего расположения они ассоциированы с частью Unicode, доступной на клавиатурах всего мира (бывший ASCII).
В действительности написание программ в виде текста — это очень сильный стереотип, и разрушить его не так-то просто. Фактически, для этого нужно заново продумать самые фундаментальные вещи — так как даже элементарные операции типа copy и paste там будут (и должны) работать немного не так (а иногда и совсем не так). Программистам свойственно активно править код, нарушая при этом корректную структуру кода. Взяли и убрали закрывающую скобку… взяли и поставили открывающий комментарий, сидим и думаем где-бы его закрыть… В любом редакторе AST такое будет невозможно. То есть там в принципе будет невозможно сломать синтаксическое дерево, поэтому сам способ работы с кодом должен быть каким-то другим. А текстовые клавиатуры рассчитаны именно на ввод текста, а не узлов AST.
В современных языках не хватает в первую очередь скобок — одни только шаблоны на угловых скобках всю красоту ломают. Поэтому такие мысли и возникают — добавить еще пару-тройку скобок, простейшие стрелки и возможно какие-то универсальные математические/типографские символы…
По поводу телнета… текстовый файл в формате UTF8 тоже содержит коды 0x00 — 0x2f, и ничего.
Я уже как-то высказывал мысль, что идеальное решение нехватки спецсимволов (которое ощущается кстати во многих современных языках программирования) — это:
1. консорциуму Unicode нужно выбрать из всего множества символов 25 самых востребованных спецсимволов и назначить (продублировать) их на коды с 0x01 по 0x2F (исключая символы POSIX — пробел, табуляции, null, backspace и переносы строк). Т.е. по сути включить в ASCII. Ибо «управляющие коды для печатных устройств» это уже анахронизм.
2. производителям клавиатур нанести эти дополнительные символы на буквенные клавиши как дополнительные символы, которые можно ввести с каким-то сочетанием шифтовых клавиш.
Конечно будет какой-то переходный период, но зато потом — красота:)
Прежде всего, следует отделять однонаправленный интерфейс «из мозга в компьютер» и полноценный двунаправленный интерфейс (создание которого гораздо сложнее). Однонаправленный интерфейс — это устройство ввода, по сути еще одна «мышка» (его пределы — это генерация визуальных образов и звуков). Сейчас разрешающая способность такого интерфейса слишком маленткая, но сама по себе возможность рисовать картины «одномоментно» с помощью воображения это уже будет большим прорывом.
Однако по сравнению с полноценным двунаправленным интерфейсом это все покажется детскими игрушками. Двунаправленный BCI вероятно позволит получить полноценную виртуальную реальность с полным погружением; телепатическую связь любого уровня; слияние и разделение сознаний; копирование сознания на цифровой носитель или в цифровую среду; расширение мыслительных способностей человека с помощью электронных расширителей сознания, и т.п. В общем, это обещает стать действительно качественным скачком в будущее.
Правда, могут возникнуть трудности. Не знаю как это правильно сформулировать… мозги людей не стандартизированы. Нет протоколов обмена информацией… практически нет модульности… Это просто клубок нейронов, уникальный у каждого человека. И по сути — не предназначенных для прямого обмена информацией с внешним миром. Каждый нейрон сам по себе ни за что не отвечает… А для нормальной работы BCI требуется все-же какая-то стуктурность и модульность. Пока совершенно неясно что с этим делать.
Еще непонятно можно ли эффективно взаимодействовать с мозгом неинвазивным способом, то есть без имплантации чего-либо в черепную коробку. Понятно, что для примитивного однонаправленного канала достаточно десятка электродов через кожу, но вот всякая телепатия уже скорее всего потребует введения в мозг специальных матриц, способных одновременно считывать и записывать миллиарды состояний… в общем, пока вообще не представляю как это можно сделать.