Возможно это чисто психологический момент, но однобайтовые символы (т.е. из той части unicode которая раньше была ascii) воспринимаются как более «фундаментальные» что-ли. Где-то в одной группе с латинскими буквами и цифрами, которые есть везде — на любой клавиатуре, в любом шрифте, в любой локализации, которые прочитаются гарантированно правильно из любого файла.
Соответственно, нужно выбрать из множества unicode 25 наиболее важных символов и забиндить. Можно было бы даже голосование в интернете устроить:)
И еще огромное количество файлов, в том числе и исходных кодов, существует в однобайтовой кодировке, и в этом нет ничего плохого.
Как вторые (третьи для локализованных клавиатур) символы на буквах. И букв по количеству как раз примерно сколько, сколько там неиспользуемых кодов, так что все сходится:)
Ну если корпус может вращаться, то уж совсем логичным было бы при проектировании добавить четвертую «ногу», расположив все «ноги» по вершинам тетраэдра. Тогда было бы без разницы, на какие три «ноги» из четырех он прикометится.
Ну так сложилось, что весь Unicode по факту делится на две части: символы, которые присутстуют на всех клавиатурах мира, и которые присутствуют только на части клавиатур. К первой группе относятся английские буквы, цифры и базовые символы из ASCII. Именно этот набор символов и принято использовать в языках программирования, по понятным причинам — чтобы разработчикам допустим из Европы не пришлось иметь дело с идентификаторами из китайских иероглифов.
То есть Unicode победил только в части внутрикомпьютерного представления информации; на клавиатурах для всего Unicode к сожалению просто нет места, поэтому там по-прежнему господствует ASCII, а Unicode представлен лишь частично и совершенно по-разному в зависимости от страны.
Отсюда и предложение с использованием незадействованных кодов… за счет своего расположения они ассоциированы с частью Unicode, доступной на клавиатурах всего мира (бывший ASCII).
Microsoft и программинг под конкурирующие платформы iOS и Android в Студии? Что-то с ними случилось. Может они через пару лет и Visual Studio for Linux выпустят???
Да я понял ваше предложение. Я и сам так думал когда-то.
В действительности написание программ в виде текста — это очень сильный стереотип, и разрушить его не так-то просто. Фактически, для этого нужно заново продумать самые фундаментальные вещи — так как даже элементарные операции типа copy и paste там будут (и должны) работать немного не так (а иногда и совсем не так). Программистам свойственно активно править код, нарушая при этом корректную структуру кода. Взяли и убрали закрывающую скобку… взяли и поставили открывающий комментарий, сидим и думаем где-бы его закрыть… В любом редакторе AST такое будет невозможно. То есть там в принципе будет невозможно сломать синтаксическое дерево, поэтому сам способ работы с кодом должен быть каким-то другим. А текстовые клавиатуры рассчитаны именно на ввод текста, а не узлов AST.
Грамотно спроектированный язык программирования (т.е. в том числе и с учетом быстрого парсинга для IDE) позволит все это получить и на plain text тоже. Ведь какая разница — plain text, xml, binary xml или что-то подобное — все равно это файл с набором байт. Грамотный plain text будет отличаться от «богатого формата» только тем, что в нем будет использоваться какое-то подмножество символов, а не все множество 0x00..0xFF. А иметь возможность открыть файлик в любом текстовом редакторе это весьма полезно (по крайней мере до тех пор, пока не получил распространение какой-то универсальный двоичный формат для представления произвольных иерархических данных).
В современных языках не хватает в первую очередь скобок — одни только шаблоны на угловых скобках всю красоту ломают. Поэтому такие мысли и возникают — добавить еще пару-тройку скобок, простейшие стрелки и возможно какие-то универсальные математические/типографские символы…
Unicode везде есть, согласен; но я не случайно упомянул набор символов ASCII (который сейчас тоже является частью Unicode) — тут дело в том, чтобы символы были на всех клавиатурах мира; а поскольку ASCII есть везде, то логично включить их именно в ASCII, задействовав неиспользуемые коды. Кроме того, еще немало текстовых файлов создается и хранится именно в ASCII, и ничего плохого в этом нет.
Я уточнил, что не все символы 0x00..0x2f, а только те которые не входят в набор POSIX. То есть все, исключая \0, \a, \b, \t, \n, \v, \f, \r.
По поводу телнета… текстовый файл в формате UTF8 тоже содержит коды 0x00 — 0x2f, и ничего.
Костыли.
Я уже как-то высказывал мысль, что идеальное решение нехватки спецсимволов (которое ощущается кстати во многих современных языках программирования) — это:
1. консорциуму Unicode нужно выбрать из всего множества символов 25 самых востребованных спецсимволов и назначить (продублировать) их на коды с 0x01 по 0x2F (исключая символы POSIX — пробел, табуляции, null, backspace и переносы строк). Т.е. по сути включить в ASCII. Ибо «управляющие коды для печатных устройств» это уже анахронизм.
2. производителям клавиатур нанести эти дополнительные символы на буквенные клавиши как дополнительные символы, которые можно ввести с каким-то сочетанием шифтовых клавиш.
Конечно будет какой-то переходный период, но зато потом — красота:)
Интересные нас ждут времена. Я давно уже задумываюсь над потенциальными возможностями Brain-Computer Interfaces, интересная тема. Пожалуй, развитие таких интерфейсов будет даже более значимо чем появление Интернета…
Прежде всего, следует отделять однонаправленный интерфейс «из мозга в компьютер» и полноценный двунаправленный интерфейс (создание которого гораздо сложнее). Однонаправленный интерфейс — это устройство ввода, по сути еще одна «мышка» (его пределы — это генерация визуальных образов и звуков). Сейчас разрешающая способность такого интерфейса слишком маленткая, но сама по себе возможность рисовать картины «одномоментно» с помощью воображения это уже будет большим прорывом.
Однако по сравнению с полноценным двунаправленным интерфейсом это все покажется детскими игрушками. Двунаправленный BCI вероятно позволит получить полноценную виртуальную реальность с полным погружением; телепатическую связь любого уровня; слияние и разделение сознаний; копирование сознания на цифровой носитель или в цифровую среду; расширение мыслительных способностей человека с помощью электронных расширителей сознания, и т.п. В общем, это обещает стать действительно качественным скачком в будущее.
Правда, могут возникнуть трудности. Не знаю как это правильно сформулировать… мозги людей не стандартизированы. Нет протоколов обмена информацией… практически нет модульности… Это просто клубок нейронов, уникальный у каждого человека. И по сути — не предназначенных для прямого обмена информацией с внешним миром. Каждый нейрон сам по себе ни за что не отвечает… А для нормальной работы BCI требуется все-же какая-то стуктурность и модульность. Пока совершенно неясно что с этим делать.
Еще непонятно можно ли эффективно взаимодействовать с мозгом неинвазивным способом, то есть без имплантации чего-либо в черепную коробку. Понятно, что для примитивного однонаправленного канала достаточно десятка электродов через кожу, но вот всякая телепатия уже скорее всего потребует введения в мозг специальных матриц, способных одновременно считывать и записывать миллиарды состояний… в общем, пока вообще не представляю как это можно сделать.
И какая будет технология обратной связи. Через спутник или через местный канал.
Вообще интересно, распространятся ли спутниковые технологии передачи информации (кроме GPS) на мобильные устройства? Например тот же спутниковый интернет и спутниковое цифровое телевидение… или там размер антенны такой что в смартфоне никак не разместить?
А подсветка светодиодная у краев экрана или сам экран как в Kindle Paperwhite?
wi-fi может находиться в выключенном состоянии по умолчанию. Как средство закачки книг я его никогда не рассматривал… это именно некая резервная возможность выйти в интернет на всякий случай.
По поводу сенсорного экрана согласен, и для рецензирования тоже полезно, и для заметок.
А иногда в обзорах пишут что наоборот текст размытый становится из-за такого экрана (по крайней мере если читать без подсветки)… впрочем я лично не видел. Но интересно было бы сравнить.
Основной канал — в смартфоне, планшете и/или ноутбуке (т.е. в более мощном устройстве с быстрым цветным экраном). А в ридере именно на крайний случай. Закачать книги — это-ж надо торрент-клиент на ридер ставить:)))))) Да и вообще я предпочитаю простоту доступа: если устройство имеет внутреннюю память и не доступно с компьютера как флэшка — оно идет лесом.
Большинство книг и документации по компьютерной тематике — это pdf и djvu; для совмещения комфортного чтения (текст нормального размера) и адекватных размеров книги (чтобы можно было брать с собой в дорогу) достаточно 8 дюймов и чтения в альбомном режиме, чтобы на экране помещалась половина стандартной книжной страницы в естественном масштабе. Чтение с альбомной ориентацией экрана — ключевой момент, позволяющий уменьшить размеры книги при сохранении естественного масштаба текста.
Формат A4 — это уже перебор, книг в таком формате мало, а размеры устройства будут такие что о портативности можно будет забыть.
Сенсорный экран — удобно для встроенных словарей; нажал на слово и получил перевод во всплывающей подсказке.
Wi-fi — как резервный канал подключения к интернету. На случай если батарейки во всех остальных устройствах разрядятся, а подключиться будет позарез надо… в основном wi-fi на ридере должен быть отключен.
Все остальное ИМХО лишнее.
Еще в голосовании лидирует подсветка — да пожалуй соглашусь, но качественную подсветку на e-ink не сделать. Светодиоды по бокам экрана это будет ужасно, нужна технология светящегося экрана, а для e-ink такой возможности нет.
Интернет это еще и глобальная сетевая инфраструктура. Гики при желании могут создать какой-нибудь Гикнет — закрытую сеть для избранных, без копирайта, цензуры и тупостей (да и сейчас кое-что есть уже). Пускай овощи оплачивают инфраструктуру и смотрят свой зомбоящик, а гики будут этим пользоваться.
Соответственно, нужно выбрать из множества unicode 25 наиболее важных символов и забиндить. Можно было бы даже голосование в интернете устроить:)
И еще огромное количество файлов, в том числе и исходных кодов, существует в однобайтовой кодировке, и в этом нет ничего плохого.
То есть Unicode победил только в части внутрикомпьютерного представления информации; на клавиатурах для всего Unicode к сожалению просто нет места, поэтому там по-прежнему господствует ASCII, а Unicode представлен лишь частично и совершенно по-разному в зависимости от страны.
Отсюда и предложение с использованием незадействованных кодов… за счет своего расположения они ассоциированы с частью Unicode, доступной на клавиатурах всего мира (бывший ASCII).
В действительности написание программ в виде текста — это очень сильный стереотип, и разрушить его не так-то просто. Фактически, для этого нужно заново продумать самые фундаментальные вещи — так как даже элементарные операции типа copy и paste там будут (и должны) работать немного не так (а иногда и совсем не так). Программистам свойственно активно править код, нарушая при этом корректную структуру кода. Взяли и убрали закрывающую скобку… взяли и поставили открывающий комментарий, сидим и думаем где-бы его закрыть… В любом редакторе AST такое будет невозможно. То есть там в принципе будет невозможно сломать синтаксическое дерево, поэтому сам способ работы с кодом должен быть каким-то другим. А текстовые клавиатуры рассчитаны именно на ввод текста, а не узлов AST.
В современных языках не хватает в первую очередь скобок — одни только шаблоны на угловых скобках всю красоту ломают. Поэтому такие мысли и возникают — добавить еще пару-тройку скобок, простейшие стрелки и возможно какие-то универсальные математические/типографские символы…
По поводу телнета… текстовый файл в формате UTF8 тоже содержит коды 0x00 — 0x2f, и ничего.
Я уже как-то высказывал мысль, что идеальное решение нехватки спецсимволов (которое ощущается кстати во многих современных языках программирования) — это:
1. консорциуму Unicode нужно выбрать из всего множества символов 25 самых востребованных спецсимволов и назначить (продублировать) их на коды с 0x01 по 0x2F (исключая символы POSIX — пробел, табуляции, null, backspace и переносы строк). Т.е. по сути включить в ASCII. Ибо «управляющие коды для печатных устройств» это уже анахронизм.
2. производителям клавиатур нанести эти дополнительные символы на буквенные клавиши как дополнительные символы, которые можно ввести с каким-то сочетанием шифтовых клавиш.
Конечно будет какой-то переходный период, но зато потом — красота:)
Прежде всего, следует отделять однонаправленный интерфейс «из мозга в компьютер» и полноценный двунаправленный интерфейс (создание которого гораздо сложнее). Однонаправленный интерфейс — это устройство ввода, по сути еще одна «мышка» (его пределы — это генерация визуальных образов и звуков). Сейчас разрешающая способность такого интерфейса слишком маленткая, но сама по себе возможность рисовать картины «одномоментно» с помощью воображения это уже будет большим прорывом.
Однако по сравнению с полноценным двунаправленным интерфейсом это все покажется детскими игрушками. Двунаправленный BCI вероятно позволит получить полноценную виртуальную реальность с полным погружением; телепатическую связь любого уровня; слияние и разделение сознаний; копирование сознания на цифровой носитель или в цифровую среду; расширение мыслительных способностей человека с помощью электронных расширителей сознания, и т.п. В общем, это обещает стать действительно качественным скачком в будущее.
Правда, могут возникнуть трудности. Не знаю как это правильно сформулировать… мозги людей не стандартизированы. Нет протоколов обмена информацией… практически нет модульности… Это просто клубок нейронов, уникальный у каждого человека. И по сути — не предназначенных для прямого обмена информацией с внешним миром. Каждый нейрон сам по себе ни за что не отвечает… А для нормальной работы BCI требуется все-же какая-то стуктурность и модульность. Пока совершенно неясно что с этим делать.
Еще непонятно можно ли эффективно взаимодействовать с мозгом неинвазивным способом, то есть без имплантации чего-либо в черепную коробку. Понятно, что для примитивного однонаправленного канала достаточно десятка электродов через кожу, но вот всякая телепатия уже скорее всего потребует введения в мозг специальных матриц, способных одновременно считывать и записывать миллиарды состояний… в общем, пока вообще не представляю как это можно сделать.
Вообще интересно, распространятся ли спутниковые технологии передачи информации (кроме GPS) на мобильные устройства? Например тот же спутниковый интернет и спутниковое цифровое телевидение… или там размер антенны такой что в смартфоне никак не разместить?
wi-fi может находиться в выключенном состоянии по умолчанию. Как средство закачки книг я его никогда не рассматривал… это именно некая резервная возможность выйти в интернет на всякий случай.
По поводу сенсорного экрана согласен, и для рецензирования тоже полезно, и для заметок.
Формат A4 — это уже перебор, книг в таком формате мало, а размеры устройства будут такие что о портативности можно будет забыть.
Сенсорный экран — удобно для встроенных словарей; нажал на слово и получил перевод во всплывающей подсказке.
Wi-fi — как резервный канал подключения к интернету. На случай если батарейки во всех остальных устройствах разрядятся, а подключиться будет позарез надо… в основном wi-fi на ридере должен быть отключен.
Все остальное ИМХО лишнее.
Еще в голосовании лидирует подсветка — да пожалуй соглашусь, но качественную подсветку на e-ink не сделать. Светодиоды по бокам экрана это будет ужасно, нужна технология светящегося экрана, а для e-ink такой возможности нет.