Мышление человека в основном императивно, и большинство рельных задач по сути своей императивны и имеют состояния (работа с БД, железом, сетью, файловой системой и т.д.). Поэтому чистое ФП это ИМХО скорее что-то для математиков. А вот применение элементов функционального программирования в императивных языках — это очень хорошая штука, и это прекрасно что ФП все больше проникает в классические языки.
Отличная новость! это же сколько тайн и загадок Вселенной мы сможем увидеть… А если сделать не три зонда, а больше, и связать их в матрицу, возможно удастся повысить точность еще?
Лучше бы консорциуму Unicode просто открыть форум или дискуссионную группу, чтобы пользователи могли просто предлагать свои символы. А бюрократией пускай занимаются сами члены консорциума.
Могу ошибаться, но вроде в Юникоде еще нет символов дорожных знаков. Общеупребительные, не под копирайтом и даже сами по себе стандартизированные.
В ASCII добавятся символы, которые использовались когда-то в древние времена для управления телетайпами. Например
SOH, 01 — start of heading, начало «заголовка».
STX, 02 — start of text, начало «текста». Символ использовался как команда для включения печатающего устройства телетайпа. Текст для печати располагался между символами STX и ETX.
. Из этого управляющего набора в POSIX входят только общеупотребительные управляющие символы — нуль, табуляция, переносы строк и т.д. — их всего 8 штук. Остальные вполне можно задействовать без какого-бы то ни было нарушения совместимости.
Ну также это значит что нужно внести изменения и в ASCII тоже.
В общем идея состоит в том чтобы официально разделить Unicode на три подмножества:
— общемировые символы (ASCII, доступны на всех клавиатурах мира, 1 байт в utf8),
— национальные (доступны на локализованных клавиатурах, 2 байта в utf8, реально употребляются большим количеством людей, здесь же распространенные математические, технические и т.п. символы)
— специальные (недоступны на обычных клавиатурах, 3 и более байта в utf8 — всякие вымершие языки, эмодзи и т.п.)
Единые кодировки — utf8 (символ переменной длины) и utf32 (символ фиксированной длины); вместо utf16 использовать понятия «кодировки подмножеств» — ascii для общемировых символов и usc2 для национальных символов.
Юникод превращается в черт знает что. По хорошему взять бы и все с нуля переделать, включая идеологию.
Кстати, у них есть какой нибудь форум где можно предложить свои идеи?
Я бы хотел чтобы они задействовали неиспользуемые в POSIX 20 кодов в диапазоне 0..31 для отображения на них наиболее востребованных символов Юникода, не входящих в ASCII. Например простых стрелок, дополнительных скобок и т.п. Это было бы полезно потому, что ASCII так или иначе наносится на все клавиатуры мира и доступно для ввода повсеместно, без привязки к национальным алфавитам и т.п.
А я восхищаюсь таким упорством и целеустремленностью. Хочет создать игру и делает ее. Давно мог бы забросить и стать таким же как все, одним из миллиардов потребителей, которые сами ничего не делают, а только пользуются готовым, да еще и нередко выражают недовольство…
Что-то в видеоролике никакой разницы между тем что слева и справа не заметил.
А вообще интересно пощупать эту технологию для такой цели, как восстановление текста электронных книг в djvu, страницы которых не отсканированы, а сфотографированы «с руки» в ужасном качестве.
Да, я тоже этого никогда не понимал. Места им на сервере что-ли жалко?
Я бы вообще предпочел полную матрицу всех возможных сочетаний сборок Qt: для всех ОС, всеми доступными на каждой ОС компиляторами, для всех доступных разрядностей. Например, для винды кроме msvc и mingw, доступен еще clang, пора бы и для него выкладывать сборки.
Если у ЧД есть кроме массы еще и заряд, то это как-то проявляется вне дыры? Т.е. можно ли измерениями отличить две ЧД с одинаковой массой но разными зарядами? Или заряд у нее только «теоретически», а снаружи его все равно никак не видно?
А ушел ли вообще? Мне кажется что просто меньше стал интересоваться IT. Эта сфера превращается из чего-то инновационного и элитного во что-то заурядное.
Жду когда кому-нибудь придет в голову мысль сделать из Watson специалиста по искусственному интеллекту… и затем прикрутить обратную связь, позволить ему модифицировать свой код.
Да. Эпоха заканчивается… что бы там ни было с этими аккаунтами, а конец эпохи ощущается.
Какие были раньше на хабре обсуждения! Какие срачи! Почти по каждой статье.
А сейчас я открываю хабр и уже заранее знаю — скорее всего, ничего не произошло. Несколько коммерческих статей вообще без единого комментария, и хорошо если несколько технических — с парой-тройкой комментариев. Почему так?
Ну так психоделика получалась при многократной обработке изображения. С видео это тоже можно провернуть — кроме вычислительных мощностей никаких препятствий нет.
Могу ошибаться, но вроде в Юникоде еще нет символов дорожных знаков. Общеупребительные, не под копирайтом и даже сами по себе стандартизированные.
. Из этого управляющего набора в POSIX входят только общеупотребительные управляющие символы — нуль, табуляция, переносы строк и т.д. — их всего 8 штук. Остальные вполне можно задействовать без какого-бы то ни было нарушения совместимости.
В общем идея состоит в том чтобы официально разделить Unicode на три подмножества:
— общемировые символы (ASCII, доступны на всех клавиатурах мира, 1 байт в utf8),
— национальные (доступны на локализованных клавиатурах, 2 байта в utf8, реально употребляются большим количеством людей, здесь же распространенные математические, технические и т.п. символы)
— специальные (недоступны на обычных клавиатурах, 3 и более байта в utf8 — всякие вымершие языки, эмодзи и т.п.)
Единые кодировки — utf8 (символ переменной длины) и utf32 (символ фиксированной длины); вместо utf16 использовать понятия «кодировки подмножеств» — ascii для общемировых символов и usc2 для национальных символов.
Кстати, у них есть какой нибудь форум где можно предложить свои идеи?
Я бы хотел чтобы они задействовали неиспользуемые в POSIX 20 кодов в диапазоне 0..31 для отображения на них наиболее востребованных символов Юникода, не входящих в ASCII. Например простых стрелок, дополнительных скобок и т.п. Это было бы полезно потому, что ASCII так или иначе наносится на все клавиатуры мира и доступно для ввода повсеместно, без привязки к национальным алфавитам и т.п.
А вообще интересно пощупать эту технологию для такой цели, как восстановление текста электронных книг в djvu, страницы которых не отсканированы, а сфотографированы «с руки» в ужасном качестве.
Я бы вообще предпочел полную матрицу всех возможных сочетаний сборок Qt: для всех ОС, всеми доступными на каждой ОС компиляторами, для всех доступных разрядностей. Например, для винды кроме msvc и mingw, доступен еще clang, пора бы и для него выкладывать сборки.
Какие были раньше на хабре обсуждения! Какие срачи! Почти по каждой статье.
А сейчас я открываю хабр и уже заранее знаю — скорее всего, ничего не произошло. Несколько коммерческих статей вообще без единого комментария, и хорошо если несколько технических — с парой-тройкой комментариев. Почему так?