На фронте русских кодировок CP1251 одерживает безоговорочную победу над KOI8-R, а с запада движутся войска союзников (UTF8), но до наступательного порыва CP1251 им пока далеко (хотя лично я на UTF8 уже вовсю перехожу где есть такая возможность).
А вы не видели на хабре порезанных комментариев с ругательствами в адрес Хабра, который не принимает то λ, то ℏ а то и Å. На всех ресурсах, на которых разрешено пользователям что-то вводить Unicode небесполезен, а много ли сейчас других?
Шутники блин. Писать на информационном ресурсе неверную информацию, надеясь что все смогут различить в ней тонкий юмор - это странно и наивно. Я Некуфа не минусовал, на кой ляд меня-то минусуют и в карму срут? Или кто-то считает что русского в UTF-8 нету?
Почему самое противное, если не секрет? В программировании не так уж и сложно перелетать, к примеру, из ASCII в ANSI. Самому процедуру просто сделать, да к тому же есть готовые в библиотеках. С автоопределением кодировок у броузеров тоже проблемы в начале века кончились.
Например, если у Вас используется на одной странице два языка, ни один из которых не английский. Попробуйте без уникода сочинить страничку, где приводятся примеры перевода, скажем, чешских текстов на русский язык. Если даже это можно (в чём сомневаюсь), три языка без уникода уж точно не потянуть.
имхо глобализация в том, что при использовании уникода в рамках одного хтмл-документа/одной страницы/одной базы данных возможна публикация на разных языках. таким образом, создание, например, корпоративного сайта с многими языковыми версиями предельно упрощается.
Что значить "остались за бортом" ? Там есть и клинопись есть и не одна, а вот о каком узелковом письме речь идёт и кто его применял - я не знаю даже...
если страница на англ, то тяжелее не станет.
А вообще это в браузерах с автоопределением все ок, а вот в той же Thunderbird я до сих пор ловлю письма в koi-8r с subject ????.??.??
Вызывающе неверная информация. Страница наполовину состоит из ascii-символов стандартной части, которые в UTF8 (о чем и сабж) кодируются ровно одним байтом. Да и мнемоники html весят больше, чем юникодный символ, который они заменяют.
Use gzip-compression Luke. Компрессия вывода — вообще хороший тон, а UTF-8 она сжимает очень хорошо, поскольку старшие байты символов почти одинаковые.
Рошал отошел от дел 8 лет назад. Всё это время FAR Team справлялся с разработкой кое-как, бету довели до релиза, сколько багфиксов было сделано. Боюсь только, что опенсорсом его сделали потому, что больше никто не хочет им заниматься... =\
А насколько она рабочая? Я не девелопер, и дописать вряд ли что-то смогу. Если нужно просто скомпилить и получаешь такой же 1.70, только с поддержкой юникода, то это круто.
Делал сайт с анлийским, русским, французским, испанским, арабским, фарси, вьетнамским, турецким, японским, немецким, хорватским и португальским вариантами перевода. Еще и китайский в базе недопереведенный лежал. Без utf8 я бы повесился все это в БД хранить и в браузер выдавать, учитывая что два языка вообще с письмом справа налево.
Как замечательно что utf все больше распространяется!
Unicode наконец-то обогнал ASCII