Комментарии 9
Минимальная единица представления информации – байт.
Ась?! вроде как минимальная единица это бит.
Байт вообще то — слово. Причем размер слова вообще-то очень сильно разный был на заре развития вычислительной техники. Там и 4 и 12 и 32 бита на слова были и еще куча более экзотических вариантов (это если еще не касаться троичной системы счисления).
8 бит были выбраны преимущественно потому, что там с запасом было на кодирование латиницы, символов, цифр и других спец кодов.
+3
Минимальная единица — бит, минимальная единица представления — байт. Один бит никуда не запишешь и даже в переменную не запихаешь.
-2
Минимально адресуемая единица в компьютерной технике это все таки это byte (кусочек).
word — два байта (слово)
dword — четыре байта (двойное слово)
qword — восемь байт (четверное слово)
и т.д.
Насколько я понял это пошло от 16-битных машин где шина была, как правило, 16-бит.
word — два байта (слово)
dword — четыре байта (двойное слово)
qword — восемь байт (четверное слово)
и т.д.
Насколько я понял это пошло от 16-битных машин где шина была, как правило, 16-бит.
+1
Само понятие машинного слова — было очень размытым на заре вычислительной техники.
Байт — это всего-лишь один из варинтов этого самого машинного слова. Слово из двух байт — это уже гораздо более поздняя интерпретация для 16-битных машин (т.е. где и машинное слово было 16 бит).
Но вы говорите про минимально адресуемую единицу информации, а автор статьи про минимальную единицу представления информации.
Байт — это всего-лишь один из варинтов этого самого машинного слова. Слово из двух байт — это уже гораздо более поздняя интерпретация для 16-битных машин (т.е. где и машинное слово было 16 бит).
Но вы говорите про минимально адресуемую единицу информации, а автор статьи про минимальную единицу представления информации.
+4
(старший бит справа).
Первый раз такое вижу. При этом парой строчек ниже биты идут в обратном порядке.
0
В 1963 году ASCII был 7 бит.
0
Кодирование символов таблицы Юникод, расположенных в ячейках, номера которых начинаются от 1048575 возможно только с использованием кодировки UTF-16.
Это в UTF-16 ограниченное кол-во символов: она позволяет кодировать не более 1112064 символов (2048 кодов из общего диапазона 1114112 используются для кодирования суррогатных пар). А способ кодирования, используемый в UTF-8, даже в урезанном 4 байтном варианте позволяет записать 2²¹ = 2097152 кода. Стандарт Unicode искусственно ограничивает и максимально возможное количество символов (1112064), и максимальный диапазон их кодов (1114112) — именно для того, чтобы вписаться в ограничения UTF-16.
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
UTF-8 vs UTF-16. Несколько советов программистам