Соглашусь. Вроде только настроился на чтение, объяснение теории, откуда берется лимит Шеннона, какие следствия модели Шеннона и тому подобное — и все, закончилось.
Последний абзац, честно говоря, убивает. Складывается впечатление, что всего есть два типа кодирования: Хэмминга и Рида-Соломона.
Может стоить начать повествование с классификации кодирования, чтобы разложить все по полочкам?
2^k — 1 для k=1 получается 1, а в примере из статьи для исправления одной ошибки берётся расстояние в 3 бита. Можете добавить пример, иллюстрирующий эту формулу, пожалуйста?
Модель связи Шеннона (перевод Great Principles of Computing)