Ну если она такая же или хуже, то зачем её писать?.. Пользоваться поисковиками большинство присутствующей здесь публики умеет. Если кто не знал о таком языке как awk и при этом пользовался unix-подобными ОС, то это печально, а те кто с этой тематикой не связан, то и оно им вряд ли надо.
Подытожу мысль: информативностью не отличается, для ознакомления не катит.
Синтаксис бывает не упомнишь, поэтому обычно perl -i или perl -pi делают тоже самое.
Ещё я бы заметил, что актуальность awk / perl вот так вот «структурированные тексты» парсить уже отпадает в 21ом веке, ибо хранят обычно в каких то базах. Хотя это очень актуально тем, кто занимается построением лингвистических моделей для поисковика или ещё чего-то. А вот пустить вывод через пайп и через awk / perl это просто рабочий инструмент, если вы работаете в среде UNIX Linux.
Сам частенько пользуюсь perl -pi дабы не забивать себе голову, но справедливости ради стоит отметить, что awk значительно шустрее, как минимум на простых задачках.
Кстати, под понятие структурированного текста прекрасно попадают логи.
Крайне удобно, один exe, набор батников и понеслась обработка больших текстовых массивов.
Обработка каталогов, построение статистики, совместно с AT и CMD писать костыли одно удовольствие…
А совместно с wget можно парсить сайты у которых нет API.
На самом деле AWK что в Win что в Linux незаменимый анализатор log файлов, которые порой имеют гигантские объемы и не грузятся в DB.
Хороший инструмент, только слегка устарел :(
Есть масса разновидностей: awk, gawk, nawk с чуть отличающимся функционалом.
Какие-то простые вещи удобо им делать, но более сложные очень тяжело — приходится использовать perl, который как раз для этого и сделан — Practical Extraction and Report Language.
Иногда проще и удобнее сделать на python за счет большого количества уже готовых либ.
Си-подобный текстовый процессор AWK