в теории можно расковырять, я думаю, те данные которые винчестер может получать по материнке, не уверен, что что-либо кроме данных южного моста.
в общем спеки нужно глядеть для того чтобы суметь подменить их.
ну и, конечно, СЦ Toshiba просто обязаны предоставлять услугу снятия этой защиты.
ну вы смешали в кучу лексер и синтаксический анализатор, насколько я понял к вам претензия в том, что вы используете регулярки при синтаксическом анализе, а вы упираете на то, что они удобны для лексического.
Как бы оба этих утверждения правда — для лексического анализа проще не применять БНФ, а юзать regexp'ы или вовсе без сложных структур обойтись, а работать посимвольно, но и выполнять синтаксический анализ через регекспы — извращение, и лучше использовать КС-грамматики + анализатор.
смогу. даже не очень трудно.
претензии к тому что выглядит не очень не принимаются, ибо:
1. Сами придумали корявые идентификаторы.
2. В коде это будет довольно просто и компактно из-за использования таблиц парсинга.
3. Грамматика раздута для наглядности, нетерминалы ten, five_less, eleven_less, six_less не нужны.
4. Работать будет скорее всего быстрее чем regexp.
Но я не понимаю зачем вам нужно задавать БНФ для лексем, когда чаще всего достаточно простого анализа входного потока, без заморочек?
а какой из существующих языков имеет такие лексемы?
PS: в статье я описывал хоть простенький лексер, но который может быть легко расширен и до плюсового/java'вского, причём без всяких регулярок. Зачем стрелять из пушки по воробьям?
как ни странно, очевидный говнокод я никогда не писал, всегда было чувство стиля и времени на рефакторинг.
да, конечно есть неоптимальные решения, не особо красивые, хаки, но всегда это было в меру — не более какого-то небольшого процента от кода.
есть за которые стыдно, но на большинство — нейтрально.
так что чекбоксы мне пригодились :)
не хотят вас разочаровывать в том что ваш алгоритм односторонний :)
PS: а насчет образования — «вуз» последние десятилетия моден, и идут туда абсолютно все, даже кому совсем не уперлось это высшее образование, то что есть пара процентов шарящих, это еще хорошо :)
ээ, так обезьянку звать и она пишет статьи?
в общем спеки нужно глядеть для того чтобы суметь подменить их.
ну и, конечно, СЦ Toshiba просто обязаны предоставлять услугу снятия этой защиты.
поток HT — это логический процессор
ядро — логической процессор
значит поток HT — ядро
PS: ирония, конечно :)
Как бы оба этих утверждения правда — для лексического анализа проще не применять БНФ, а юзать regexp'ы или вовсе без сложных структур обойтись, а работать посимвольно, но и выполнять синтаксический анализ через регекспы — извращение, и лучше использовать КС-грамматики + анализатор.
претензии к тому что выглядит не очень не принимаются, ибо:
1. Сами придумали корявые идентификаторы.
2. В коде это будет довольно просто и компактно из-за использования таблиц парсинга.
3. Грамматика раздута для наглядности, нетерминалы ten, five_less, eleven_less, six_less не нужны.
4. Работать будет скорее всего быстрее чем regexp.
Но я не понимаю зачем вам нужно задавать БНФ для лексем, когда чаще всего достаточно простого анализа входного потока, без заморочек?
PS: в статье я описывал хоть простенький лексер, но который может быть легко расширен и до плюсового/java'вского, причём без всяких регулярок. Зачем стрелять из пушки по воробьям?
да, конечно есть неоптимальные решения, не особо красивые, хаки, но всегда это было в меру — не более какого-то небольшого процента от кода.
есть за которые стыдно, но на большинство — нейтрально.
так что чекбоксы мне пригодились :)
PS: а насчет образования — «вуз» последние десятилетия моден, и идут туда абсолютно все, даже кому совсем не уперлось это высшее образование, то что есть пара процентов шарящих, это еще хорошо :)