Pull to refresh
2
0.2
Send message

echo "git --log --oneline --graph --all #@brief Красивый лог" >> ~/.local/info/git

Самый минимализм

Запускаем

info --directory ~/.local/info/git git

1) делаем длинную историю

2) при выполнении редких команд в конец добавляем комментарий, например

git --log --oneline --graph --all #@brief Красивый лог

3) делаем grep по history

аватар пользователя gluber семь часов назад ниже я джун и я так и не понял, почему в примере указание alt открывающая двойная кавычка аватар пользователя закрывающая двойная кавычка это хуже, чем без указания. Особенно в условиях читалки для слепых.

Если нужна статика, так и пользуйтесь генератором статичных сайтов. Hugo например.

На фик ноутбук, надо либо планшет либо нетбук.

Если смотреть в будующие, то очки и раскладная клавиатура к смартфону. Но тут проблемы с ПО будут.

Упор должен быть на минимальный вес и автономную работу. Что бы беспроблем взять на учёбу. Отсутствие возможности запускать игры это скорее плюс.

Вся наука, философия, физика, и прочие дисциплины как раз и пытаются найти истину,

У Вас ошибка начинается с этого предложения. Истина и наука это разное. И философия это мать науки, но не как не наука.

ТБВ не понимаете. Полностью. Начиная с того что взрыва в ТБВ нет

Есть такой анегдот: Мне вчера Рабинович напел Шопена. Фигня этот Ваш Шопен. Вот у Вас так же.

Вы бы сначала ознакомились с Теорией большого взрыва. Вы просите ответы на ваши аргументы, но проблема заключается в том что для этого Вам надо расказать что такое ТБВ. А зачем это делать если это изложенно и разжованно сотни раз.

Вы имеете ввиду атрибуты тега? Так не зависит. Атрибуты у всех тегов одинаково записываются. Там проблема не забыть что кавычки разные и экранированный символ. Если вы имеете ввиду другие теги которые меняют логику работы парсера. То тут пример с тегом скрипт был бы идеальным, если бы работал. Из тегов меняющих логику парсера остаётся только style. Сейчас проверю, но думаю и тут не сработает.

Проверил. Не сработало.

Дело в том что парсер html я как раз делал. И делал я его лет 15 назад. Но так как читать стандарт мне было лень, а парсер я делал довольно ограниченный. Я ограничился проверкой на довольно маленькой выборки. И с лексическим анализом я проблем не встретил. В синтаксическом там да проблемы были.

Но Вы утверждаете что с лексическим анализом на регулярках будут проблемы. Вот мне и интересно в чём там может быть проблема. Но всё Ваши утверждения сводятся к: "Я так считаю". Пример ограниченности возможности использовании конечного автомата как раз любят показывать на синтаксисе html. Но если бы были проблемы с лексическим анализом, почему не показать на нем. Это же было бы нагляднее и проще.

Если бы я не увидел в браузере эту картинку я бы с вами согласился.

Так приведи пример. Если бы предыдущий пример работал, я бы с Вами согласился, покрайне мере в озвученной выше причине. Но он не работает.

Тут нужно смотреть, что вы парсили и что вы имели в виду под тем что делали это регулярными выражениями. Парсинг можно разбить на два этапа лексический и синтаксический анализ. Лексический анализ можно сделать регулярными выражениями(по крайней мере я не знаю обратного примера), говоря про не возможность парсинга html регулярными выражениями имеют ввиду синтаксический анализ. Например возьмем такой код:

<div> <div> text <\div> <\div>

С помощью регулярных выражений мы можем превратить его в например такую строку:

open_tag: div,
open_tag: div,
text: "text",
close_tag: div,
close_tag: div,

После чего эту строку мы уже превращаем в дерево, для этого нам нужно помнить уже обработанные теги.

div -> div(text)

Если мы попробуем сразу обработать регуляркой, то столкнемся с проблемой невозможности опредилить к какому div относится \div.

А нет, не рабочая. можно сделать, условно <script>*</script>
Извините что спамлю комментариями.

Впрочем Ваш пример действительно рабочий, там косяк будет после первого комментария.

В браузере оба, но не в этом суть. Суть в том что пример не работает. То есть ваш пример можно обработать обычным конечным автоматом точно также как это сделает браузер. Но идея с комметарием в скрипте рабочая.
Спасибо

Если я Вас правильно понял, Вы имели ввиду что токены должны быть:

html, body, script, text(который будет содержать примерно такой текст: "alert(1)// <script>alert(2) // </script>alert(3)"), /script, /body, /html

В то время как лексический анализатор выдаст:

html, body, script, text("alert(1)//<script>alert(2) //"),/script, text("alert(3)") /script, /body, /html

Пример классный. Но у меня он на практике не сработал. Браузер выдает второй вариант.

Это всё очень интересно и дискусионно. Но меня больше интересует практический вопрос. Что мешает разбить html на лексемы? Пример можно? Я не могу придумать примера в который утнется конечный автомат при лексическом разборе. При синтаксическом он очевиден. Вы этот пример, по Вашим словам, знаете.

Так тут они тоже по своему правы, Ubuntu в качестве сервера помогает экономить на клаливикации специалистов. В ней труднее накосячить.(Но и поставить систему в нужную позу, тоже труднее). При условии что современные сервера движутся в сторону хост систем для докера, скоро дойдем до прошивки серверов.

1
23 ...

Information

Rating
2,642-nd
Registered
Activity