Комментарии 17
Теперь я знаю каким будет их новый альбом.
Я предполагаю, что судя по всему, используется схожий подход при написании сценариев сериалов, которые показывает НТВ.
Собираюсь по приходу за компьютер прислать некоторые пропущенные запятые, уже пугаюсь их количества. Страшно представить, сколько придётся править следующую статью. Можно ли попросить расставлять хотя бы запятые перед "что" и дефисы перед "то", "либо" и "нибудь"? У меня сложилось впечатление, что здесь стебут бессмысленные тексты, но я сомневаюсь по причине отсутствия почти всех запятых.
Добавьте пожалуйста еще примеров, а то одна строчка это даже не весело.
Тоже недавно таким баловался — https://habr.com/ru/post/478790/ пробовал на вредных советах: частенько получались фразы без изменений, но если намешать еще каких стихов, например Маяковского, да желательно с крепким словцом, то выходило очень весело, хоть и чертовски вульгарно
Потрясно вышло! Вы их допиливали, или оно само так хорошо использует отступы и пунктуацию?
P.S. А это будет эпиграфом к моему диплому
Hицше вбирает главные счеты,
Презирая рассмотреть отличие, где наг и мат.
Короче, либо берёт, либо услышишь пи-эр-квадрат.
Оба загорают себя. До икоты.
Нет, сама по себе библиотека дает прекрасный результат.
Вы вообще на него смотрели? Сгенерированной фраза
«Но на тебе я ставлю точку, это точно, Вот мое тебе «пока». Я говорю тебе в ответ: Что еще тут непонятно?»
покрывается (с переходом на слове «тебе»)
«Но на тебе я ставлю точку, это точно, Вот мое тебе «пока». Я говорю тебе»
и
«тебе в ответ: Что еще тут непонятно?»
которые присутствует в обучающем тексте.
Результат очень слабый. Если хотите использовать марковские цепи для генерации текста, то хотя бы разберитесь в том, как работают нграмные языковые модели, но вообще вроде как не секрет, что нейронные сети сейчас вне конкуренции на подобных задачах
Смысл статьи не в том чтобы сгенерировать текст максимально реалистично, а атом чтобы показать что генерацию текста можно написать в 20-30 строк. Ну а повторение слов легко объяснимо, в графу полно петель, ТК корпус очень маленький. Если генерировать на тексте 1000строк+ то такого не будет, ну по крайней мере не так заметно будет. Ну и очевидно что нейронная сеть решит это куда лучше, но опять же это не короткий пример, который можно затестировать во время перерыва, и показать коллегам типа: о, смари каких штук нагенерил. В любом случае, спасибо за критику. Конструктивно.
Генерируем тексты песен цепями Маркова