Для начала задумываюсь не разметить ли текст по лог. уровням и не прогнать ли на нём что-нибудь из серии энкодер/декодер. Может и сделаю. Обилие минусов и комментов к тому мотивирует.
Тогда оспорьте пожалуйста утверждение, что на основе нейрологических уровней Ч. Дилтса можно сделать прекрасную технику для выявления значимых зависмостей в тексте?
В Мастера НЛП как и в психологи идут люди с надеждой поправить внутренние проблемы. Стрессоустойчивые целеустремлённые люди вообще мало учатся. А вот почему статья набирает минусы… Видимо придётся всё же написать на тему немного кода. Ибо минус это круто, а вот когда я сеточку представлю — можно и заминусовать но против цифры уже не пойдёшь :) лень правда.
Спасибо за вопрос. Я достаточно давно прошёл НЛП-Мастер в МЦ НЛП. Учился в Институте НЛП у М. Пелехатова. Книгу эту прочитал, но не от корки до корки. По части заявленных целей НЛП — ИМХО в том виде в котром это обычно воображают (что вы сможете изменить убеждение вашего руководства по поводу вашей зарплаты) это не работает точно. Как «Терапия» это работает, но существенно уступает другим технологиям, тому же психоанализу. В общем НЛП полезно, но глубинных слоёв оно не затрагивает. А определяют глубинные слои. С поверхностными же слоями работает, легко в освоении, не нужны длительные серии процедур.
Единство противоположностей содержит внутри ресурс. Я лишь попытался извлечь его. Почему нет? Ну, допустим вам не зашло. Ограничим NLP Питоном, запретим кодерам читать Фройда! Это же разные вещи…
Вот кстати по метапрограммам: у вас активна метапрограмма поиска различий. Но метапрограммы обобщения и наложения вы не применяете.
Добавлю что «ограничим изучение NLP областью, где применимы нейросети». Но это хоть заставляет подумать? Или написать очередной код на тему: «как я делал предобработку текста на python»?
В Психологическом НЛП важнейшей частью является работа со структурой языка, и речи вообще. Лингвистикой много где занимаются — и на филфаке, и психологи, и социологи. А теперь ещё философы и оккультисты. Почему бы не сделать сравнение. Если с помощью инвентаря для покоса можно сделать причёску, и это дешевле ножниц, то почему бы не рассмотреть для коммерческого применения?
Спасибо, правки внёс. По поводу обучения на GPU: если запустить на компе где есть GPU то GPU она задействует… Однако это не выжимает из GPU всё ибо в сути RNN нет идеи для параллелизма и будет у вас 1 CPU или 4000 Cuda она всё равно возьмёт только 1. Прирост производительности для GPU есть (что я знаю), но за счёт существенно более быстрой графической памяти. Вот на TPU оно обучается очень быстро! B TPU показывает что скорость оперативы много значимее чем скорость ядер (хотя там же векторные инструкции мощные?). Я слышал что в tensorflow 2.0 что-то придумают и сделают параллелизм для LSTM на GPU. Если знаете что они там сделают, чтобы распараллелить рекурентную сеть, то расскажите! (или дайте ссылку).
Вот кстати по метапрограммам: у вас активна метапрограмма поиска различий. Но метапрограммы обобщения и наложения вы не применяете.