Pull to refresh

Comments 8

Если ошибаюсь — поправьте

Извините, а что поправлять? Приведено абстрактное описание общей идеи модели, причем описание настолько обобщенное, что, возможно, этой идее будет соответствовать очень много очень различных моделей — указания на противоположное я в тексте не нашел. По ходу описания делаются некоторые утверждения, однако сколь-нибудь строгие обоснования этим утверждениям (или ссылки на обоснования) отсутствуют. В связи с этим возникает вопрос: насколько предлагаемые модели могут быть адекватны прототипу, т.е. естественному языку? Бремя доказательства, как известно, лежит на доказующем.

Что еще мне показалось странным:
В то же время другие статистические методы, например, кластеризация, позволяют получить чёткие результаты.

Однако в Википедии читаем:
Решение задачи кластеризации принципиально неоднозначно


Статья (почему-то названная автором в первой фразе «вбросом») оставила у меня двойственное впечатление: возможно, предлагается замечательный метод, но тогда форма его описания явно недостаточная, чтобы его оценить по достоинству. Может, например, если это возможно, стоит сформулировать минимальную искусственную задачу: взять словарь людоедки Эллочки в 30 слов и детально продемонстрировать метод на этом словаре?

С уважением и пожеланием автору успехов.
От того так и названо, что не является завершённой теорией, по крайней мере новая часть, что это пока лишь размышления, подробнее будет продолжение (надеюсь, будет). Вероятно, будет в самом деле на примере 30 слов для начала.

На счёт поправлять — я имею в виду о преимуществах строгой модели с нейронной сетью и другими скрытыми моделями (назовём их так). Может, я и впрямь что-то пропустил по поводу новых возможностей нейронных сетей. Ну и на счёт других существующих методов тоже.
Опять «поршни против коленвала» в «политической» части статьи и переизобретение фреймов Минского (как способа работы с семантикой) и свёрточных сетей (как способа формирования фреймов статистическими методами) в «изобретательской» части. Только ещё на зачаточном уровне, конечно.
Если ошибаюсь — поправьте.

Основной причиной неприятия нейростей, как я понял из статьи, является то что «денотаты оказываются без чётких границ». Но, как написано ранее, денотаты это именования «лексем с семантическими классами». Как мне кажется, у денотата по сути не может быть четких границ, т.к. он меняется не только диахроничеки и синхронически. То есть это понятие больше психологическое, нежели семиотическое.
Формальные модели, десятками разработанные нашими и зарубежными лингвистами за последние лет 50 не показали себя на практике. Как раз по той причине, что либо они были слишком формализованы, либо требовали невероятно запутанных онтологий.
Но я полностью согласен с постановкой вопроса: нейросети не панацея. Выбор сложности алгоритма зависти от сложности решаемой задачи. И если морфологические или синтаксические задачи хорошо решаются стандартными стат.методами (наивным Байесом, случайными Марковскими полями и пр.; да и даже формальными моделями), то семантика требует более сложных вещей. Это не обязательно могут нейросети, но их скорость и качество оптимизации семантического пространства все-таки лучше, чем обычных стат.методов. И как раз главное их преимущество, что денотат нечеткий, его можно регулировать, варьируя параметры и корректируя обучающую выборку, и что важно — выборку без семантической разметки.
И, пожалуй, еще бы отметил в качестве размышления: не встречал ни одну формальную модель, учитывающую лексические эмоциональные составляющие (эмотивы). Как я понял, те же дискретные и непрерывные денотат-объекты — это либо имеющие плавающую эмотивную составляющую, либо нет (непрерывные). Эмоции «расшатывают» и даже меняют денотат. Неросети, к сожалению, это тоже пока не могут (я не говорю про сентимент-анализ — это на уровне классификации лексики, а не оценки эмоций). Поэтому здесь вопрос поиска алгоритма пока открытый.
На счёт непоказавшего себя на практике скажу больше, одной из основ идеи было это (Тузов В. А. «Компьютерная семантика русского языка»), далее некоторое развитие идеи. А вот на счёт причины у меня другое предположение — мешает сложность моделирования вручную, в той книге об этом тоже упоминается. Отсюда размышления о том, как совместить несовместимое.

Безусловно, речь идёт только о денотативном значении, сигнификативное и коннотативное остаются за рамками. Так что не все фразы годятся для такого моделирования (по крайней мере без существенной доработки), но если речь идёт поиске информации одинакового типа (а также переводе, реферировании, извлечении фактов и т. п.), то подобные решения применимы. И, конечно, для информации разного типа, например, изображения и текста, требуется ещё и онтологическая модель, а не только семантическая (на эту тему тоже есть идея, но ещё более сырая).

Есть ещё такая особенность — динамическое программирование — по сути одна из самых затратных по ресурсам разновидность задач, а к таковой относится и синтаксический анализ, и разметка семантических классов, и «сворачивание» элементарных значений (по сути упрощение выражения). Хоть однозначный вывод это и не позволяет сделать, но экспериментальные поисковые системы «Сириус» и «Экзактус» не блистали быстрой выдачей результатов, а там дело ограничивалось синтаксическим анализом, разметка семантических классов определённо затратнее хотя б в виду большего количества возможных комбинаций.
Как то все теория, теория. Приведу пример, я занимаюсь видеоаналитикой. Есть масса примеров когда работа нейросетей без математики и структуры не удовлетворяет. К примеру задача распознавания лиц, или задача идентификации объекта. Например когда мы знаем положение камер и необходимо оцифровать объект-человек. Что бы затем решать задачу его более точной и быстрой идентификации в пространстве(куртка, кепка, кроссовки, прическа, рост и т.п. Любая дополнительная информация об объекте может существенно улучшить и ускорить его идентификацию в пространстве). Мои изыскания в этом направлении показывают перспективу симбиоза использования 3D движка(в процессе выбора) для обучения нейросетей а также с другой стороны возможность структурной оптимизации алгоритмов. Язык вырисовывается некоторый аналог SQL в совокупности с объектно-ориентированной моделью. На эту тему планирую опубликовать пару статей с конкретными примерами в том числе с технологией отладки и обучения.
Как то так. В итоге, мое мнение — сухая теория и математика никому не интересна.
сухая теория и математика никому не интересна

А где в обсуждаемой статье математика? Выше уже отмечалось, что
Формул нет

И доказательств нет. Автор ответил, что
это пока лишь размышления

Вот когда и если будут формулы или формулировки (математической строгости) на естественном языке + доказательства, мне (и м.б.Вам) будет интереснее.
Sign up to leave a comment.

Articles