Pull to refresh

Comments 3

перспективность нейросетевых алгоритмов глубокого обучения в сравнении с классическими методами обработки естественного языка

Перспективность — возможно, да. А вот преимущества я пока не вижу. Современные статистические методы обработки естественного языка пока не только более точны, но и более гибки в настройке (хотя бы потому, что можно «руками» выбирать и настраивать нужные параметры). Мне кажется, вопрос «что лучше» пока спорный. Ведь вовсе не обязательно уподоблять ИИ мозгу человека; например, самолеты летают, но крыльями не машут.
|| перспективность нейросетевых алгоритмов глубокого обучения в сравнении с классическими методами обработки естественного языка

Любая перспективность всегда определяется в двух ипостасях: по Форме и по Сущности. А любая Технология базируется на двух своих основополагающих компонентах — Методологии (как набор способов) и Инструментарии (как набор средств).

Итак, возьмём в качестве наглядного примера простой арифмометр начала прошлого века. Какова была его перспективность? Да никакая, если не считать его развитием тупое увеличение разрядности. Потом по законам эволюции техногенных укладов арифмометра сменил электронный калькулятор и арифмометры тут же стали бесперспективными. А какая была перспектива у калькулятора, который так и не дорос до компьютера? Максимум – это быть приложением к АйТи технологиям.

А какая перспектива у самого компьютера? Какие из вышеперечисленных четырёх факторов (Форма, Сущность, Методология и Инструментарий) могут принести машинам искомую перспективность, если под нею понимать «искусственно мыслящую машину, умеющую оперировать Знаниями»? Ведь, на сегодня ЭВМ способна оперировать исключительно лишь только Данными. А как сделать так, чтобы она смогла понимать (анализировать) Знания и создавать (синтезировать) новые Знания? Для этого мы должны рассмотреть какие именно факторы могут дать эту перспективу:
— Форма? Явно нет.
— Сущность? Скорее всего.
— Методология? Может быть.
— Инструментарий? Пока такой неизвестен.

А как вообще понять, что именно нам нужно
Что мы имеем на сегодня? Все знакомые нам лингвистические, логические, статистические, стохастические, математические (псевдо-нейросистемы), вопросно-ответные и прочие технологические ухищрения в АОТ не способны оперировать Знаниями. В АйТи нужно переходить на новый технологический уклад – ОБРАБОТКА ЗНАНИЙ!

Вот это и есть настоящая перспектива!
ОБРАБОТКА ЗНАНИЙ!

Ну это, как говорится, и ёжику понятно. Пока даже нет корректного определения, что считать знанием в ИИ. В настоящее время задача решается в лоб — бесконечным составлением тезаурусов. Лично я считаю, что это тупиковый путь, но другого не вижу. Все псевдо-семантические алгоритмы типа LSA / LDA больше напоминают пляски с бубном (сам этим занимаюсь), нежели реализацию семантических связей. Поэтому проблема в определении, в постановке задачи: что мы считаем знанием, каковы его границы, какими свойствами оно должно обладать?
Sign up to leave a comment.

Articles