Вы заставили меня пробежаться по выводам Пенроуза. Но, простите, это не доказательство. Он хорошо иллюстрирует свои идеи, и с помощью черных дыр, и с помощью машин Тьюринга. Но все равно это лишь иллюстрация.
Он ссылается на нечто, что называет «неалгоритмическим элементом» в сознании. И мол это позволяет выводить мышление за рамки машины тьюринга. Но мне не очень понятно, что такое неалгоритмический элемент. Может быть, я плохо знаю физику. Но даже если он есть, как-то возник в ходе эволюции, я не понимаю почему мы его не можем воссоздать.
Что касается ссылок «величайшие умы». У Пенроуза достаточно критиков. Да и те же Тьюринг и Гедель придерживались другой точки зрения.
Ну и чем вам помешала т.Геделя :) Вы слишком вольно трактуете понятие «язык».
Во-первых в теореме речь идет сугубо о формальных языках. Естественный язык — это не язык вовсе с точки зрения формального описания. Так что применять теорему Геделя к нему как-то странно.
Во-вторых, делать вывод о невозможности описать один язык другим притягивая т.Геделя — тоже неверно. Одну контекстно-свободную грамматику я могу свободно выразить через другую, либо через автомат с очередью. В чем проблема-то? :)
Не сочтите это за упрек. Но все же чтобы быть более объективным почитайте про методы ИИ, а также про формальные языки и грамматики. Понятно, что до человеческого интеллекта нашим методам пока далеко. Но по крайней мере мы стараемся :)
ffriend, плюс вам. Сам хотел написать ответ на упоминаемую статью, но поленился.
Не совсем согласен с выводом, но вцелом я считаю вы правы:
1 — компьютер не обязан «понимать» текст в человеческом смысле (привет, Серль!).
2 — человек сам не понимает как он понимает этот текст. думаю, это все те же алгоритмы, только сильно запараллеленые, более сложные и более адаптивные.
Всем, кто заводит речь о «человеческом понимании для компьютера» рекоммендую учить математику.
Кстати, есть такая штука как Brill Tagger, который в процессе работы инкрементально корректирует проставленные метки. Интересно, можно ли как-нибудь применить здесь то же самое.
— почему выбраны именно эти фичи?
# 1001 — съешьте, 2001 — ьте, 3001 — те
— почему выбран SVM как классификатор? (а не, к примеру, наивный байес)
И предложение. Попробуйте использовать контекст для разметки. Тут несколько вариантов:
— использовать фичи предыдущего слова для определение метки текущего слова.
пример: для слова «булок» в «съешьте булок»
{'full_suffix': 'булок', '3_suffix': 'лок', '2_suffix': 'ок', 'prev_3_suffix': 'ьте', 'prev_2_suffix': 'те'}
— использовать полученную метку для предыдущего слова чтобы определить метку текущего слова. К примеру, для «съешьте булок»:
{'full_suffix': 'булок', '3_suffix': 'лок', '2_suffix': 'ок', 'prev_tag': 'ГЛ'}
Контекст также прекрасно отрабатывается машинными методами. Можно использовать n-gram'ы или даже уже размеченные слова. К примеру, после предлога вероятность следования глагола очень мала.
Я к тому, что само понятие сложности алгоритмов имеет смысл только если мы рассматриваем машину тьюринга (или подобное вычисл.устройство). По этому сложность алгоритма по времени, строго говоря, не полиномиальна.
Ох уж эти громкие названия :)
Конечно, алгоритм не полиномиальный. Вы не подменяли временную сложность пространственной. Корректней сказать вы разложили ее по разным вычислительным устройствам. То же самое, что использовать машину тьюринга с очень большим количесвом лент и считывающих гловок. Но сложность алгоритма от этого не меняется.
Вы описали принцип работы всех наших интеграторов. Грустно это.
Не лучше ли заняться чем-то другим? Чем-то действительно полезным.
Жалко растрачивать жизнь на эти склоки. Я протолкался в этой сфере пять лет. Теперь немного жалею.
Он ссылается на нечто, что называет «неалгоритмическим элементом» в сознании. И мол это позволяет выводить мышление за рамки машины тьюринга. Но мне не очень понятно, что такое неалгоритмический элемент. Может быть, я плохо знаю физику. Но даже если он есть, как-то возник в ходе эволюции, я не понимаю почему мы его не можем воссоздать.
Что касается ссылок «величайшие умы». У Пенроуза достаточно критиков. Да и те же Тьюринг и Гедель придерживались другой точки зрения.
Во-первых в теореме речь идет сугубо о формальных языках. Естественный язык — это не язык вовсе с точки зрения формального описания. Так что применять теорему Геделя к нему как-то странно.
Во-вторых, делать вывод о невозможности описать один язык другим притягивая т.Геделя — тоже неверно. Одну контекстно-свободную грамматику я могу свободно выразить через другую, либо через автомат с очередью. В чем проблема-то? :)
Не сочтите это за упрек. Но все же чтобы быть более объективным почитайте про методы ИИ, а также про формальные языки и грамматики. Понятно, что до человеческого интеллекта нашим методам пока далеко. Но по крайней мере мы стараемся :)
Не совсем согласен с выводом, но вцелом я считаю вы правы:
1 — компьютер не обязан «понимать» текст в человеческом смысле (привет, Серль!).
2 — человек сам не понимает как он понимает этот текст. думаю, это все те же алгоритмы, только сильно запараллеленые, более сложные и более адаптивные.
Всем, кто заводит речь о «человеческом понимании для компьютера» рекоммендую учить математику.
Кстати, есть такая штука как Brill Tagger, который в процессе работы инкрементально корректирует проставленные метки. Интересно, можно ли как-нибудь применить здесь то же самое.
— почему выбраны именно эти фичи?
# 1001 — съешьте, 2001 — ьте, 3001 — те
— почему выбран SVM как классификатор? (а не, к примеру, наивный байес)
И предложение. Попробуйте использовать контекст для разметки. Тут несколько вариантов:
— использовать фичи предыдущего слова для определение метки текущего слова.
пример: для слова «булок» в «съешьте булок»
{'full_suffix': 'булок', '3_suffix': 'лок', '2_suffix': 'ок', 'prev_3_suffix': 'ьте', 'prev_2_suffix': 'те'}
— использовать полученную метку для предыдущего слова чтобы определить метку текущего слова. К примеру, для «съешьте булок»:
{'full_suffix': 'булок', '3_suffix': 'лок', '2_suffix': 'ок', 'prev_tag': 'ГЛ'}
Интересно, как изменится при этом качество.
Конечно, алгоритм не полиномиальный. Вы не подменяли временную сложность пространственной. Корректней сказать вы разложили ее по разным вычислительным устройствам. То же самое, что использовать машину тьюринга с очень большим количесвом лент и считывающих гловок. Но сложность алгоритма от этого не меняется.
В остальном, интересно, спасибо.
Не лучше ли заняться чем-то другим? Чем-то действительно полезным.
Жалко растрачивать жизнь на эти склоки. Я протолкался в этой сфере пять лет. Теперь немного жалею.