All streams
Search
Write a publication
Pull to refresh
66
0

Пользователь

Send message
Видимо, примерно то же, что и с Маккарти.
Постулируемое tac'ом общее правило: «Адекватных людей в области сильного ИИ вообще нет».
Вы таким способом хотите подтвердить правоту tac'а? Ну, один положительный пример не доказывает общего правила…
Ну, или если лень, вот цитата: «The long-term goal of AI is human-level AI… Basic researchers in AI should measure their work as to the extent to which it advances this goal.»
(если Вам лично не нравится термин «сильный ИИ», то давайте говорить о «human-level AI»)
То есть за Минского не хотите отвечать? ))
Дело-то не в претензиях лично к нам, а в Вашем утверждении: «Адекватных людей в области сильного ИИ вообще нет», которое является очевидным сверхобобщением. Как специалист по машинному обучению, Вы должны знать, что это такое. Так что либо отвечайте по каждому конкретному случаю о неадекватности людей, либо признавайте свое утверждение как ложное.
Лучше, конечно, им самим решать, относят ли они себя к области сильного ИИ. Но:
1) Очевидно, что в середине прошлого века относили в том смысле, что заявляли, что создание мыслящих машин не за горами;
2) Продолжали относить и потом; по крайней мере, некоторые из них. Читайте, например,
McCarthy J. The Future of AI—A Manifesto // AI Magazine. 2005. V. 26. No 4. P. 39.
Nilsson N.J. Human-Level Artificial Intelligence? Be Serious! // AI Magazine. 2005. V. 26. No 4. P. 68–75.
Solomonoff R. Algorithmic Probability, Heuristic Programming and AGI // In: E.Baum, M.Hutter, E.Kitzelmann (Eds), Advances in Intelligent Systems Research. 2010. V. 10 (Proc. 3rd Conf. on Artificial General Intelligence, Lugano, Switzerland, March 5-8, 2010). P. 151–157.

Или, скажем, Шмидхубера Вы считаете недостаточно известным ученым? Или неадекватным? Или будете уверять, что он не работает в области сильного ИИ?

Извините, но, похоже, Вы просто не в контексте… (я уж пропущу Ваш намек на нашу неадекватность, чтоб не разводить флейма)
tac: «У подножья пирамиды ИИ сидят оракулы — это те люди которые громогласно заявляют мы занимаемся «сильным ИИ», «слабый ИИ» — нас не интересует. Это фрики — как минимум те, которых я встречал все были именно фриками.»

Неужели таких людей так много, что они могут занять все подножие пирамиды? Конечно, такие люди, как Марвин Минский, Дуглас Ленат, Джон Маккарти, Рэй Соломонов и другие оракулы исходно были и даже оставались фриками на протяжении более чем полувека. Но все же они заслуживают уважения. (Немного к ИИ не относится, но Перельману не помешало то, что его тоже можно назвать фриком, доказать гипотезу Пуанкаре).
Как вы отделите тех, кто за деревьями теорий в ИИ видит лес сильного ИИ, так же как некоторые теоретики абстрагируются от частных задач, кто прошел стадии «инженеров» и «теоретиков» (нередко оставаясь ими) и пришел проблематике сильного ИИ, от тех, кто «занимается» сильным ИИ без особого предварительного практического и теоретического опыта?

tac: «Если Вы молодой человек который еще в этом не повяз — выбирайтесь из этого болота, оно засасывает хорошие умные головы.»

Грустно слышать такие заявления. Адекватных людей в области сильного ИИ и так немного, а если их еще оттуда отвращать, то там действительно останутся одни фрики в самом плохом смысле этого слова. Так что призываем всех «молодых людей» хотя бы думать своей головой…
Ну, идея-то была в том, чтобы по результатам обучения по разным подвыборкам строить композицию классификаторов.
Все же есть большая разница между нулевой вероятность и очень маленькой, но положительной. Стал бы кто-нибудь играть в лотерею, в которой шанс выиграть строго равен нулю?
Смещение должно происходить по мере накопления данных, но если универсальной интеллектуальной системе не придать начального смещения, то она, по сути, будет вынуждена повторить весь путь эволюционного развития. Это очень нерационально, если можно этот процесс сильно ускорить.
В плане механизмов повышения эффективности это, в первую очередь, декомпозиция задачи обучения — построение отдельных моделей по фрагментам данных. Декомпозиция на практике не бывает полной, поэтому ее идея в целом эвристична. Ослабление негативного эффекта от декомпозиции достигается введением представлений вообще и в частности иерархических моделей и адаптивного резонанса. Об этом мы и постараемся рассказать в последующих статьях.
Первое привело к разным результатам, местами не столь плохим. Хотя пропагандой данного подхода мы не занимаемся и считаем его частным, просто хотелось отметить, что такое в принципе имеется.
Насчет второго это долгий разговор. Но если кратко — попробуйте создать ИИ на основе этих принципов и поймете, что их отнюдь не достаточно. Подробнее об этом есть в книжке «Искусственный интеллект и универсальное мышление», но она пока в печати.
Во-первых, есть нейроэволюционный подход. Во-вторых, высказывание о том, что требуется для появления живности, не особо верно.
Ну, то есть «жизненные силы» — это просто эвристическая замена второго компонента критерия минимальной длины описания… О том и речь, что этот критерий многократно переизобретается в частных формах в разных методах и задачах, и люди об этом даже не догадываются.
Ну, у гугла это больше пиар. Сами они там принципиально нового не сделали, хотя эксперимент и интересный.
А вот в плане «ткнуть пальцем и спросить» (то есть в плане семантического обоснования символов и понятий) давно и достаточно успешно работает группа Дэба Роя из МТИ.
Тогда остается вопрос, что такое «нужная точность»; что будет, если эту нужную точность очень сильно завысить?
Спасибо, но просьба была «в двух словах сказать, на каких принципах этот выбор осуществляется там?»
Тогда вполне естественно, что Вы не встречали проблему переобучения, раз используете метод, в котором как-то решена проблема выбора числа нейронов и связей. Кстати, не могли бы в двух словах сказать, на каких принципах этот выбор осуществляется там?
Если это не стандартная архитектура ИНС, то надо разбираться…
В любом случае, если число нейронов выбирается по каким-то априорным установкам и не увеличивается при обучении для увеличения точности работы по обучающей выборке, то опасность переобучения будет малой, но потенциальное качество обучения будет ниже, чем при правильном выборе адекватного числа нейронов.
Мы подумаем. Есть опасения, что статья на подобную тему будет интересна слишком малому числу людей. Если удастся об этом рассказать популярно, выложим на хабре; если нет — научные материалы на эту тему в любом случае выкладываем на своем сайте.

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity