Как стать автором
Обновить

Комментарии 61

Так ведь системы еще только в начале пути. У вас мозг тоже, извините, опирается на полученный опыт. Не получили бы вы навыки в детстве, ничего бы не умели сейчас.
Вы даже руками-ногами двигать в младенчестве учились, мозг вашими движениями в том возрасте учился управляться с телом. Во время грудного скармливания вы учились понимать, что ваше тело имеет свое лево и право… Всему вы учились. Отчего вы отказываетесь в праве и нейросетям это делать? Возрастет сложность их, возрастут и возможности.
Разве я отказал нейросетям поумнении в будущем? Я написал только о настоящем состоянии. Способности нейросети сейчас нельзя назвать интеллектом так же как грудничка — разумным существом. Оно им только станет, возможно.
Честно говоря не совсем понятен в таком случае посыл статьи. Напомнить всем, что полностью осознавший себя и обладающий когнитивными функциями, сопоставимыми с человеческим мозгом, ИИ пока не создан? Ну… как бы сказать… да… не думаю что тут требуется свидетельство канарейки…
Я все чаще вижу рассказы о том, что ИИ обогнал человека, скоро заменит нас всех и т.п. Поcыл именно в том, чтобы уберечь от излишней эйфории и напомнить, какие цели еще впереди. Мы еще пчелы в ИИ по сравнению с человеком. И хотел обозначить основную проблему — семантика пока никому не поддалась кроме w2v.
По-легче на поворотах, грудничку может быть и два года, и к этому возрасту он уже давно умеет бегать, строить, ломать, помогать по дому и выносить мозг разговорами.
Грудничек все таки не бегает в обыденном понимании этого слова. И тем более не говорит.
Грудничок — это ребенок грудного возраста, т.е. до года. И то что вы ему приписываете он еще не умеет.
Нестыковка в определениях. Я имел ввиду грудное вскармливание и в явном виде указал возраст. Вы ссылаетесь на формальное определение из Вики, не имеющее отношения к вскармливанию. Посмотрел в словаре Ожегова — там есть оба значения.
В словаре Ожегова: Грудной -ая, -бе. 1. см. грудь. 2. О младенцах: вскармливаемый грудью. Г. ребёнок. Г. возраст (до года). Предметы ухода за грудными (сущ.). Другого не нашел.
О понятнии искуственного интелекта уже давно спорят (как минимум с 40 лет). В каких то книгах я читал, что разделяют ИИ в широком смысле и в узком. То о чем вы говорите — это широкий смысл понятия ИИ. То о чем говорят те, о ком вы пишите (учёные) — в узком, т.е. имитация интелектуальной деятельности человека(бот шахматист даже без нейронок — это ИИ).
Вы наверно имеете ввиду Сильный и Слабый ИИ в определении Серла. Вы считаете, что ИИ достиг уровня имитации? Попробуйте поговорить с Siri. Станет скучно на 30 сек. Или задайте перевод научной статьи Google. Если не в теме, ничего не поймете. Хотя может быть для диалога и перевода как раз требуется Сильный (иногда говорят «полный») ИИ. И тогда Вы правы.
Самое слабые достижения нейронных сетей как раз в NLP, там где требуется понимание естественного языка. Потому что мы до сих пор сами, как мне кажется, не очень понимаем, что значит «понимать». А в этом самый важный аспект, который мы хотели бы реализовать в машине. И который могли бы тогда по праву назвать интеллектом.

ИМХО:
Потому что естесственный язык базируется на понимании сути вещей, если так выразиться. Слова обозначают предметы, качества, действия. Мы соотносим лексемы с информацией, накопленной нами в течении жизни.

>Разве она распознала лошадь? Она просто выбрала выход Х, который исследователь назвал «лошадь»

Ну так подключите к этому выходу запуск аудио-записи со словом «это лошадь» — вот вам и распознала. Не только исследователь назвал этот выход лошадь, но и сама система озвучила название на естественном языке.

> не слово соответственно распознанной картинке, а все контекстуально связанные слова, то есть весь концепт «лошади»

Приведите пример что значит выбрать «все контекстуально связанные слова». Это типа овес, трава, копыта?
Речь про другое. Когда естественный интеллект (человек) распознаёт лошадь, в сознании появляется образ, несущий в себе множество признаков и ассоциативных связей. Причём даже не один: окрас, размер и прочие характеристики также представляют собой не просто слова, а огромные пласты информации, являющиеся триггерами для других образов. «Это же та самая лошадь, на которой я неделю назад катался!». Если ИИ в соответствующей ситуации сможет использовать лошадь, как транспорт или более сложным способом с ней взаимодействовать; сможет увидеть, что она устала, понять, что её нужно накормить — тогда и только тогда и можно будет говорить, что он распознал её, как образ лошади, а не как бессмысленный набор цифр/букв.

Причём, несмотря на огромное количество связей, каждый образ является именно выделяемым объектом, с которым можно работать в любом направлении, а не просто абстрактным набором цифр-весов нейронной сети. Я тоже не знаю, как это правильно сформулировать, но, на мой взгляд, именно образное и ассоциативное мышление отличает человеческое сознание от того, что гордо именуют ИИ. Сейчас это действительно не интеллект, а просто тупой механизм распознавания/выбора решений. Причём разница именно качественная, а не количественная. Увеличение количества нейронов помогает только снизить процент ошибок, но не меняет сам механизм.
>сможет увидеть, что она устала, понять, что её нужно накормить

На самом деле я, конечно, понимаю что вы пытаетесь сказать, но намеренно решил «поднапрячь» вас, может вы сами поймете что не можете выразить словами.

Даже если ИИ будет содержать таблицы с данными, благодаря которым сможет вычислить что лошадь устала или голодна — вас это не удовлетворит. Вы скажите — он не понял а просто сопоставил данные в таблице (как нерадивый школьник может зазубрить и выдать готовый ответ, так и не поняв что он сказал).

>Я тоже не знаю, как это правильно сформулировать, но, на мой взгляд, именно образное и ассоциативное мышление отличает человеческое сознание от того, что гордо именуют ИИ

Вы не знаете как выразить в научных терминах, но я прекрасно понимаю что вы хотите сказать.

Для меня этот вопрос является главным в жизни и не только моей. Я считаю что ответ на этот вопрос является смыслом существования человечества. Все науки имеют конечной точкой (точкой сингулярности) ответ на этот вопрос.

После ответа человек станет не нужным, так как появится новый вид.

И здесь дело не в информации.

Давайте пример приведу.

Вот есть функция сложения. Благодаря этой функции вы можете складывать огромные числа (как BigInteger). Но похожего результата вы можете добиться с помощью таблицы, где для каждого варианта слагаемых просто посмотрите готовый результат. Причем для вызывающего функцию разницы не будет.

Но вариант работы по таблице физически не сможет вместить все длинные числа (ну, скажем, количество разрядов более 100 тыс. бит) а вариант алгоритмический — без проблем выполнит такие действия.

Разница между таблицей и вычислением — это способность к декомпозиции. Хотя внешне выглядит одинаково.

Это аналогия была, надеюсь передал мысль.

Разница между вычислением и пониманием (осознанием) для нас не очевидна. Но она, на мой взгляд, такая же как и разница между сопопставлением по таблице и вычислением. Результат одинаков, только вот не возможно составить таблицы для всей области значений (просто не хватит памяти).

Аналогично с осознанием — с помощью вычислений мы можем эмулировать многие области осознания, но не возможно (не хватит памяти) для эмуляции всей области значений осознания.

Что является сутью вычисления и чем оно отличается от таблиц — мы знаем. Но не знаем чем сознание отличается от вычисления.
Вы практически точно описали китайскую комнату. Собственно, споры вокруг этого мысленного эксперимента будут продолжаться до тех пор, пока мы не поймём, что такое сознание. Насколько мне известно, даже на клеточном уровне изучены далеко не все детали формирования мозга (в частности, аксональное наведение), но оснований полагать, что там участвуют какие-то принципиальное иные механизмы (т.е. не биохимические), у нас сейчас нет. Поэтому можно пока принять в качестве гипотезы, что сознание — это сложный эффект, присущий структуре связей внутри мозга и между ним и остальными органами.
>Вы практически точно описали китайскую комнату

Другая мысль.

Сравните сложение по таблице (где записаны все правила: 1+1=2, 1+2=3… 23+56=79...) и сложение в столбик. Для сложения в столбик вам нужно знать только таблицу сложения однозначных чисел + освоить правила. А для сложения по таблице вам нужно иметь запись абсолютно всех чисел, что не возможно т.к. не хватит вещества во Вселенной.

Получается есть такие уровни:

1. Нахождение результата по словарю (по таблице). Когда вы просто запоминаете все варианты вопрос-ответ (но не можете применять какие-либо правила).

2. Нахождение результата путем вычислений по заданным правилам. Когда есть опорная таблица и готовые правила для произведения декомпозиции. Это намного круче результата по таблице.

3. Нахождение результата без таблиц и правил, путем осознания.

Уровень 1 и 2 соотносятся так же как 2 и 3. Уровень 1 — это бумажные таблицы Брадиса, грубо говоря. Уровень 2 — это компьютер. Уровень 3 — это х.з. что.

Но суть даже не в этом.

То что мы ищем — может не проявлять себя как умная или вычислительная система. У меня было в жизни такое, что я не несколько секунд стал дебилом. Реально я смотрел на мир и не знал как называются вещи, которые я вижу, не знал кто я, не знал где я. Какая то часть мозга отключалась. Я ничего не умел и не знал, но у меня было осознание, я мог ощущать наслаждение и страдание. Это сложно передать словами.

Долго анализировал и пришел к пониманию что ключом ко всему является природа наслаждения и страдания. Нужна система, которая сможет ощутить наслаждение и/или страдание и это именно то что мы ищем. Пусть даже эта система более ничего не сможет делать.
Вариант «посмотреть по таблице (словарю)» тоже можно трактовать как результат работы по правилам (в данном случае — правила поиска в словаре). Китайская комната покрывает (1) и (2) — как более простой алгоритм поиска в таблице и более сложный алгоритм вычисления, но не покрывает варианта (3) просто потому, что мы не знаем, что это такое — осознание. Поэтому мне кажется, что между вариантами (2) и (3) гораздо более серьёзная разница, чем между (1) и (2). Кроме того, (1) и (2) нам понятны и, следовательно, эмулируемы, а (3) совершенно неясен.
>Вариант «посмотреть по таблице (словарю)» тоже можно трактовать как результат работы по правилам (в данном случае — правила поиска в словаре)

В решении по таблице (по словарю) нет ключевого — декомпозиции. Все 3 системы для внешнего наблюдателя действуют идентично на определенном наборе вариантов. Однако разница в том что система 1 физически не может охватить все варианты системы 2, как и система 2 не может охватить все варианты системы 3.

>(1) и (2) нам понятны и, следовательно, эмулируемы, а (3) совершенно неясен.

Для многих людей и система 2 не ясна, они умеют только «заучить наизусть». Запомнить — да, умеют. А вот вычислить — нет.
>Но нейросеть никакого представления о том, что она выбрала, не имеет.

Но ведь и ты сам не знаешь, что ты выбрал. Просто посмотрел на картинку и сказал, что это лошадь. Моментально и не думая. Как нейросеть.
Нет. Искусственный Идиот может только выдать ответ «лошадь». Он не знает, что это такое, для него задача заканчивается на выборе ответа. Интеллект должен именно иметь представление, что такое лошадь. Человек знает, что такое лошадь. Для него это больше, чем набор букв, даже для тех, кто живой лошади никогда не видел. Слово «лошадь» произносится только после того, как в сознании создан образ лошади, и является лишь одним из признаков этого образа, наиболее удобным для передачи информации другому человеку. В некоторых ситуациях слово «лошадь» будет не первым, или вообще не будет произнесено, даже про себя.
заблуждение…
Слово «лошадь» произносить совершенно не нужно. Это лишь образ. Иногда облачаемый в слова.
Вопрос: как человек формирует понятие «лошадь»? Ответ: на основании опыта: зрительной, слуховой и вербальной информации, единичек и ноликов.
Ничего подобного. Посмотрел на картинку — распознал лошадь в конкретной позе, вместе со всеми ее конечностями, особенностями, окрасом, окружением и прочим. Это небо и земля по сравнению с распознаванием картинок нынешними нейросетями. Если если лошадь будет нарисована с пятой ногой или зеленого цвета, то человек ее распознает, а нейросеть — нет, т.к. в обучении не было таких картинок.
Ошибочка. Современная нейросеть даже и такое распознает.
Кстати говоря, лошадей с пятой ногой не существует, а значит, этот пример высосан из пальца и не имеет ничего общего с реальностью. Мы же говорим о реальных вещах, примеры которых имеют место в реальной жизни, а не вымышленной.
Нет, не ошибочка, нейросеть не знает, что такое лошадь, как она двигается, в каких позах может стоять. Если были лошади белые в выборке, то черную не распознает, если они всегда стояли, то не распознает прыгающую через барьер и так далее. Пример с пятой ногой — это нестандартная ситуация, где человек подумав скажет, что это лошадь, а нейросеть выдаст что угодно, т.к. не понимает (и не может понять) контекста.
Если я увижу лошадь с пятой ногой, то я подумаю — чтозахуйня? Я не причислю её к категории лошади.
Тем не менее вы, несомненно, отличите лошадь с пятой ногой от тигра с пятой ногой. И при описании картинки большинство людей скажет «лошадь с пятой ногой», а не "думаю это кусок торта". А результаты нейросети на необычных и пограничных вариантах действительно плохо предсказуемы и часто выглядят полностью неадекватными.

Есть и ещё один момент, про который часто забывают. Искуственная нейросеть при обучении обрабатывает очень много картинок. Для того, чтобы в принципе отличать лошадь от табуретки, нужны как минимум десятки тысяч картинок лошадей. А чтобы снизить количество ошибок с 30-50% до долей процента — сотни миллионов. Тот же IBM Watson даёт хорошие результаты именно благодаря тому, что это мощный суперкомпьютер, который может обработать всю эту информацию за приемлемое время. Человеческий мозг обладает на порядки меньшим быстродействием и использует для обучения на порядки меньшее количество информации, но почему-то выдаёт результат лучше. К примеру, по паре концепт-артов какого-нибудь монстра из игры человек за секунды распознает готовую 3D модель этого монстра, ранее никогда не виденного и находящегося совсем в другой позе и ракурсе. Для имеющихся ИИ это недостижимый идеал, они могут выдать верный результат лишь при наличии в базе обучения попиксельно похожей картинки, а лучше — нескольких.
Евгений, Вы очень точно выразили самый существенный на сегодня недостаток нейросетей, который не позволяет им носить гордое имя «интеллекта». Дело именно в том, что в мозгу есть нисходящие и восходящие потоки, взаимодействие который и приводит к постепенному выбору наиболее вероятной модели (концепта) «лошади», а все что в нее не вписалось (разница восходящего и выбранного нисходящего образа) вычленяется в отдельный образ или помеху. Именно поэтому мы видим все таки «лошадь», но с пятой ногой. Это можно почерпнуть еще у У. Найсера (1970-е) в его известном треугольнике восприятия.

Кроме того, именно эта особенность не позволяет нейросетям быстро обучаться. С. Пинкер писал, что ребенку не хватило бы всей жизни, чтобы встретить в своей жизни столько разных картинок одного и того же, чтобы научиться их распознавать (цитата не точная). Собственно и Н. Хомски говорил ранее об этом же, только применительно к языковой компетенции. Ребенка распознанию нового образа можно научить, просто рассказа ему, что это такое. ОДИН РАЗ! И никто этой разницы нейросетей и мозга той мыши не учитывает. А это только один из моментов, есть еще много других принципиальных отличий. Недавно на TED появилось видео, где гугловцы научились генерировать картинки, возбуждая наученную ранее сеть (не без наших соотечественников обошлось, что приятно). Это первый шаг к нисходящим. Так что движение в верном направлении уже есть…

С вашего позволения, я вставлю Ваш ответ в сам пост как отличный его итог, который я и хотел получить. Со своими дополнениями, если Вы не против.
Да, посмотрел и и сказал «лошадь». Как и нейросеть. Но разве в этом состоит интеллект? Я могу не только распознать лошадь, но и объяснить, почему я так решил.
Нет. Далеко не все люди могут это объяснить. Спроси ребёнка или продавщицу из магазина — они тебе не ответят почему так выбрали.
Я почему-то всё больше убеждаюсь, что большинство людей не обладают интеллектом. Они живут, как роботы.
И я уверен, что в ближайшем будущем и нейросеть сможет объяснить, почему она сделала этот выбор. Что тогда?
Вполне они расскажут, с ребенком могут быть проблемы только по части отсутствия словарного запаса и недопонимания из-за возраста, продавщица тоже сочтет вопрошающего неадекватом. В остальном на то есть психологические тесты с образами, рисованием и т.п.
Ты посмотрел на картинку и тут же в мозгу у тебя принято решение — «лошадь!»
И уже потом, при большом желании, ты начинаешь копаться: а почему же это лошадь, почему я так выбрал? Ага, наверное, четыре ноги, грива, голова как у лошади и т.д. Т.е., эти рассуждения не первичны, совершенно не нужны для принятия решения.

Когда ты смотришь кино, то тоже так описываешь все объекты, которые там видишь? «Это дом, потому что он имеет форму здания, там есть окна, а над ним — небо, потому что оно голубое, вот идут люди: один, два, три, четыре… сто двадцать пять… Это люди, потому что у них есть голова, руки, ноги… Нет, ноги не у всехъ уместились в кадр. И машины здесь тоже есть, вот это жёлтое — такси, потому что… Ой, кадр сменился! Так… Тут дом, потому что он имеет окна,...»

Понимаешь всю абсурдность?
НЛО прилетело и опубликовало эту надпись здесь
Но ведь зачатки многообещающие?) Наш мозг по сути тоже представляет собой эдакий классификатор — поставь перед нами неизвестную нам вещь и мы определим её суть и назначение, отбросив неподходящие «выходы», придя к в итоге к одному или нескольким конкретным. И то не факт что угадаем.
Кстати и мы, интеллектуальные человеки, тоже не умеем летать с большой скоростью среди веток и деревьев, да и вообще каких-то иных препятствий.) Тем более так безошибочно, как это умеет пчела. А среди нас даже профессионалы, например, на ралли ухитряются в кювет улетать. Да и вообще за это больше отвечает не интеллект, а органы чувств и рефлексы
Пчелы летают отнюдь не безошибочно. Они как и любые другие насекомые могут постоянно во что-то врезаться, но из-за их размеров им это ничем не грозит. Цена ошибки практически нулевая. Вот птицам уже хуже, поэтому нередко можно увидеть трупик птицы, не перенесшей столкновения с препятствием на скорости.
Я чаще вижу трупик птицы, которая сама стала легкопреодолимым препятствием для чего-то типа автомобиля.) Редко когда в статичной обстановке и птицы и пчелы во что-то врезаются, тем более насмерть.
Существует всего один вид птиц, чьи нейросети настолько некачественны, что позволяют переехать своего носителя автомобилем и сбить футбольным мячом: это голубь.
<crazy science mode on>голуби — это хайвмайнд, коллективный разум. Иногда он теряет одного голубя, потому что вычислительные ресурсы направлены на более важную с точки зрения этого разума задачу и не особо печалится по этому поводу.<crazy science mode off>
Думаю, тут дело в том, что городские птицы намного реже подвергаются опасности и, как следствие, теряют осторожность. Шарахаться от каждого автомобиля оказалось для выживания менее выгодно, чем подвергаться небольшому риску быть сбитым. Тем более что на небольшой скорости водитель сам предпочтёт избежать столкновения с голубем.
Если мозг «наш», то кто такие «мы», что определяем суть вещей? Вот эти «мы» и определяют сознание, что является величайшей загадкой и тем, что машина из себя не представляет и вряд ли когда-то представит
В том, что Вы написали и современными нейросетями — огромная разница. Она именно в том, как Вы точно описали сам процесс распознания неизвестной картинки людьми.«мы определим её суть и назначение, отбросив неподходящие «выходы», придя к в итоге к одному или нескольким конкретным». Мы можем анализировать картинку и с одного образца научиться распознавать их в дальнейшем. Сети надо подсунуть их несколько тысяч минимум, чтобы научить. Вот тут есть отличная формулировка у ZhenyaZero.

На счет летать и «не интеллект, а органы чувств», так мы и их еще не умеем повторять, а то, что человек не умеет летать и поэтому не приспособлен к полету — ничего странного нет. Зато бегаем быстро. Речь не о приспособленности, а о приспособляемости.
Наш мозг имеет преимущество в виде низкоуровневой структуры, способной строить псевдо-3d на основе типичной светотени, отражения и преломления света даже при наличии картинки лишь с одного глаза. Иногда это приводит к ошибкам, но чаще позволяет успешно пространственно оперировать объектами на плоской картинке. Современные глубинные нейросети лишены такой способности, для них картинки изначально плоские, поэтому сеть не вполне понимает различные пограничные случаи. Если мы хотим приблизить искусственные сети к пониманию процессов реального мира, нужно начинать учить их управляться с объёмом.
Интересное мнение. Кстати вообще хоть одну нейросеть подключали к камерам и прочим датчикам-сенсорам, чтобы она начинала изучать объекты реального мира?
Подключали, в computer vision нейросети активно используются, включая свёрточные. Другое дело, не знаю, используют ли для этого пару камер, чтобы получать информацию об объёме. Для решения задачи обучения сети пониманию объёма (имхо) нужно сначала научиться успешно компоновать одну плоскую картинку по данным этих двух камер, а потом развернуть процесс, генерируя нечто вроде карты высот по плоской картинке. Такая карта позволит многим нейросетевым алгоритмам, связанным с обработкой изображений, работать значительно эффективнее.

В качестве аналогии сложностей, с которыми сталкивается двумерная сеть, можете провести следующий мысленный эксперимент: попробуйте быстро и достоверно нарисовать в своём воображении куб. Легко, не правда ли? А теперь нарисуйте гиперкуб.
Человек — лишь одно из звеньев цепи естественной эволюции от биологического объекта к машине. Об этом ещё Лем писал 50 лет назад.
Как раз перечитываю Сумму технологий. Потрясающе. Его выводы и предсказания стали более точными, чем 18 лет назад, когда читал в первые.
НЛО прилетело и опубликовало эту надпись здесь
У пчелы не многим больше нейронов в голове, но она умеет то, на что ни одна современная нейросеть пока не способна — летать с большой скоростью среди веток и деревьев

Boston Dynamics. Мне иногда кажется, что их двуногий робот ходит лучше менять.
Координация движений и «вестибулярного» (акселерометр) аппарата у них, конечно, достигнута потрясающая. Но их робот не может сам выбирать путь между деревьями, тем более со скоростью полета пчелы.
Дополню статью следующим тезисом:

Вот есть две программы, одна самообучается игре в Го и выигрывает у чемпионов, а вторая играть в Го не умеет вообще, но в состоянии написать первую программу (и улучшать её слабые стороны, анализируя их).
Собственно, тезис заключается в том, что первая программа — это не искуственный интеллект, а интеллектуальный продукт, а вот вторая — интеллектуальный продьюсер (создатель интеллектуального продукта, т.е. собственно ИИ).

И кстати, если второй тип програм ещё может представлять какую-то угрозу для человечества, то первый — навряд ли.
> Какие проекты на сегодня по вашему мнению ближе всего к тому, что можно назвать если не интеллектом, то хотя бы когнитивным алгоритмом, а не просто «распознавалка картинок»?

Нооскоп?
НЛО прилетело и опубликовало эту надпись здесь
Рекомендую прочитать книгу «Глаз разума» Дагласа Хофштадтера и Дэниела Деннетта.
Проблемы, описанные в статье, крайне интересно рассмотрены в книге с точек зрения литературы, психологии, философии и ИИ.
Спасибо, читал отрывочно, Деннет — мой любимый автор с его интенциональным подходом к психики. Но все таки он пишет немного о другом. Отличие нейросети именно в структурном устройстве, выше тут смотрите комментарии ZhenyaZero и мой ответ ему. Причем эти отличия уже давно известны в когнитивной психологии, но почему то совершенно игнорируются программистами нейросетей. Междисциплинарность вопроса между тем очевидна.
НЛО прилетело и опубликовало эту надпись здесь
Так мечтает сейчас о нейросетевом будущем его создатели. Говорят, что они скоро обгонят человека во всем.


Раздутый ажиотаж. По-английски это называют словом hype. В истории ИИ это было уже не раз.
Мне казалось, что интеллект — это как минимум способность рассуждать. И пока ни одна сеть не может построить хотя бы простейший силлогизм, называть ее интеллектом мягко говоря рановато.

Искусственный интеллект — это способность машины имитировать интеллектуальное поведение человека и область науки, изучающая эти способности.


У пчелы не многим больше нейронов в голове, но она умеет то, на что ни одна современная нейросеть пока не способна — летать с большой скоростью среди веток и деревьев.

Вот так?


Все, и сами ученые, совершают одну и ту же эпистемилогическую ошибку. Они говорят, что сеть обладает интеллектом, потому что распознала лошадь на картинке!

Они не говорят что сеть обладает интеллектом. Они говорят что сеть — это искусственный интеллект.


Но нейросеть никакого представления о том, что она выбрала, не имеет. У нее нет понятия о «лошади» (семантики), «значение» выхода «лошадь» у нас в голове, а не в сети. Чтобы он был в самой нейросети, она должна выбрать не вход, не слово соответственно распознанной картинке, а все контекстуально связанные слова, то есть весь концепт «лошади». Тогда она, может быть, будет понимать, что лошадь и туманность имеют общее значение только в смысле облака космической пыли.

Открою вам секрет, за распознавание лошади и за хранение концепции "лошадь" в голове отвечают разные участки мозга. Маленькая нейросеть симулирует маленький участок мозга.


Самое слабые достижения нейронных сетей как раз в NLP

Зато во множестве других областей нейронные сети людей обогнали.


А в этом самый важный аспект, который мы хотели бы реализовать в машине.

Если машина будет выполнять все мои задачи лучше меня, будет не важно, понимает она, что она делает или нет.


Программа Google, сочиняющая подписи к изображениям, делает странные ошибки. Глядя на дорожный знак, например, она может назвать его набитым едой холодильником».

Странные для людей, не понимающих, что другой интеллект работает по другому. С точки зрения компьютера может быть странно, как вы можете не различить десяток-другой пород кошек или собак.


Выводы статьи вполне очевидны, но важнее понять, что почему такие отличия существуют и что делать дальше. Ваши предложения.

Предлагаю осознать, что дорога длиной в 1000 ли начинается с одного шага.

Вот могу только согласиться почти со всеми приведенными доводами и поблагодарит за ссылку — к уровню пчелы уже приближаемся. Уточню только по поводу искусственного интеллекта — статья написана не как возражение против названия раздела copmuter science, а как возражение против наделения нынешних сетей достижением способностей человека. Да, в играх и зрении уже серьезные успехи, но это еще не интеллект в том смысле, которым обладает взрослый homo sapiens. Способ, которым достигнет сеть таких же способностей меня тоже не интересует, поезд тоже не похож на лошадь, а самолет на птицу, они просто быстрее и больше возят, чем лошадь. Но имитация должна достигать той же результативности, что и имитируемое. Желательно даже большей, что есть пока только в играх.

Про дорожный знак не соглашусь. Фича или баг? Скорее все таки баг. Вот тут еще Д. Ветров анализирует как раз статью про такие ошибки очень интересно: «В недавно опубликованной статье „Интригующие свойства нейронных сетей“, на первый взгляд, получено два удивительных результата. Во-первых, вопреки распространенному мнению показано, что выходы отдельных нейронов имеют не больше смысла, чем случайная комбинация выходов нейронов с одного слоя. Во-вторых, у популярных архитектур нейронных сетей, используемых для классификации изображений, обнаружены „слепые пятна“: достаточно внести неуловимое глазом изменение в правильно классифицируемое изображение, и нейронная сеть начинает грубо ошибаться на модифицированной картинке» (цитата с постнауки).
Желательно даже большей, что есть пока только в играх.

Watson диагнозы ставит лучше людей, например.


Фича или баг? Скорее все таки баг.

image
Фича или баг?


достаточно внести неуловимое глазом изменение в правильно классифицируемое изображение

Это да, но обманывать сети тоже надо уметь.

Ватсон больше хвастается, чем распознает болезни. Принявших к использованию их алгоритм медучреждений очень мало. И даже там где приняли, решение принимает все равно доктор. У них не больше успехов в распознании болезни, чем у сверточной сети по снимкам томографии.
Принявших к использованию их алгоритм медучреждений очень мало.

Понимаете разницу между уметь и делать?


У них не больше успехов в распознании болезни, чем у сверточной сети по снимкам томографии.

Определенный успех точно есть.

Я не помню, была ли доступна в 2016 году в личном кабинете Google расфасовка фото по «тематикам»?
Автор, что скажете? Как по мне — очень многообещающе.
Да, «мы» в самом начале пути. Но в этом смысле гугл идет в правильном направлении. Чтобы заставить ИИ думать — ему вначале нужно данные — получить. Получать он их будет из фотографий. А потом из фотокадров из видео, снятого 30 кадров в секунду. А потом из видео, снятого 120 кадров в секунду. А потом поверх придумают нейросеть, работающая с семантикой и облаком данных, получаемых из «оптики». Вот там уже в 10 раз интереснее будет. И с каждой такой итерацией будет интереснее в большее количество раз чем предыдущий.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории