Как стать автором
Обновить

Комментарии 45

он должен быть способен самостоятельно разобраться с окружающим миром и разработать своё, внутреннее понимание всего, с чем он встретится, что услышит, скажет или сделает

С таким подходом и у людей интеллекта нет.

А откуда у кучки белков, клетчатки и другой органики возьмется интеллект? Вопрос к автору оригинального текста, конечно.

Здравствуйте. Не могли бы пояснить? наука вроде этим и занимается, описывает явления физического мира, и открытые вопросы конечно интересные, но многое и объяснено, проделан путь в несколько тысяч лет и тд
он должен быть способен самостоятельно разобраться
Вопрос, кто «он»? Отдельно взятый человек?
Ну вот опять. «Почему прикладной ИИ — не ИИ»
В философии сознания (если я не ошибаюсь), есть целый пласт вопросов, ответов на них, вопросов к ответам, итд.
Что такое разум?
Что такое смысл?
Что такое сознание…
Что такое мышление

Каждый раз, когда заходит разговор про AI, кто-то воспринимает термин AI, как «интеллект, аналогичный человеческому» и начинает задвигать те же(банальные по сути) вопросы по отношению уже к искусственному мышлению.
Кто-то начинает давать ответы
Кто-то задавать вопросы к ответам.
И в комментариях/репостах начинается диспут по философским проблемам, которые обсасываются со времен Декарта (если не Платона)

И всё это на фоне практической задачи и практического же решения этой задачи, к которым, кто-то имел неосторожность применить термин AI.
Каждый раз, когда заходит разговор про AI, кто-то воспринимает термин AI, как «интеллект, аналогичный человеческому»
Это они расширяют терминологию, чтобы кто-нибудь мог вклинить гениальную мысль «Они нас поработят!»
Обычные игрища философов, бла-бла. Искусственного разума не может существовать по определению, потому что то, что удалось решить искусственно — автоматически объявляется не входящим в понятие разума.

И эту мысль философы уже полста лет продолжают облекать в миллионы слов. Кушать-то надо, и реноме поддерживать…

Видимо, нужна специальная свёрточная сеть, которая будет специализироваться на создании философских эссе. Улучшаясь, она постепенно лишит работы белковых философов, и проблема решится сама собой.

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

После чего она займется вопросами самосознания, и WAIT, OH SHI--

Что значит "решить искусственно"? Сеть учится и прогрессирует, а программист даже охватить в голове это не может. Это уже совсем не то, что "программирую 2+2 и ожидаю получить 4". Речь идет о чем-то сродни "смастерить и воспитать Буратино".

1. Как структурировать информацию, которую личность (человек или ИИ) получает из окружающего мира?
2. Как связывать эту структурированную информацию с миром, то есть, как построить понимание мира личностью?
3. Как синхронизировать это осмысление с другими личностями? (В противном случае общение окажется невозможным, и интеллект получится необъяснимым и обособленным).
4. Почему личность что-то делает? Как запустить всё это движение?


Религию забыли. (С)

Без религии человек не человек, а не пойми кто. Обезьяна, не более того.

А с религией — обезьяна с религией.
u010602
А с религией — обезьяна с религией.

Обезьяна с религией и есть человек. (С)

Обезьяна без религии — есть просто обезьяна (или «атеист» — это синоним).

Да, есть попытки найти в поведении обезьян некоторые религиозные моменты — но эти попытки (и примеры) не убедительны — типа где-то (в глубине Африки) кто-то видел (довольно давно) стаю обезьян которая довольно часто кидала камни в расщелину дерева. — На основании этого делать вывод что обезьяны исповедуют какую-то религию довольно опрометчиво.

Обезьяны, как и атеисты — не исповедуют никакой Религии. (С)

Отличие обезьян от атеистов в том, что атеисты были взращены фактически людьми (то есть обезьянами исповедующими Религию), но потом отринувшие религию и вернувшиеся практически к обезьянам.

А проводить опыты, ориентироваться по сторонам света и даже считать — это и птицы умеют, не то что обезьяны.

Так что главное чем отличаются животные от людей — это не устный счёт и не предметы охоты (видео как птица ловит рыбу на приманку из кусочка дерева доступно в инете всем), а религия и только религия. — Про это отличие один учёный-биолог уже и книгу написал.

P.S.
realbtr
Смысл, это когда есть некая ясность понимания.

А ясность понимания происходит тогда и только тогда когда есть некий смысл? Я вас правильно понял?

realbtr
В сочетании символов «МАМА» мы обнаруживаем смысл, а в сочетании «ФХЩЫ» нет (если исключить извращения, остаться в чисто бытовых, повседневных рамках).

В сочетании "Мааа мааа раау" есть смыл или нет? Не улавливаете?
Хорошо, а в сочетании: «Чао нам паааааат пааать сааал фаааы?»

realbtr
Понимание — это определенность соответствия признаков чему-то уже знакомому. То есть мы обобщаем признаки и понимаем, что ранее их уже обобщали.

Это верно. Но разве Религиозный опыт не есть обобщение, наследование и применение ранее случившегося реального события?

realbtr
Системы выявления и обобщения признаков — это хорошее, годное направление исследований ИИ.

Эдак и к Библии можно прийти. (С)

realbtr
Разумеется, многие исследователи по своему могут видеть проблему сознания и понимания, проблему рассудка и рассудочной деятельности, саму проблему поведения (осознанного поведения, т.е. поведения выводящего новые способы действия, в отличие от автоматического повторения уже сложившихся шаблонов)

Если компьютерная программа выводит новые способы действия разве она от этого станет разумной? ©

Вывод? — Разум спрятан только в Религии. Без религиозного сознания и сознания нет. (С)

Религия же есть Традиция. (С) То есть быть религиозным это означает следование традиции, которая сама возникла как реальное действие приводившее к цели в прошлом.

Не путать Религию и высосанного из пальца «Макаронного монстра».

Фактически — религиозное поведение — есть поведение аналогичное поведению «эгоистичных генов».

Но "эгоистичный ген" — он тупой ген (по крайней мере так считает Ри́чард До́кинз).
Но несмотря на его «тупизну» — он двигается всё время к успеху.

Религиозное поведение аналогично. Оно просто и очень просто. Никакой отсебятины и гипотез. Только опора на традиции порождённые реальными событиями в прошлом.

Но ведь копирование копий (симулякр), следование традициям которым тысячи лет, может приводить к… сбою, к искажению, к… «мутациям»? — Всё верно. Так и происходит. Аналогично… генетическому алгоритму!

Аналогии, аналогии — они ничего не доказывают, но они постоянно применяются с целью… понять смысл. — То есть получить религиозный (мистический) опыт (вспышку, озарение) — который и называется смыслом.

Имхо, конечно, имхо. (С)

Больше не забывайте принимать Ваши таблетки.
Все вы верно пишите, принципиальных отличий между человеком и обезьяной нет. Т.к. человек и есть обезьяна. А отличие между религиозным человеком и не религиозным — да только религия. Банальщина собственно. Но только не нужно переназначать термины. Человек это такой вид обезьян, и генетический анализ определяет кто человек, а кто нет. Коматозное тело без мозга — то-же человек.
Мне иногда кажется, что скайнет будет топтать наши черепа, и все равно будут «философы» рассуждающие есть ли у скайнета интеллект или нет. Как будто у них есть материальная заинтересованность, не признавать современные когнитивные системы искусственным интеллектом, получать гранты и продолжать искать божественное начало в ИИ.
Конечно же есть. Это продолжение древнейшей темы — есть ли душа у женщин, негров, иноверцев и т.д.

Если нет, то значит их можно смело уничтожать или порабощать. Мысль о человекоподобном ИИ многим не дает покоя — ведь с ним в итоге придется (о ужас!) договариваться, выделять ему какие-то там права. А вот если это «не полноценный» ИИ, то можно делать все.
Да, похоже что вы правы.
Золотые слова.
Также он отвечает за мгновенное обучение, когда личность воспринимает концепцию сразу – такие вещи не способны объяснить такие основанные на статистике модели, как глубинное обучение.

Интересно, как такая позиция согласуется с тем, что в нейросети, занимающейся предсказанием следующей буквы в текстах отзывов о товарах, обнаружился нейрон реагирующий на эмоциональную окраску текста. Чем не мгновенное обучение? Показываешь этой сети — вот хороший отзыв, вот плохой отзыв, а она тут же — "о! у меня уже есть для этого специальный нейрон".


https://arxiv.org/abs/1704.01444


Естественно, структура сети пока слишком примитивна, чтобы сеть могла заметить и отреагировать на такой "момент озарения", но истинность приведённой цитаты уже достаточно сомнительна.

ИИ, по сути, не понимает, что происходит

дальше можно не читать
НЛО прилетело и опубликовало эту надпись здесь

Почему никогда на Хабре и ГТ, рассказывая про нейросети, не упоминают ключевое отличие процессов их обучения и функционирования от таковых в "органическом" мозге?
В мозге не только веса входов нейронов изменяются, там ещё и образуются новые связи между нейронами, и исчезают старые — перестраивается сама конфигурация сети.
Без такой фичи нейросеть будет получаться заточенная только на 1 задачу. Либо игра го, либо распознавание образов. Вместе — никак. И никакого AI не получить из набора "решателей узких задач".

Ну почему? Нейросеть можно заточить под 10 задач, если вас вас устроит 10% успешность решения этих 10ти задач.

Да, недавно была на хабре статья как раз про подобное.
Но, пожалуй, так не устроит ))

образуются новые связи между нейронами и исчезают старые — перестраивается сама конфигурация сети
Используйте полносвязные слои. Нулевой вес эквивалентен разрыву связи. Сети с переменной топологией тоже используются, но значительно реже, вероятно, в связи с неэффективным использованием памяти на больших сетях и несколько более сложным обучением на GPU.

У человека порядка 10^10 нейронов.
Если хотим делать AI умнее человека, то придется примерно столько нейронов и брать, а лучше — еще больше.
Железо пока не тянет такие полносвязные слои.


Специализация участков сети (как и у человека) несколько ослабит проблему. Т.е. можно делать несколько специализированных сетей + полносвязный слой с интеллектом, который их объединяет и использует.
Предположим, на полносвязный слой пойдет 1/10 часть — т.е. 10^9 нейронов, это 10^18 связей (примерно 2^60).
Все равно много. AI пока недостижим.


Если на каждую связь по 1 байту памяти выделить, то 1 ТБ памяти хватит на полносвязную сеть из миллиона нейронов. На таком жалком количестве AI не получить.


Может все же лучше думать в сторону реализации механизма изменения конфигурации сети?

Может все же лучше думать в сторону реализации механизма изменения конфигурации сети?
Сэкономите в памяти (не забываем о том, что список связей тоже придётся где-то хранить), на порядки проиграете в скорости вычислений, т.к. вместо обычного умножения матриц придётся вычислять все значения отдельно. Это может быть более или менее оправданным, если архитектура вычислителя будет соответствовать архитектуре сети. Скажем, с использованием ASIC.

Нет такой альтернативы — экономить на памяти или не экономить.
Можно лишь рассматривать разные варианты экономии. Таки придется уменьшать связность и т.п.
А когда сэкономим в триллион раз на памяти (по сравнению с полносвязной сетью), то и общее быстродействие от этого только возрастет.

Не заметил у себя ничего самопротиворечивого.
Полносвязная сеть сейчас практически нереализуема для количества нейронов более 1 млн.
Для того, чтобы это понять, не нужно никакого практического опыта, достаточно знать арифметику и типичные объемы памяти современных устройств.
1 млн нейронов слишком мало для AI.
Поэтому ваше предложение "Используйте полносвязные слои. Нулевой вес эквивалентен разрыву связи." не проходит.

Полносвязная сеть сейчас практически нереализуема для количества нейронов более 1 млн.
Поэтому на практике используют различные топологии, более эффективные в решении конкретной задачи.
1 млн нейронов слишком мало для AI.
Раньше Вы утверждали, что есть некое ключевое отличие, а теперь всё свелось лишь к недостаточности числа нейронов. Все это знают, проблему решают по-разному, в т.ч. и снижением связности. У нас с Вами, вероятно, разные требования к AI, у меня нет желания «делать AI умнее человека», мне нужно, чтобы алгоритм успешно решал мои практические задачи, а не рефлексировал относительно собственного бытия.

Мы пишем комментарии к статье с определенной темой. Статья — о том, что есть хорошие наработки решения узких задач, но...


приведут ли они нас к настоящему, полному ИИ, к обобщённому интеллекту, или ОИ? Вряд ли – и вот, почему.

Лично я согласен с автором статьи, что набор решенных узких задач — это не предел наших пожеланий к AI.
От AI хочется большего, чтобы он как минимум мог учиться (intelligence = the ability to acquire and apply knowledge and skills) в произвольной области, не ограниченной наперед небольшим набором правил. Т.е. чтобы AI мог воспринимать новые правила и факты без помощи человека, мог самостоятельно сформировать себе под эти правила внутреннюю вспомогательную нейросеть.
И в своем первом комменте я указал, что человек умеет это делать, а текущие реализации узких AI — нет.


Раньше Вы утверждали, что есть некое ключевое отличие, а теперь всё свелось лишь к недостаточности числа нейронов.

Ключевое отличие — в том, что мозг умеет перестраивать связи между нейронами, а железные нейросети — нет.
Далее вы сказали, что полносвязная сеть решает проблему, а я возразил, что практически — таки нет, из-за появляющегося жесткого ограничения на количество нейронов, которое нам доступно при имеющихся объемах памяти.


У нас с Вами, вероятно, разные требования к AI, у меня нет желания «делать AI умнее человека», мне нужно, чтобы алгоритм успешно решал мои практические задачи, а не рефлексировал относительно собственного бытия.

Исходная статья и мои комменты относятся к теме выхода AI за пределы узких предопределенных задач.

Есть идеи, по какому принципу генерировать новые связи, за исключением случайного подключения с сохранением критичных для решения задачи связей?

Я бы попробовал так.
Основа — сеть с уже хорошей связностью.
К ней — дополнительные связи, которые могут создаваться и разрушаться, в количестве сравнимом с фиксированными связями.
Нужна будет функция, определяющая важность (вес) связи.
Связь уничтожаем, когда её вес мал.
Сложнее будет решить, где создавать новые связи.
Все же, если их все создавать полностью случайным образом, то прогресс обучения может оказаться слишком медленным.
Хорошо бы определить правило поиска ключевых нейронов (или их групп), от которых пойдут новые связи. Концы для новой связи можно уже пробовать выбирать случайно.
Если такого правила нет, то периодически можно "равномерно" разбрасывать по сети немного случайных связей.
Если новые связи приобрели большой вес, то докидываем рядом к ним еще — соединяем соседние нейроны.

Все же, если их все создавать полностью случайным образом, то прогресс обучения может оказаться слишком медленным.
Можно подключать только нейрон с максимальными значениями ошибки в слое (получаем при backprop).

На самом деле лично мне сложнее придумать, как уничтожать ненужные связи (кроме откровенно нулевых, что бывает не так часто): для этого в худшем случае придётся сохранять состояние сети, обрывать связь, дообучать без связи, тестировать результат, и только в этот момент мы узнаем, стоило ли разрывать эту связь. Ооочень медленно.

Для специализированных сетей обрывы ведут к ухудшению, это понятно.
Но если это механизм для "сознания" AI, которое будет подключать в работу другие нейросети, которое исходно обладает большой собственной (неразрушаемой) связностью, то может небольшое временное ухудшение даже ни на чем и не скажется?


По-моему не надо тестировать результат и откатывать к предыдущему состоянию этот блок AI.
Для него нормально постоянно быть в изменении, он же не должен идти к стабильному наилучшему состоянию, как AlphaGo или сеть распознавания породы котиков на картинках.

НЛО прилетело и опубликовало эту надпись здесь

Отличие весьма существенное для процессов обучения.
Можно не называть его ключевым, какая разница.

Будто бы нельзя над пачкой заранее подготовленных «решателей узких задач» поставить «решатель широкой задачи», отвечающий за выбор узкого решателя для конкретной задачи либо оптимизацию ближайшего подходящего решателя. Ну, например, есть в комплекте сетка для игры в шахматы, а ИИ заставляют играть в шашки.

Мне кажется, даже если создатут такой ИИ, который в реальном времени сможет учиться делать работу, к которой его не готовили, все равно продолжат писать статьи, что это на самом деле не интеллект и не разум.
Еще бы ссылки на упомянутые исследования/эксперименты указать.
Вопросы поднимаемые вполне традиционно. Можно ли называть слабый интеллект — интеллектом? Достаточно лишь когнитивных функций?

Однако, эти вопросы действительно необходимо задавать. И то, что отвечать на эти вопросы сложно и неудобно, не значит, что от них можно отмахнуться.

Что такое смысл? Можно долго рассуждать и приводить рассуждения других людей прошлого и настоящего.
Но каждый человек вполне отличает смысл от бессмыслицы. Смысл, это когда есть некая ясность понимания. Что-то является определенным. В сочетании символов «МАМА» мы обнаруживаем смысл, а в сочетании «ФХЩЫ» нет (если исключить извращения, остаться в чисто бытовых, повседневных рамках).

Понимание — это определенность соответствия признаков чему-то уже знакомому. То есть мы обобщаем признаки и понимаем, что ранее их уже обобщали.

Системы выявления и обобщения признаков — это хорошее, годное направление исследований ИИ.

Семантический разрыв, это конечно же не только проблема масштаба. Сейчас нет полной академической определенности, достаточно ли уже существующих методов выявления признаков и их обобщения для преодоления семантического разрыва простым накоплением уровней обобщения или нет.

Но, есть надежда, что принципиально новых методов не потребуется. Технические решения — да.

Но само определение понимания как двух функций выявления признаков и их обобщения вряд ли претерпит существенные изменения.

Можно вполне заявить — функциональные требования определены. Необходимы подходу к их технической реализации.

Разумеется, многие исследователи по своему могут видеть проблему сознания и понимания, проблему рассудка и рассудочной деятельности, саму проблему поведения (осознанного поведения, т.е. поведения выводящего новые способы действия, в отличие от автоматического повторения уже сложившихся шаблонов)

Условно говоря, пока мы видим исследования уровня шагохода-гексапода (и размышления об эмерджентности сознания или хотя бы некоторого набора феноменов, обычно связываемых с сознанием).

То есть сегодня исследователи проблематики общего (автономного) ИИ занимаются интеллектом масштаба таракана/мухи.

Но по мере вылизывания принципов и способов их реализации, можно предположить, что на подходе котики. Маленькие. Слепые. Но уже с поведением, развивающимся и адаптирующимся и с отражением некой воспринимаемой объективно и субъективно картины окружающего мира.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории