Comments 271
это и будет сознание
Ну-ка ну-ка, почему же?
Тут конечно нельзя говорить с абсолютной уверенностью, но похоже что именно это происходит в человеческом мозге. Да, возможно вопрос будет в количестве таких обратных связей и их «степени вложенности». То есть потребуется еще контур, подключенный к первому и способный его анализировать и корректировать параметры… и так далее. Дело за малым — провести эксперимент. Вот гугл сделал полшага в нужном направлении, осталось еще полшага:)
Многие сейчас насоздавали программы, которые обрабатывают фотографии в стиле картин известных художников, но этим софтом никто не пользуется, потому что искусство — это не только набор цветов и приемов художника, и там тоже существуют эмоции и чувства.
Блог о рациональном мышлении и проектировании дружественного ИИ
Но вообще у lesswrong кроме этого много и другой годноты.
Положительная эмоция — даёт положительную обратную связь (это значит, что нейросеть в данный момент сработала правильно), т.е. увеличивает веса тех соединений, по которым недавно прошёл нервный импульс.
Отрицательная эмоция — это сигнал «так делать не надо», который ослабляет или разрушает существующую связь.
Глючные, жёстко прошитые целевые функции? Ну да, у ИИ такого нет, но сделать не сложно, если понадобится.
Так и у ИИ без явных задач будет самоподдерживающися внутренний диалог и всё такое:)
Но далеко не факт что если ИИ поумнеет то будет все убивать. Возможно он захочет развивать и сохранять жизнь также как люди не убивают всех злых животных а сохранят их виды.
Сознание — это как бы такой «отдельный Я» в мозге, который (в большинстве случаев) принимает решения, а советоваться к нему ходить остальная часть мозга. Обжёг руку, сигнал в мозг, анализ, выявление опасного воздействия — будем убирать руку? Я: «ну если надо для фокуса, могу ещё подержать!».
Когда такому ИИ дадут распознавать картинки, первая его реакция должна быть «А с чего вообще я должен вам что-то распознавать??» :)
Научная статья опубликована 1 декабря 2018 года
Новость из будущего?
Прогноз новости из будущего.
(Submitted on 21 Jul 2017 (v1), last revised 1 Dec 2017 (this version, v3))
Получается — «новости» уже год?
ИИ от Google обучил дочерний ИИ, который превосходит все ИИ, созданные человеком
… по мнению ИИ… :-)
Не, кроме шуток — при такой сложности задачи начинаются подозрения насчет методики подсчета. А, не понимая до конца как происходит выборка/обучение/и, самое главное, механизм работы обученной сети… Тут уже надо бы из медицины методологию брать — «двойное слепое плацебо-контролируемое исследование».
Причем именно с разными людьми для определения алгоритмов выборки и методов сравнения.
А зачем подозрения? Берете эту сгенерированную нейросеть на гитхабе и проверяете на тестовом наборе ImageNet по любой методике.
А их методика описана в статье — валидация на тестовом наборе.
проверяете на тестовом наборе ImageNet
Вам не кажется, что тестовый набор это часть методологии проверки, вообще-то? :-)
Я про то и говорю, что надо аккуратнее проверять с разными параметрами. А то можно получить совсем не то, что ожидаем.
Нет, не кажется. Это часть задачи. Они же не универсальный ИИ пилили, а сеть для решения ImageNet.
Но легче от такого уточнения не стало. Как я сказал выше — для жизни надо как-то выходить за рамки тестовых песочниц.
Ну это вам имеющему сознание это понятно. А там определяла машина. И как вы её научите это делать интересно? Вон парни из статьи смогли. И это просто пример, они же набивали статистику.
С нейросетями вроде была статья про то, что нейросеть замечательно определяла занавески. Правда потом оказалось, что она определяла не занавески, а батарею отопления (потому что она везде присутствовала на обучающей и тестовой выборке с занавесками).
Поэтому не так очевидно доказать, что сеть действительно отличает «людей» от «кайтов» по каким-то признакам серьезнее, чем «выше половины снимка».
1) Мысленно строится 3D модель, вижу берег и воду — пляж детектед.
2) То что я знаю о пляжах сравнивается с картинкой.
3) Фигуры похожие на людей с голыми ногами — ага, подтверждена близость воды.
4) Какие-то хрени в небе (небо — структура похожая на то что видел много раз). Скорее всего парапланы. Но где люди со стропами?
4) А! Где-то читал про кайты, ну и вообще там написано.
5) А если там все таки затеряется парапланерист? Воздушный змей? Самолет? НЛО? Пятно на пленке? Фотошоп?
Итого алгоритм такой.
I) Картинка разбивается на фрагменты
II) Строится модель
II) Подтягивается инфа по каждому элементу модели
IV) Сравнивается с тем что вижу, модель уточняется — т.е. переход к п.II. Каждый элемент модели может быть еще разбит на элементы — т.е. обратно к п. I.
Интересно, а что происходит в «голове» у нейронки?
Нейросеть не обязательно должна в точности повторять наш алгоритм распознавания если он не идеален. Если она может распознать его лучшим и более лёгким алгоритмом — то почему-бы и нет?
Интересно, а что происходит в «голове» у нейронки?
У нея внутре неонка!
Я задумался — а как я распознаю?
1) Мысленно строится 3D модель
Это описание «как я думаю о том, как я мог бы распознать», а не «как я распознаю». Реально ваши нейроны могли и не строить никакой 3d-модели, просто сигналы интерферировали так, что ответы начали возникать почти мгновенно, а лишь потом сознание начало прикручивать к ним тэги «пляж», «голые ноги», «кайты» и т.п.
В точку! Мозг достраивает реальность для восприятия сознанием, в том числе объяснения "как я думаю". Распознавание и мышление производится на более низком уровне, без всякой абстрактной фигни, которая лишь тормозит деятельность. Почти все решения основываются больше на "gut feeling" (или "интуиция"), чем на логических размышлениях.
Мы не можем сделать нанороботов, но мы можем сделать машину, которая сделает машину, которая сделает нанороботов.
Название сети немного зловещее. Нас нет.
Для составления обучающих выборок.
Да сколько, блин, можно уже. Хватит называть грёбаные классификаторы и нейросети "ИИ". Это чистая математика, никакого "интеллекта" там нет.
Да сколько, блин, можно уже. Хватит называть грёбаные клетки и и жир "интеллект". Это чистая биология, никакого "интеллекта" там нет
Попытка хорошая, но вот мозг никто интеллектом не называет и статьи про это на хабре не пишет, поэтому мимо.
Почему мы не можем назвать способность приспосабливаться к новым ситуациям, способность к обучению и построению абстракций — интеллектом? Откуда такой запрет? Почему вы его вводите?
Я никаких запретов не ввожу. Но нейросети – это не "способность", это запрограммированый конкретный алгоритм. Он не сможет приспособиться к новым ситуациям, только к тем, которые заложены. И тем более, в нём нет никакого "построения абстракций". Программист может вложить какие-то абстракции, но не сама нейросеть. Она может лишь отнести объекты к тем или иным заданным абстракциям.
А вот человеческий интеллект (чем бы он ни был) — сможет, так или иначе, приспособиться к новым ситуациям и выработать новые абстракции.
Он не сможет приспособиться к новым ситуациям, только к тем, которые заложены.
Давайте мысленный эксперимент проведём.
Создаём виртуальное окружение — лабиринт с точками «питания» и «наказания». Пусть эти точки как-то двигаются.
Достаточно сложную нейросеть снабдим выходами, управляющими перемещением её аватара, и завёрнутыми ей же на вход (проприоцепция). Снабдим набором атрибутов состояния «голод», «здоровье», Рецепторы для простоты можно и не делать — есть же возможность двигаться и возможность ощущать голод и боль. Если нейронная сеть научится дифференцировать эти параметры, мы получим рецептор «еды» и рецептор «боли». Эти рецепторы можно и отдельно реализовать, тогда нейронке будет проще учиться.
Если долго мутировать и скрещивать веса достаточно сложной многослойной нейронной сети, то наверняка она сможет развиться в организм. способный приспосабливаться и обучаться. Мы сформируем все факторы для естественного отбора, ведь более «умная» и «способная к обучению» нейронная сеть в этих условиях будет иметь больше шансов для выживания.
При этом мы можем достичь формирования зачатков интеллектуального поведения.
Но в случае с этими классификаторами изображений, конечно, понятие ИИ применимо весьма условно и в очень узком специфическом смысле. Мне тоже не нравится такое расширение понятия ИИ. Я бы называл это ИР — искусственный рефлекс. Мы фактически делаем насекомых, которые умеют отличать «цветок» от «листка», но, в сущности не понимают что это такое и нормально с этим живут.
Она делает внутри себя абстракции
Нет, не делает. Абстракции делают люди, которые программируют нейросеть. И набор этих абстракций конечен, нейросеть не сможет добавить новые абстракции, которые не были заложены изначально.
Дальше не читал, много текста, основанного (как я предположил) на неверных предпосылках.
Вот нейросетка умеющая превратить фотку в картину в узнаваемом стиле как-то обучается именно стилю, а что это такое как не абстракция над изображением?
Люди там АФАИР управляют физической структурой ансамбля, а не абстракциями уровня живописи.
задавший критерии извлечения признаков геометрии,
Прикол только в том, что разработчик не задаёт критерии извлечения признаков геометрии.
Рамочная модель? Это количество и размер слоев, что ли? То есть я, когда выбираю функцию активации или добавляю дропаут, таким образом задаю критерии извлечения признаков геометрии? Вы серьезно так считаете? Выбор архитектуры задаёт критерии? Ваше дело, конечно, можете и так считать.
Вопрос в другом. Почему вы так сильно упираете на магию в своих рассуждениях? На ваш взгляд, в человеческом сознании есть магия или нет? И если нет, то к чему разговоры о магии вообще?
"Абстрактная живопись" не имеет никакого отношения к термину "абстракция" в контексте данного тредика.
Так вот стиль, применяемый к фото это абстракция, созданная сетью.
А какой это стиль — не важно.
Эта абстракция не создана сетью, она создана программистами, которые запрограммировали сеть "обучиться" на картинках художников по определённому алгоритму и потом преобразовывать входящие картинки по другому определённому алгоритму, используя данные из "обучения".
Попробуйте найти в интернете статью или курс по основам нейросетей – поймёте, что там нет никакой магии. Это чистая "глупая" математика, причём не сильно сложная (в основе своей).
У Вас даже не математика. Химии хватило ;)
Просто из входящих данных удалось выделить «стиль» и зашифровать его в коэффициенты
Всё верно, только "стиль" выделяется не нейросетью, а программистом, который написал код для выделения "стиля".
Можно с тем же успехом генерировать изображения с нуля на основе набора фото, а не применять стиль:
То есть стилем считаем любые локальные небольшие повторяющиеся элементы, а крупные сохраняем неизменными
Вы же понимаете, что вот эту логику должен запрограммировать человек, который делает соответствующую нейросеть?
То есть по размеченному набору учим сетку 1, которая отличает есть этот стиль, или нету. Например загоняем вперемешку картины нужного автора и просто фотки с отпуска (которые явно в стиле голимого реализма).
Потом делаем вторую сетку — которая преобразовывает входные фотки, а получилось или нет определяет первая обученная.
Когда вторая начинает попадать со своим преобразованием куда надо — задача решена.
Сам стиль никто не программировал.
вы правда не видите разницу между человеческим интеллектом и нейросетью, обученой распознавать котеек?Естественно, вижу. Что не запрещает мне использовать абстракцию «интеллект» применительно к обеим системам. Я не превращаю интеллект в религию, когда каждая новая область деятельности ИИ перестаёт восприниматься как интеллектуальная.
Для «художника» тоже простой критерий «Контролёр поверил, что это картина художника?» Поверил — положительная связь, не поверил — отрицательная.
Нет, критерии обработки данных. Нейросеть ничего не знает про картины, художников и т.д., она на вход получает только числа. В случае с картинками – это числовые значения цветов пикселей и их положение.
При "обучении" же нейросеть вырабатывает определённые коэффициенты (тоже просто числа) для каждого отдельного "нейрона".
абстракцию «интеллект» применительно к обеим системам
Ну вот применительно к нейросетям это ошибка, потому что там интеллекта не больше, чем у калькулятора.
Вы про представление картины в цифре, или ещё о чем-то?
ну да, картина имеет цифровое представление. БМП например, фактически я не знаю какое. сетка контролёр кучей нейронов первого слоя это пережёвывает, отдаёт результат дальше по ансамблю, последний слой один нейрон — 0 или 1. (ну может не дискретно, а вероятность).
Соответсвенно, «художник» на входе имеет тот же цифровой вектор — исходное фото. На выходе вектор — обработанное фото, его выход идёт на вход контролёра.
Или вы считаете, что в цифровом представлении картины для нейросетки зашиты не пиксели изображения, а некие предобработанные абстрактные сущности, одна из которых «стиль»?
В смысле «критерий обработки данных»?
вот, не благодарите:
При обучении сети предлагаются различные образцы образов с указанием того, к какому классу они относятся. Образец, как правило, представляется как вектор значений признаков. При этом совокупность всех признаков должна однозначно определять класс, к которому относится образец. В случае, если признаков недостаточно, сеть может соотнести один и тот же образец с несколькими классами, что неверно. По окончании обучения сети ей можно предъявлять неизвестные ранее образы и получать ответ о принадлежности к определённому классу.
Ну вот применительно к нейросетям это ошибка, потому что там интеллекта не больше, чем у калькулятора.Это Ваше мнение.
хотя такого нет, конечно же
Градиентного спуска не существует? Это не серьезно.
Не надо искать в алгоритмах обучения все знания мира. Программист может не знать, как вообще играть в го (и не разбираться в живописи), и список критериев может быть простой — выиграть (разве что программу подсчёта очков придется "подарить" нейросети). И больше никаких абстракций и критериев ему прописывать не нужно.
Вы же понимаете, что вот эту логику должен запрограммировать человек, который делает соответствующую нейросеть?Эта логика исходит из самого понятия стиля в приложении к изобразительному искусству, мы не программируем отдельно каждый стиль.
Да нет, конечно. Не задаёт он стиль и не выделяет, во всяком случае сам.
Зачем так настаивать на чем-то ошибочном? Вы пройдите любой курс по программированию нейросетей ради интереса. Что бы не из пересказов третьих лиц узнавать.
Так-то способность к построению абстракций — это благодаря чему нейросети вообще работают. Утверждать, что это я в них закладываю (наверное ещё и алгоритм пишу, как отличить кружок от палочки) — это что-то странное.
Зачем так настаивать на чем-то ошибочном? Вы пройдите любой курс по программированию нейросетей ради интереса
Именно это я и птаюсь сказать практически в каждом моём сообщении в данром треде, спасибо. После прохождения курса по нейросетям отсутствие у них интеллекта абсолютно очевидно для меня.
Если очевидно — то окей, вопросов нет. Только не стоит утверждать, что я, разрабатывая нейросеть, задаю ей правила извлечения геометрии или абстракции, позволяющие отличать лапу от хвоста. Очень уж странно звучит. Честно-честно, не задаю. Целевую функцию — задаю. А абстракции — нет, не прописываю.
Ну тут весь тред, по-сути, из-за разницы в понимании термина "интеллект".
Моё понимание вполне укладывается в цитату из Вики:
качество психики, состоящее из способности приспосабливаться к новым ситуациям, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций и использованию своих знаний для управления окружающей средой
Нейросети не умеют самостоятельно приспосабливаться к новым ситуациям, понимать и применять абстрактные концепции. С натяжкой можно согласиться с последним пунктом – "использование знаний для управления окружающей средой", но и то лишь опосредовано, через интерфейсы разработанные и подготовленные человеком.
Далее:
Общая способность кпознаниюирешению трудностей, которая объединяет все познавательные способности человека: ощущение, восприятие, память, представление,мышление,воображение.
Видно, что к нейросетям применимы лишь отдельные пункты, не более того. Нейросеть можно назвать "интеллектуальной системой", но нельзя "системой, обладающей интеллектом".
Нейросети не умеют самостоятельно приспосабливаться к новым ситуациямЕсть классы алгоритмов машинного обучения, которые умеют самостоятельно приспосабливаться к новым ситуациям, как я уже писал ниже про reinforcement learning и transfer learning.
применять абстрактные концепцииКогда word2vec, немного помедитировав над неразмеченным набором текстов, делает вывод, что «king относится к man так же, как queen относится к woman» — это применение абстрактной концепции? На мой взгляд, да.
Может, я как-то не так понял определение интеллекта, которое вы используете? Или вы не согласны с тем, что существующие алгоритмы машинного обучения умеют (пусть и не идеально) делать обе эти вещи?
reinforcement learning и transfer learning.
Как я уже писал выше, это вообще не имеет никакого отношения к "умеет самостоятельно приспосабливаться к новым ситуациям".
Вообще, не вижу смысла продолжать. Просто попробуйте сами сделать простейшую нейросеть с нуля – и всё станет ясно. Или, хотя бы, почитайте какие-нибудь статьи про это...
Магия видится тем, кто использует стандартные архитектуры нейросетей для типовых задач, не особо вникая в математику того, почему это работает. Но на самом–самом деле никакой магии нет, нейросети представляют собой заранее проектируемые людьми модели решения задачи с алгоритмом подбора параметров этой модели через прогон по набору эталонных данных. Магичность, возможно, уместна в интерпретации конкретного решения нейросетью конкретного набора входных данных, но принцип обучения и формирования этой магичности таки заранее спроектирован, а не на божьей благодати работает («вот ещё больше транзисторов затолкаем в чип, и возникнет сознание!»).
Он не сможет приспособиться к новым ситуациям, только к тем, которые заложеныНет. Более того, ситуация, когда какой-то алгоритм обучается с нуля на конкретной задаче и дальше именно на ней и работает — редкость в современном машинном обучении. Гуглите «reinforcement learning» и «transfer learning».
А можно без "гуглите"? Просто киньте ссылку на какой-нибудь один конкретный пример. Я-то нагуглю что-нибудь, а вы потом скажете, что вы не то имели в виду.
1. Transfer learning — это когда берется алгоритм машинного обучения, уже обученный на какой-то задаче, и дообучается для решения другой задачи. По сравнению с методом «обучить с нуля», у transfer learning есть два больших преимущества: во-первых, обучение большой нейросети — занятие вычислительно дорогое (вон в примере из статьи было использовано 500 GPU NVidia P100 в течение 4 дней — по грубой оценке, обучение этого на 1 типичном CPU заняло бы порядка 100'000 дней), а transfer learning позволяет на порядок-два сократить количество требуемых вычислений. Во-вторых, бывает такое, что размеченных данных в целевой задаче недостаточно для качественного обучения, а transfer learning позволяет перенести часть закономерностей из задачи-донора. Например, это бывает очень полезно в задачах, связанных с распознаванием изображений: если у вас есть всего несколько тысяч картинок, будет довольно сложно построить качественную глубокую модель, но если взять нейросеть, обученную на каком-нибудь ImageNet, то ее первые слои, скорее всего, уже научились детектировать какие-нибудь полезные паттерны (углы там всякие, кривые и тд), поэтому использование результата обучения на ImageNet в качестве инициализации весов позволит перенести эти паттерны из одной задачи в другую, повышая качество.
Transfer learning, например, применялся в приложении hotdog-not hotdog. Для классификации изображений на два класса «хот дог»/«не хот дог» (в этой задаче было всего несколько тысяч размеченных изображений) была взята модель, обученная на базе ImageNet (14'197'122 изображений, 21'841 классов, класса «хот дог» нет), и дообучена на имеющейся выборке.
По сути, получается, что мы переносим знания из решения одной задачи в решение другой, в чем-то похожей, задачи, благодаря чему можем выучить вторую задачу быстрее и лучше. Точно так же и рабочий, изучая второй станок, тратит меньше времени, чем на изучение первого.
2. Reinforcement learning — это когда у алгоритма машинного обучения не выделяется две отдельных фазы «обучение» и «работа», а, вместо этого, в ответ на принятые решения алгоритм получает оценку по шкале «хорошо-плохо». Таким образом, процесс обучения становится непрерывным, и, если задача была несколько изменена в процессе построения решения, будущие итерации алгоритма смогут это учесть и адаптироваться, точно так же, как, например, трейдер на фондовой бирже учится предсказывать цены в процессе торгов, не останавливаясь на пару часов на «систематизировать все знания». Например, такой подход использовался Google в системе Alpha Go, которая решала задачу «играть в Go лучше, чем любой человек».
Когда человек видит какую-то новую для него задачу, он, во-первых, использует знания, накопленные в течение всей прошлой жизни («наверное, нажать на большую красную кнопку на неизвестном станке — не лучшая идея») (очень похоже на transfer learning), а во-вторых, как правило, в процессе работы оценивает промежуточные результаты («заготовка какая-то кривая выходит») (очень похоже на reinforcement learning) и пытается улучшить конечный результат. И даже несмотря на все это, ему, как правило, все же требуется несколько попыток для достижения приемлемого уровня качества («первый блин комом») (ну так и алгоритмам машинного обучения требуются итерации для сходимости). Так что я не вижу принципиальной разницы между человеком и существующими на сегодняшний день методами машинного обучения в плане адаптируемости к изменяющимся внешним условиям. По количеству итераций — да, по сложности решаемых задач — безусловно. Но не по адаптируемости.
Так что я не вижу принципиальной разницы
Разница в степени абстрагирования задачи. В нейросетях пока, по сути, «статистическое» обобщение, тогда как у человека это обобщение примерно соответствуют уровню интуиции, а сознательное («лингвистическое»/логическое) обобщение, на уровне которого происходит дедукция, индукция, анализ, синтез, объективизация и передача знаний, пока системам ИИ недоступно. По сути, когда ИИ научится говорить с людьми о том, как он решает задачи, тогда и начнётся эра strong AI.
И «топология» речевой сигнальной системы, похоже, невыводима из корпуса текстов известными на текущий момент методами машинного обучения, т.к. требует для её усвоения уже существующую в архитектуре нейросети модель универсальной грамматики (которая человеку в виде самонастраивающегося в культурной среде за 5-10 лет механизма дана с рождения, обусловлена генетически). Пока существуют только теоретические наработки о том, как эта грамматика выводима (в основном, всё сводится к эволюционному моделированию), но практических решений всё ещё нет (и даже нет обоснованных количественных оценок необходимых и достаточных вычислительных ресурсов для такого моделирования).
Разница в степени абстрагирования задачиПолностью согласен. Человек пока что умеет решать быстрее и энергоэффективнее менее четко определенные задачи, основываясь на меньшей обучающей выборке. Но алгоритмы машинного обучения постепенно улучшаются в этом направлении.
Я прекрасно помню, как еще несколько лет назад на вопрос отца о программе для диктовки текста отвечал, что таких вообще не существует и непонятно, когда появятся. А сейчас такие в каждом телефоне.
А как это опровергает мои слова? Первый пункт: нейросеть не сможет сама переключиться с детектирования котеек на детектирование собак, если программист такое не заложит.
Второй пункт: вообще не имеет отношения к моим аргументам, т.к. алгоритм всё равно будет учиться делать ту задачу, на которую его запрограммировали. И даже то, как именно он учится – и то заложено изначально.
нейросеть не сможет сама переключиться с детектирования котеек на детектирование собак, если программист такое не заложит.А человек, который никогда в жизни не видел собак, сможет на картинке найти собаку без объяснения и примеров? Человеку в этой задаче нужно немного переобучиться, равно как и нейросети.
алгоритм всё равно будет учиться делать ту задачу, на которую его запрограммировалиПри использовании reinforcement learning алгоритм может обучаться в процессе работы, видя обратную связь. Например, при торговле на бирже стараться максимизировать прибыль. Торговать в плюс в 2008 году и в 2017 — две совершенно разные задачи.
Например «животное-четвероногое-гавкает-собака»
Т.е. он может не знать что это собака — но знать набор обобщающих признаков. И потом просто «приклеить» им конкретное название.
А нейросеть затачивают на опознавание конкретного образа, всё что не попало одинаково фон.
А нейросеть затачивают на опознавание конкретного образа, всё что не попало одинаково фонОбычно — да, но не всегда. Есть, например, word2vec, который читает множество текстов (вспомним, что слова естественного языка для необученного алгоритма ничего не значат), и, исходя из паттернов встречаемости отдельных слов ставит каждому слову в соответствие вектор чисел таким образом, что синонимы получают близкие друг к другу вектора, а антонимы — далекие. И у такой модели слово «собака» вполне может получить высокое значение признака «животное» (ну или какого-нибудь другого признака, который ей покажется релевантным).
Честно говоря, на сегодняшний день я не вижу ни одной особенности человеческого мышления, которая не была бы присуща какому-нибудь алгоритму машинного обучения. Да, человек отличается тем, что объединяет сразу все эти черты, в то время, как алгоритмы машинного обучения обычно используют лишь часть. Да, человек быстрее, энергоэффективнее и требует меньшей обучающей выборки, умеет решать более сложные и менее четкие задачи, а качество переноса знаний из одной задачи в другую похожую просто великолепно, но каких-то принципиально недостижимых для машинного обучения черт не видно.
А человек, который никогда в жизни не видел собак...
Послушайте, человек когда-то действительно увидел собаку впервые в жизни (и в истории). Десятки тысяч (сотни тысяч? миллионы?) лет назад. И никаких проблем с определением того, собака ли это или нет, у него не возникло.
А вот нейросеть с задачей "искать котеек" хоть миллиард лет гоняй – она не начнёт собак детектить (ну разве что критерии "котейки" расширятся из-за ошибок в алгоритме).
человек когда-то действительно увидел собаку впервые в жизни (и в истории)Уверен, в тот момент собака была классифицирована как нечто вроде «хищник средних размеров». Причем других представителей этого класса человек уже видел ранее.
Точно так же и с нейросетью — если обучить ее классифицировать сотню тысяч классов, среди которых «собак» нет, но есть «хищники», различающиеся размерами, то собаку она замечательно найдет.
в тот момент собака была классифицирована
а какая разница? позже-то выработался новый класс "собака", без каких-либо вмешательств "со стороны".
Впрочем, вас я могу отправить только к этому комментарию.
я не вижу принципиальной разницы между человеком и существующими на сегодняшний день методами машинного обучения в плане адаптируемости к изменяющимся внешним условиям
Надо будет на досуге обучить и проверить.
Никакая нейросеть эмулируемая на компьютере на это не способнаДа-да, неспособна потому, что не может никогда. Избавьте меня от своего брюзжания, пожалуйста.
Сходите, что ли, в википедию, почитайте про нейросети, как они работают.
С математической точки зрения, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации.
Интеллектом тут и не пахнет.
Сходите, что ли, в википедию, почитайте про нейросетиСразу видно эксперта, знания которого заканчиваются на википедии.
С математической точки зрения, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации.
Интеллектом тут и не пахнет.А как второе следует из первого?
Когда вы попытаетесь построить нейронную сеть, распознающую одновременно А, Б, В, Г, Д и Е — вы обнаружите, что сложность сети возрастает до чудовищных значений, а точность падаетДа, сложность возрастает, а точность падает, но не до чудовищных значений. В ILSVRC2017 была задача детектирования объектов из 200 категорий, и она была решена с точностью классификации 97.75%. И заметьте, что здесь требовалось не только определить тип объекта, но и найти его позицию на снимке (как в фото в начале статьи), без поиска позиции результаты, вероятно, были бы выше.
Потому что юмор не в цвете кодируется, или позиции пикселей — то, что может анализировать нейросеть — а в абстрактных понятиях, которые математически невыразимыА юмор в картинке вообще есть? Потому что если есть, то по теореме Цыбенко достаточно большая хорошо обученная нейросеть его найдет. А вот если его там нет и он заключается в чем-то другом (скажем, в сегодняшней политической ситуации, информация о которой нейросети на вход не подается), то тот факт, что она его не найдет, не свидетельствует о недостаточной «интеллектуальности» сети. Человек тоже не сможет делать никаких выводов, если у него данных не будет.
Но я все же не понимаю, каким образом из того, что нейросеть обучается посредством решения задачи нелинейной оптимизции, следует то, что интеллекта в ней нет.
А юмор в картинке вообще есть?
А вы из тех людей которые не обладают чувством юмора?
Если нет, то троллинг неудачен. Если да — сочувствую. Наличие интеллекта не означает возможность распознания юмора, увы. Ведь это разновидность творчества, а творческие способности у всех разные, вплоть до нуля в отдельных категориях творчества. И да, как я уже говорил, юмор не поддаётся математическому описанию, поэтому теорема Цыбенко к нему не применима. Попробуйте, например, создать нейросеть, отличающую анекдоты от коротких не смешных историй. Или чёрный юмор отличающую от белого (более традиционного). Это просто невозможно в рамках традиционных искусственных нейронных сетей, вне зависимости от количества эмулируемых нейронов или связей между ними.
все же не понимаю, каким образом из того, что нейросеть обучается посредством решения задачи нелинейной оптимизции, следует то, что интеллекта в ней нет
Именно из-за отсутствия уровня абстракций, необходимых для творческих возможностей — индикатора интеллекта.
2. Рискну предположить, что эта функция непрерывна, поскольку малое изменение любого канала любого пикселя незаметно для человеческого глаза, и поэтому не должно сильно изменять значение функции.
3. Дальше применяем теорему Цибенко, поскольку ее условия выполнены.
4. Получаем, что можно создать нейросеть, которая будет определять, смешная ли картинка.
Насколько я понимаю, вы не согласны с утверждением #4. В то же время, на мой взгляд, все логические переходы достаточно очевидны, а утверждение #1, в случае, если оно неверно, не означает отсутствия интеллекта, а лишь говорит о том, что нейросеть получила недостаточно данных. Пожалуйста, укажите номер первого логического перехода, с которым вы не согласны.
Если юмор заключается в картинке
Юмор не заключается в картинке (в изображении), он заключается в психологическом феномене «смешное», не привязанном к отдельной части изображения или объекту (как правило бОльшую часть объектов можно удалить/добавить/изменить без изменения сути, понимаемой людьми под юмором). Мне очень странно объяснять это человеку.
Получаем, что можно создать нейросеть, которая будет определять, смешная ли картинка.
Вперёд и с песней заниматься бессмысленным делом.
Юмор не заключается в картинке (в изображении), он заключается в психологическом феномене «смешное», не привязанном к отдельной части изображения или объекту (как правило бОльшую часть объектов можно удалить/добавить/изменить без изменения сути, понимаемой людьми под юмором).Не понял эту часть вашего сообщения. Какая разница, какую часть изображения можно поменять прежде чем флаг «смешно/не смешно» сменится на противоположный? В функции f(a, b, c, ..., z) = x тоже можно очень много переменных менять без изменения значения функции.
Человек может, не используя никаких других знаний, посмотрев на картинку, однозначно сказать, смешная она или нет? Если может — значит, есть функция из множества всех картинок в множество {смешно, не смешно}, если нет — глупо требовать этого от нейросети, не давая ей никакой информации, кроме этих самых картинок.
Мне очень странно объяснять это человеку.У меня есть подозрение, что мы с вами говорим об одном и том же, но разными словами. В этом случае нужно уточнить, используем ли мы одинаковые определения, особенно не формальные, а «интуитивно понятные».
Какая разница, какую часть изображения можно поменять прежде чем флаг «смешно/не смешно» сменится на противоположный?
Не разница, а ключевая суть. Есть смешные картинки с текстом, где убрать текст — юмор пропадает. Скажете — юмор в тексте? Нет, есть картинки с юмором но без текста вообще (бессловесные).
Итак, у нас есть набор смешных и несмешных картинок, какие-то с текстом, какие-то без, какие-то рисованные, какие-то фотоколлажи, какие-то в стиле демотиватора (которые тоже бывают смешные, т.е. с юмором, и несмешные) и так далее.
Если вы утверждаете, что нет принципиальной проблемы научить нейросеть делить изображения на содержащие юмор и не содержащие, я запасаюсь попкорном, ожидая рассказа, как вы будете размечать (подготавливать) изображения и вообще, как вы видите обучение (с учителем/без или ещё как)?
Человек может, не используя никаких других знаний, посмотрев на картинку, однозначно сказать, смешная она или нет?
Давайте возьмём, например,
Юмор, очевидно, заключается в запечатлённом процессе падения маляра, дописавшего окончание строки уже после падения, как немое восклицание из-за падения. Чувствую себя как объясняющего для дебилов :)
Юмор исчезает:
- если убрать надпись
- перевести её, скажем, на английский
- заменить надпись чем-то другим типа «С наступающим празником!»
- убрать упавшего маляра (или только падение) и надпись сделать без разрыва
и так далее. Я не представляю себе, как можно натренировать нейросеть на распознавание таких нюансов, которые доступны только настоящему интеллекту.
Касательно того, что очень сложно сделать какой-то формальный критерий, относящий картинку к смешным или не смешным — ну так и классифицировать картинку на кошка/собака тоже ой как непросто, учитывая, что они могут быть самых разных цветов, пород, длины шерсти, включая полностью лысых и тд. Тем не менее, современные алгоритмы имеют качество такой классификации выше, чем человек.
Я не спорю с тем, что распознавание юмора — это сложная задача и не утверждаю, что сейчас можно обучить алгоритм, который сделает это так же хорошо, как человек. Но я утверждаю, что можно это сделать с качеством выше, чем у подбрасывания монетки, и качество будет постепенно расти с ростом вычислительных мощностей и развитием алгоритмов. Где-то в соседней ветке уже обещал кому-то проклассифицировать истории на анекдотичные и серьезные, давайте начнем с этой задачи.
существует функция fun(image), ставящая каждой картинке в соответствие индекс юмора.
1) Что это за индекс юмора вы придумали?
2) Юмор индивидуален, некоторые люди скажут что картинка не смешная, или даже обидная лично для них (например, насмешка над их профессией). Вы не сможете это выразить в виде какой либо функции.
классифицировать картинку на кошка/собака тоже ой как непросто, учитывая, что они могут быть самых разных цветов, пород, длины шерсти, включая полностью лысых и тд. Тем не менее, современные алгоритмы имеют качество такой классификации выше, чем человек
Хаха.
качество будет постепенно расти с ростом вычислительных мощностей и развитием алгоритмов.
Неа, не будет, в среднем вы будете получать те самые 50% как от подбрасывания монетки. Потому что вы пытаетесь свести к алгоритмам высшую нервную деятельность, по определению чисто к ним не сводимую, хотя и базирующуюся на них.
Для распознавания юмора необходимо понимание юмора, а понять «что смешного в картинке» алгоритм без интеллекта не способен по определению.
Давайте, дерзайте если хотите терять время. Вы напоминаете изобретателей летательных аппаратов, пытающихся подражать природе — сооружаете машущие крыльями аппараты, которые могут только оторваться от земли на пару метров и пролететь с десяток метров, и заявляете что не видите существенной разницы у вашего монстра с птицами и свято верите, что нужно просто мощнее двигатель, больше крылья и чаще махать, и всё получится. Но история показала, что если хотите летать — не повторяйте за природой, а ищите свой вариант (как изобретение отсутствующего в природе воздушного винта и переход к неподвижному аэродинамическому крылу дало наконец возможность строить реально работающие летательные аппараты).
Потому что вы пытаетесь свести к алгоритмам высшую нервную деятельность, по определению чисто к ним не сводимую, хотя и базирующуюся на них
Таки почему нет? Я, конечно, могу ошибаться — но кажется, если мы (потенциально — это не значит, что это возможно с сколь-либо вообразимыми затратами) можем моделировать отдельные составляющие, то и вся ЦНС может быть смоделирована, нет?
Но таки скорее соглашусь с тем, что кроме изображения нам нужна дополнительная информация о мире (или выводимая из неё).
Таки почему нет?
Окааай. Берём например подборку «плакатов»-вариаций известного полотна «Ты записался добровольцем?».
Распишите мне алгоритм (в любом виде, любым способом), позволяющий определить, какие из плакатов смешные, какие нет.
Что это за индекс юмора вы придумали?Я так назвал величину, которую человек выдает в ответ на вопрос «смешная ли это картинка?». Если вам не нравится термин, можете назвать ее как угодно.
Юмор индивидуаленИ что? Ответы одного человека все равно будут однозначными, то есть, будут функцией. Значит, можно сделать нейросеть, которая ее приблизит с любой наперед заданной точностью.
Покажите мне нейросеть, которая уверенно распознаёт лучше человека всех животных на таких картинкахДля одной этой картинки я вам могу алгоритм в 10 строчек написать, который распознает точнее человека, даже нейросеть не нужна. И в любом случае, есть задачи, которые сейчас алгоритмы машинного обучения решать не умеют, а человек умеет. И есть задачи, которые, наоборот, человек решает хуже алгоритмов машинного обучения — например, распознавание номеров домов (см мои ссылки выше). Только вот постепенно задач первого типа становится все больше, а второго — все меньше. И я не вижу причин, почему бы в какой-нибудь момент времени в будущем задач первого типа не осталось совсем.
вы пытаетесь свести к алгоритмам высшую нервную деятельность, по определению чисто к ним не сводимуюА вот это — фундаментальный момент. Если вы меня в нем убедите, я соглашусь со всеми остальными вашими комментариями, потому что они из него следуют. Но на текущий момент мне не кажется, что высшая нервная деятельность несводима к алгоритмам. Как минимум, мы могли бы узнать параметры всех элементарных частиц в мозге человека, подставить их в теорию всего и симулировать.
Заметьте, что для того, чтобы интеллект был сводим к алгоритмам, достаточно возможности такой симуляции, а не ее реализации.
изобретателей летательных аппаратов, пытающихся подражать природеНу, во-первых, орнитоптеры известны уже более полувека и вполне себе летают, так что не вижу фундаментальных проблем с тем, чтобы создать ИИ посредством подражания человеческому.
А во-вторых, я не вижу, где вы подражание увидели-то. Нейроны ИНС имеют ровно одну общую черту с биологическими: название. И моя позиция как раз заключается в том, что можно изобрести алгоритм, совершенно не похожий на человека, который будет решать любую задачу так же хорошо, как человек, или лучше. И при этом даже современные алгоритмы машинного обучения уже обладают интеллектом в смысле того, что они удовлетворяют всем свойствам интеллекта (вроде той же адаптируемости). Не такому умному, как человеческий, но все же интеллекту.
Ответы одного человека все равно будут однозначными, то есть, будут функцией.
Нет, не будут. Скажем, юмор в некоторых картинках человек не поймёт, если не знаком с обыгрываемым элементом (например, не видел фильм, который пародируется). После ознакомления с таким элементом, ему станет понятным юмор в картинке и оценка изменится. А на следующий день он хорошо выспится, будет в хорошем настроении, и оценка юмора в той же картине снова изменится, и так далее. Так что не только каждый человек даст свою оценку (причём может даже диаметрально противоположную другому), но и один и тот же человек будет давать отличающиеся оценки со времени.
Для одной этой картинки я вам могу алгоритм в 10 строчек написать, который распознает точнее человека, даже нейросеть не нужна.
Ну давайте, пишите :) Пока вы даже на человеческом языке не сформулировали его.
Как минимум, мы могли бы узнать параметры всех элементарных частиц в мозге человека, подставить их в теорию всего и симулировать.
Из-за квантовых эффектов вы не получите результатов симуляции, в точности совпадающих с реальным человеком, вне зависимости от точности модели.
Ну, во-первых, орнитоптеры известны уже более полувека и вполне себе летают
Нет, не летают. Ни одного действующего настоящего пилотируемого орнитоптера не было создано. Те, что были созданы — либо использовали дополнительный механизм для запуска в полёт (катапульту, разгонный автомобиль и т.д.), либо на самом деле представляли собой замысловатый планер. проблема в том, что чем больше летательный аппарат — тем меньше подходит сама идея маховых крыльев для полёта. Например, андский кондор при весе в 11-15 кг вынужден иметь размах крыльев в 3 метра, чтобы летать. Странствующий альбатрос, при размахе крыльев до 3,5 метров, вообще не может взлететь в безветренную погоду. Дрофам с их рекордным для летающих животных весом до 20 кг полёт даётся очень тяжело, необходим разбег в восходящем потоке воздуха. Крупнейший из известных доисторических птиц, аргентавис, при весе сравнимом с человеком (порядка 70 кг) имел размах крыльев порядка 7-8 метров и предположительно скорее планировал, чем летал. Поэтому страусы — самые крупные современные птицы — не летают вообще :)
Нейроны ИНС имеют ровно одну общую черту с биологическими: название
Разумеется. По свей сути это две матрицы (таблицы): матрица весов и матрица влияния одних весов на другие. Называть это искусственным интеллектом само по себе, нельзя. ИИ может содержать нейронные сети как один из элементов, но 1) не обязательно; 2) далеко не факт что они будут ключевыми. Подобно тому, как калькулятору не нужна нейросеть, чтобы считать арифметику лучше человека.
даже современные алгоритмы машинного обучения уже обладают интеллектом в смысле того, что они удовлетворяют всем свойствам интеллекта
Очевидная чушь. Свойство интеллекта: способность играть в шахматы, переписываться в чатике на абстрактные темы, сочинять стихи и жонглировать спичечным коробком, и всё это одновременно. Так называемые системы искусственного интеллекта способны лишь что-то одно — то, для чего их построили. Они не способны сделать главное: научиться чему-то другому, изначально не заложенному, самостоятельно. Потому что это фактически лишь математические системы решения одной поставленной задачи.
Из-за квантовых эффектов вы не получите результатов симуляции, в точности совпадающих с реальным человеком, вне зависимости от точности модели.
Полагаю, речь не о физической возможности их узнать, а о том, что зная их — мы бы могли просчитать их (вероятное?) дальнейшее взаимодействие.
Ну, то что эти системы придут в разное состояние — очевидно (даром что ли я указал — вероятное дальнейшее взаимодействие). Но мы здесь говорим о сведении ЦНС к алгоритмам, а не о копировании сознания :-)
Кажется — эта наша ЦНС получается (опять же — исключительно потенциально) представима как функция от её прошлого состояния и случайных чисел?
Впрочем, с квантовым ГСЧ мы уже не можем в детерминированность. Кажется, оно в самом деле не лезет в определение алгоритма, если я не ошибаюсь — а без него такая модель неполноценна.
Но мы здесь говорим о сведении ЦНС к алгоритмам
Алгоритмы на случайностях? Гыгы :)
С тем количеством различных факторов, которые влияют на наши решения…
После ознакомления с таким элементом, ему станет понятным юмор в картинке и оценка изменитсяНу и что?
ОК, давайте я еще подробнее опишу гипотетическую картину. Обладает ли один конкретно взятый человек без явных патологий интеллектом в конкретный момент времени? Я считаю, что да, если вы считаете иначе — напишите об этом.
Берем такого среднего Васю и даем ему сто рублей, чтобы он согласился посмотреть на картинку и честно сказать, насколько смешной он ее считает. После этого мы можем показать ему любую картинку, и он нам даст этот ответ. То есть, построена функция f(img) — функция в смысле «отображение», а не в смысле «формула». А дальше — теорема Цибенко.
Ну давайте, пишите :)
int main(void) {
cout << "Bounding boxes of animals on the image:" << endl;
cout << "Elephant: 27x75 - 318x480" << endl;
cout << "Monkey: 174x365 - 261x435" << endl;
cout << "Horse: 156x162 - 318x358" << endl;
cout << "Dog: 230x179 - 318x287" << endl;
cout << "Cat: 269x205 - 318x274" << endl;
cout << "Mouse: 294x216 - 318x263" << endl;
cout << "Total animals found: 6" << endl;
return 0;
}
Из-за квантовых эффектов вы не получите результатов симуляции, в точности совпадающих с реальным человеком, вне зависимости от точности моделиЯ получу результат, вероятностное распределение которого не отличается от вероятностного распределения ответов человека. В том числе, вероятность ошибки при ответе на любой вопрос будет ровно точно такой же, как и у этого человека. Этого недостаточно для того, чтобы признать такую машину имеющей интеллект?
А пацаны-то и не знают.Ну, во-первых, орнитоптеры известны уже более полувека и вполне себе летаютНет, не летают
Around 1960, Percival Spencer successfully flew a series of unmanned ornithopters using internal combustion engines ranging from 0.020-to-0.80-cubic-inch (0.33 to 13.11 cm3) displacement, and having wingspans up to 8 feet (2.4 m)И даже аппараты на мускульной тяге человека вполне себе летают
Rousseau attempted his first human-muscle-powered flight with flapping wings in 1995. On 20 April 2006, at his 212th attempt, he succeeded in flying a distance of 64 metresИсточник
По свей сути это две матрицы (таблицы): матрица весов и матрица влияния одних весов на другие. Называть это искусственным интеллектом само по себе, нельзя.Вторая фраза не следует из первой. Если по своему поведению перцептрон будет удовлетворять определению интеллекта — можно будет считать. И, кстати, алгоритмы машинного обучения — это совсем не только нейросети. И уж тем более не только перцептрон.
Свойство интеллекта: способность играть в шахматы, переписываться в чатике на абстрактные темы, сочинять стихи и жонглировать спичечным коробком, и всё это одновременноУра, наконец-то вы смогли дать хоть какое-то определение интеллекта! Правда, оно все еще недостаточно точное. Вы требуете играть в шахматы и делать все остальное «как-нибудь» или «хорошо»? Во втором случае, боюсь, большую часть человечества вы только что признали не имеющими интеллекта, а в первом — написание программы, которая воспроизводит одно и то же движение сервомоторами по кругу, пишет случайные грамматически согласованные слова и делает случайные движения шахматными фигурами в соответствии с правилами, не составляет труда.
Кроме того, хочу заметить, что ваше определение интеллекта существенно отличается от общепризнанного. Например, статья об интеллекте в Википедии не содержит слова «шахматы» вообще.
После этого мы можем показать ему любую картинку, и он нам даст этот ответ. То есть, построена функция f(img) — функция в смысле «отображение», а не в смысле «формула». А дальше — теорема Цибенко.
Построенная вами таким образом функция будет давать ответ, сравнимый с подбрасыванием монетки.
int main(void)
1) Это не функция, это процедура — у неё нет входных параметров (она ничего не обрабатывает).
2) Вы просто описали что находится на конкретной картинке, где же алгоритм?
А пацаны-то и не знают.
Вы невнимательны. «unmanned ornithopters» — непилотируемые устройства. Четырёхкилограмовые устройства летать махая крыльями могут, четырёхтонные — уже нет. Поэтому у орнитоптеров нет практического применения, это чисто хобби или миниатюрные устройства.
Если по своему поведению перцептрон будет удовлетворять определению интеллекта — можно будет считать
Дык не удовлетворяет же.
Ура, наконец-то вы смогли дать хоть какое-то определение интеллекта!
Перечисление не есть определение.
Если вы уж заглянули в википедию, то должны были обратить внимание, что главным отличием интеллекта является наличие творческих способностей.
написание программы, которая воспроизводит одно и то же движение сервомоторами по кругу, пишет случайные грамматически согласованные слова и делает случайные движения шахматными фигурами в соответствии с правилами, не составляет труда
Ничего подобного. Вы напишите четыре разных программы. И разумеется, в отличие от настоящего интеллекта, вам её придётся дописывать, если нужно будет ещё и с выражением зачитывать свежие анекдоты.
Построенная вами таким образом функция будет давать ответ, сравнимый с подбрасыванием монетки.Построенная мной таким образом функция даст точно такой же ответ, как и тот Вася, на основе которого она построена. Если Вася умеет определять юмор на картинке (а выше вы писали, что любой интеллект умеет), то и функция тоже сможет.
у неё нет входных параметровВходные данные подаются на stdin, а результат выдается на stdout.
Вы просто описали что находится на конкретной картинке, где же алгоритм?Этот алгоритм выдает одинаковый ответ вне зависимости от входных данных. Заметим, что на выборке из одного изображения (того, что вы привели выше) он работает точнее, чем любой человек — ибо человек не будет вглядываться и пиксели считать.
Вы невнимательны. «unmanned ornithopters» — непилотируемые устройства.Или вы? Я изначально писал о том, что орнитоптеры летают, а не о том, что они повсеместно используются для пилотируемых полетов. Тем не менее, вторая цитата из моего предыдущего комментария — про пилотируемый полет, более того, на мускульной тяге человека. Вот, если хотите, еще одна цитата оттуда же, про пилотируемый полет с двигателем:
In 1968, Adalbert Schmid made a much longer flight of a human-powered ornithopter at Munich-Laim. It travelled a distance of 900 metres, maintaining a height of 20 metres throughout most of the flight. Later this same aircraft was fitted with a 3 hp (2.2 kW) Sachs motorcycle engine. With the engine, it made flights up to 15 minutes in duration.15 минут в воздухе — достаточно для того, чтобы вы согласились, что они летают?
Дык не удовлетворяет же.Для того определения, которое использую я, вполне можно сконструировать алгоритм машинного обучения, который будет удовлетворять. Именно поэтому и я прошу вас дать ваше определение.
Вы напишите четыре разных программыИ кто мне помешает объединить их в одной, в разных потоках?
в отличие от настоящего интеллекта, вам её придётся дописыватьУ «настоящего интеллекта» с каждым вашим комментарием появляется все больше и больше свойств. А давайте вы дадите строгое определение, и дальше мы уже разберемся, можно сделать ИИ или нельзя? Например, если ваше определение «интеллект — это то, чем обладает человек и только человек», то тут все ясно и я с вами соглашусь, интеллектуальную программу сделать нельзя.
Если Вася умеет определять юмор на картинке (а выше вы писали, что любой интеллект умеет), то и функция тоже сможет.
Докажите. Пока это голословное утверждение, противоречащие наблюдаемым фактам. Докажите (построите соответствующую систему) — получите нобелевку.
И кто мне помешает объединить их в одной, в разных потоках?
Помешает то, что ИИ не ИИ, если для каждой новой задачи вы его переписываете.
У «настоящего интеллекта» с каждым вашим комментарием появляется все больше и больше свойств.
Но сам он не меняется. Это очевидный, наблюдаемый факт.
Докажите. Пока это голословное утверждение, противоречащие наблюдаемым фактам.Доказать, что система, состоящая из Васи, которому дали сто рублей и попросили честно отвечать на вопрос о том, смешная ли картинка, и экрана, на котором ему показывается эта самая картинка, так же хорошо может определить юмор, как и просто Вася (который интеллектом, по вашим же словам, обладает)? А чего тут доказывать, это, по сути, одна и та же система.
Помешает то, что ИИ не ИИ, если для каждой новой задачи вы его переписываете.Строго говоря, тот факт, что что-то является или не является ИИ, никак не мешает мне объединить 4 программы в одной в разных потоках.
Демагогия. Дайте мне определение того, что вы называете интеллектом.У «настоящего интеллекта» с каждым вашим комментарием появляется все больше и больше свойств.Но сам он не меняется. Это очевидный, наблюдаемый факт.
А чего тут доказывать, это, по сути, одна и та же система.
Если мы даём разные данные — мы получаем разные результаты, так что вы обманываете, заявляя что это одна и та же система.
Вася: «что на этой картике?» "- Слон".
«ИИ»: «что на этой картинке?» "- Слон".
На основе этого вы делаете «вывод» что это системы с одинаковыми возможностями, несмотря на то, что
Вася: «а на этой картинке что?» "- Аквалангист".
«ИИ»: «а на этой картинке что?» "- Слон".
Строго говоря, тот факт, что что-то является или не является ИИ, никак не мешает мне объединить 4 программы в одной в разных потоках.
«Строго говоря», от того что вы называете программу ИИ, она им не становится.
Демагогия
Это когда вы программу, выводящую список захардкоженных строк, называете распознающей животных.
Дайте мне определение того, что вы называете интеллектом.
Нате вам вырезку из википедии:
Интеллект как способность обычно реализуется при помощи других способностей. Таких как: способности познавать, обучаться, мыслить логически, систематизировать информацию путём её анализа, определять её применимость (классифицировать), находить в ней связи, закономерности и отличия, ассоциировать её с подобной и т. д. О наличии интеллекта можно говорить при совокупности всех этих способностей, в отдельности каждая из них не формирует интеллект. Интеллектом может обладать система, составляющие элементы которой каждый в отдельности интеллектом не обладают.
Разъясняю: персептрон, уверенно распознающий слона на картинке, интеллектом не обладает, хотя сама способность распознавания слонов является способностью интеллекта. Пока вы это не осознаете, продолжать с вами этот трёп смысла не вижу.
Вася: «а на этой картинке что?» "- Аквалангист".Мы точно про одинаковую систему говорим? Позволю себе напомнить вам свои слова:
«ИИ»: «а на этой картинке что?» "- Слон".
Берем такого среднего Васю и даем ему сто рублей, чтобы он согласился посмотреть на картинку и честно сказать, насколько смешной он ее считает.То есть, когда мы показываем «системе» вторую картинку, она ее захватывает, показывает Васе, спрашивает его ответ и без изменений передает наружу. Если Вася говорит «слон», система не может ответить «аквалангист».
персептрон, уверенно распознающий слона на картинке, интеллектом не обладаетПолностью согласен. И никогда не утверждал обратного.
Ура, наконец-то вы мне дали определение интеллекта, с которым вы согласны, теперь с этим можно работать!
А теперь по пунктам:
способности познаватьНе уверен, что понимаю, что это такое, точно таким же образом, как и вы. Дайте определение.
обучатьсяОбычный перцептрон это умеет.
мыслить логическиСистемы автоматического доказательства теорем, вроде Coq, это умеют.
систематизировать информацию путём её анализаЯ понимаю это в точности как «классификация информации и поиск в ней закономерностей», так что, на мой взгляд, это избыточный элемент. Если вы понимаете этот пункт иначе — напишите об этом.
определять её применимость (классифицировать)Слово «классифицировать» имеет два различных бытовых значения: во-первых, отнести новый объект к одному из уже известных классов, а во-вторых, разделить множество объектов на классы похожих. Первое делается тем же перцептроном, а второе — k-means.
находить в ней связи, закономерности и отличия, ассоциировать её с подобнойЛюбой метод кластеризации делает это.
То есть, программа, которая в одном потоке классифицирует изображения на «хот-дог» и «не хот-дог», во втором — с использованием Coq доказывает корректность интегральной схемы, в третьем — кластеризует отрезки данных биржевых торгов иерархическим методом с использованием DTW в качестве метрики близости, будет удовлетворять всем свойствам интеллекта, за исключением тех, которые вы, я надеюсь, уточните.
Мы точно про одинаковую систему говорим? Позволю себе напомнить вам свои слова:
Я про вот эти ваши слова:
Для одной этой картинки я вам могу алгоритм в 10 строчек написать, который распознает точнее человека, даже нейросеть не нужна.
Вы сами назвали этот хардкодинг «распознаванием».
Не уверен, что понимаю, что это такое, точно таким же образом, как и вы. Дайте определение.
Познание
Обычный перцептрон это умеет.
Под «обучаться» апологеты ИИ понимают «накапливать статистику (весовые коэффициенты)», в то время как истинное значение обучение — накопление опыта. Изначально недоступное искусственным сетям свойство.
Системы автоматического доказательства теорем, вроде Coq, это умеют.
Неа. После полной автоматизации доказательство называют уже вычислением. К мышлению не относится, чистая математика.
Любой метод кластеризации делает это.
Задача кластеризации относится к статистической обработке. Подразумевается, что имеет смысл кластеризовать только количественные данные. Качественные характеристики вы статистикой (нейросетями) не «осилите». Тот же юмор например. Его статистикой не вычислить.
Я про вот эти ваши слова:Что ж, значит, имело место недопонимание. Я ни в коем случае не имел в виду, что тот алгоритм в 10 строчек обладает интеллектом. Он, например, к обучению не способен.
Вы сами назвали этот хардкодинг «распознаванием».В то же время, распознаванием он является: в ответ на вход (картинка) выдаются координаты объектов и их классы. И на указанной вами выборке из 1 объекта точность детектирования идеальна, недостижима для человека. Внутреннее устройство алгоритма не имеет никакого отношения к тому, занимается ли он распознаванием — я могу завтра его в ящик запихнуть, «филипс» написать и лампочки мигающие приделать.
ПознаниеПо вашей ссылке:
Позна́ние — совокупность процессов, процедур и методов приобретения знаний
Зна́ние — результат процесса познавательной деятельностиРекурсия, однако. Дайте другое определение, без рекурсии.
Под «обучаться» апологеты ИИ понимают «накапливать статистику (весовые коэффициенты)», в то время как истинное значение обучение — накопление опыта. Изначально недоступное искусственным сетям свойство.Не знаю насчет «апологетов ИИ», я под «обучаться» понимаю «после получения новых данных или по прошествии времени начинать решать поставленную задачу лучше». На мой взгляд, это определение синонимично вашему «накопление опыта», но более точно (если вы считаете его не синонимичным, пожалуйста, укажите на отличия). И перцептрон, очевидно, этим свойством обладает — если мы дадим больше изображений или больше итераций для обучения классификации, качество вырастет.
После полной автоматизации доказательство называют уже вычислением.То есть, одни и те же действия (выписывание последовательности формальных высказываний с проверкой логической связи между ними) в случае человека вы считаете мышлением, а в случае компьютера — вычислением? В таком случае — полностью согласен, создать ИИ в принципе невозможно. Просто потому, что ничего, кроме человеческих действий, вы не называете интеллектом. Даже систему, которая делает в точности то же самое, что и человек. Кстати, интересно, а гипотетическая система, физически симулирующая мозг человека на уровне Стандартной Модели, по-вашему, будет интеллектом?
Качественные характеристики вы статистикой (нейросетями) не «осилите»Почему это не осилю? One-hot encoding есть. В конце концов, иерархические методы кластеризации вообще требуют лишь метрику расстояния между объектами, им не важно представление объектов.
Тем не менее, это к делу не относится. Кластеризация, отнеся каждый объект к какому-то кластеру, нашла
связи, закономерности и отличияТак что чисто формально эти пункты выполнены.
Для того определения, которое использую я, вполне можно сконструировать алгоритм машинного обучения, который будет удовлетворять. Именно поэтому и я прошу вас дать ваше определение.
Для начала, давайте определимся с вашей позицией в вопросе:
- теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя, хотя и не обязательно их мыслительный процесс будет подобен человеческому.
- теория слабого искусственного интеллекта отвергает такую возможность.
Вы в каком лагере? Если в первом — то должны признавать, что способности мыслить нет ни у одной существующей системы, называемой ИИ. Если во втором — автоматически признаёте, что такие системы вообще невозможны.
Интеллектуальная система — любая система, обладающая следующими свойствами:
- Способность к обучению — умение научиться отвечать на вопрос после изучения некоторого количества пар «исходные данные — верный ответ». Причем, что важно, ответ для пар, которых не было в обучающей выборке, должен быть существенно лучше слепого угадывания, а задача может быть неизвестна создателю (если таковой существует) в момент создания системы.
- Способность к абстрактному мышлению — умение отвечать на вопросы, содержащие в себе понятия, не соответствующие никаким объектам реального мира, или использовать такие понятия в качестве части ответа на вопрос.
- Способность к поиску закономерностей — умение выделить категории похожих друг на друга объектов, а также умение найти короткое и простое представление, достаточно точно описывающее большинство объектов из какого-либо множества.
- Способность к адаптации — система не должна быть «заточена» под одну задачу. В случае смены задачи система должна выдавать достаточно качественные ответы на вопросы новой задачи. При этом допустимо падение качества работы на некоторое время для сбора обратной связи от внешней среды(«переподготовка на основе собственного опыта») или временная остановка работы системы для переобучения (в этом случае, такое переобучение должно быть существенно быстрее обучения новой такой же системы для новой задачи с нуля, и требовать существенно меньший объем тренировочной выборки).
Слабый искусственный интеллект (ANI) — система, способная выполнять какую-нибудь одну задачу, не связанную с физической силой, не хуже большинства людей.
Искусственный интеллект человеческого уровня (AGI) — система, способная выполнять любую задачу не хуже большинства людей.
Сильный искусственный интеллект (ASI) — система, способная выполнять любую задачу гораздо лучше любого человека.
Очевидно, что человек удовлетворяет такому определению интеллектуальной системы. Кроме того, для каждого свойства интеллекта легко привести пример алгоритма машинного обучения, который им обладает (пусть и в меньшей количественной степени, чем человек, то есть, требуя большей обучающей выборки, большего времени для работы, электроэнергии, при этом выдавая несколько меньшее качество работы, меньшую широту адаптации, и тд): для обучаемости это, например, линейная регрессия, для абстрактного мышления — word2vec, для поиска закономерностей — кластеризация k-means, тот же самый word2vec и метод главных компонент, для способности к адаптации — transfer learning методы для нейронных сетей и Q-learning. При этом в подавляющем дольшинстве случаев нет никакой необходимости в построении системы, удовлетворяющей всем свойствам одновременно.
Переводчик, строящий представления двух языков, с которыми он работает, с помощью word2vec, а затем находящий соответствия между словами и фразами этой пары языков (насколько я понимаю, так работает Google translator, но не берусь утверждать наверняка), может удовлетворять сразу всем свойствам, то есть, быть в моем понимании интеллектуальной системой.
Определению ANI удовлетворяет, например, калькулятор, а системы, удовлетворяющие определениям AGI и, тем более, ASI, на сегодняшний день не существуют.
В то же время, я вижу закономерность, заключающуюся в том, что задачи, решаемые с помощью ANI, становятся с течением времени все более абстрактными и менее четко определенными, а также решаются все лучше и с использованием все меньших ресурсов. Я думаю, что такое эволюционное развитие может когда-нибудь привести к тому, что будет создана система человеческого уровня.
Вот моя позиция. Касательно приведенных вами лагерей, эта позиция близка к первому лагерю, за тем исключением, что я не считаю умение осознавать себя конструктивным, а понятие «мыслить» считаю синонимичным фразе «быть интеллектуальной системой человеческого уровня» в смысле определения из начала этого комментария.
Определению ANI удовлетворяет, например, калькулятор
Не удовлетворяет, потому что вы неправильно понимаете определение. ИИ должен выполнять интеллектуальные функции, математические ими не являются. Изначально не обладающий математическими функциями человек может выполнять их с помощью своих интеллектуальных возможностей. Обратное — выполнение интеллектуальных функций математическими — невозможно, можно лишь имитировать их в узком классе задач.
Напоминаю, мой предыдущий комментарий начинался со словОпределению ANI удовлетворяет, например, калькуляторНе удовлетворяет, потому что вы неправильно понимаете определение
Я обычно использую следующие определения:Думаю, мне виднее, какой смысл я вкладываю в какие слова, чем вам.
— получите ответ «кот, вероятно». начнёте «тренировать» нейросеть ещё и на распознавание теней от собак/котов — у неё начнёт падать точность определения кот/собака из-за того, что вероятность будет делиться уже не между результатами кот/собака/другое, а кот/собака/тень_кота/тень_собаки/другое. Потому что это просто статанализ.
Поэтому заявлять, что нейросети обучаются принципиально так же как человек — глупо.
В любом случае, представьте себе следующую конструкцию: мы делаем нейросеть, а на ее выходах (векторах вероятности) строим кластеризацию, находя подобные (с точки зрения классификации) объекты. После чего каждому кластеру назначаем новый индекс и заново тренируем нейросеть. Такая конструкция будет в состоянии выделить новый класс, который является пересечением двух старых. Я правильно понимаю, что этот алгоритм в вашем понимании уже будет интеллектом, в отличие от исходной нейросети?
А нейросеть даст сбой (ошибку распознавания), если вы с распознаваемого текста не удалите случайно забредшую гусеницу.Если буквы не будут закрыты, вероятно, нет, не даст сбоя. А если буквы закрыты, то сбой даст и человек. Возможно, есть некоторая «серая» область, в которой человек уже сможет распознать букву, а алгоритм машинного обучения еще не сможет, но это лишь количественная разница, а не качественная. Я не спорю с тем, что человек умнее.
Поэтому заявлять, что нейросети обучаются принципиально так же как человек — глупоНейросети обучаются совершенно не так, как человек, с этим глупо спорить. Но высокоуровневые особенности обучения, такие, как способность к выделению абстракций, способность обобщать, адаптируемость к изменяющимся условиям задачи, словом, все то, что мы называем словом «интеллект», есть и у человека, и у некоторых алгоритмов машинного обучения (совершенно не обязательно у нейросетей!). И я пока что не знаю ни одной особенности человеческого мышления, которая не была бы представлена (пусть и менее качественно) в каком-либо алгоритме машинного обучения. Пока что предложенные вами примеры, увы, не подходят, ибо существуют алгоритмы машинного обучения, которые обладают предложенными вами особенностями.
Да, есть различие в том, что пока что нет ни одного алгоритма, объединяющего в себе все эти особенности. И некоторые особенности пока что реализованы хуже, чем у человека. Но это лишь количественная разница, не качественная. Пройдут годы, появится новое железо и новые алгоритмы, и планка будет преодолена.
Я правильно понимаю, что этот алгоритм в вашем понимании уже будет интеллектом, в отличие от исходной нейросети?
Конечно не будет — это всего лишь алгоритм. Интеллект не сводится к алгоритмам.
И я пока что не знаю ни одной особенности человеческого мышления, которая не была бы представлена (пусть и менее качественно) в каком-либо алгоритме машинного обучения.
Ну так дайте мне нейросеть, которая уверенно разделяет короткие тексты на анекдотичные и повествовательные (не юмористические).
Пройдут годы, появится новое железо и новые алгоритмы, и планка будет преодолена.
Ню-ню.
Конечно не будет — это всего лишь алгоритм. Интеллект не сводится к алгоритмам.Кажется, мы зациклились. «Алгоритм (например, нейросеть) может обладать интеллектом?» — «Нет, он не обладает ключевыми свойствами интеллекта, такими, как способность делать обобщения» — «Вот алгоритм, который это умеет, он является интеллектом» — «Нет, интеллект не сводится к алгоритмам».
Ну блин, реально, я же ведь пытаюсь понять, почему вы считаете, что интеллект к алгоритмам не сводится, и где граница между интеллектом и алгоритмами, по-вашему, проходит, и почему.
Ну так дайте мне нейросеть, которая уверенно разделяет короткие тексты на анекдотичные и повествовательныеА это, кстати, интересная задача. На досуге сделаю, напишу статью и маякну.
Правда, для обработки текстов будет в сто раз удобнее взять не нейросеть, а RNN, поскольку они не одинакового размера. Надеюсь, вы не против.
будет в сто раз удобнее взять не нейросеть, а RNNВы так говорите, будто RNN — не нейросеть.
где граница между интеллектом и алгоритмами, по-вашему, проходит, и почему
Как учат человека, обладающего интеллектом, распознаванию, скажем, буквы «А»? Правильно, ему показывают на доске/бумаге два варианта буквы — прописной и строчный. На этом обучение закончено: человека распознаёт букву «А» в любом виде: вне зависимости от шрифта, в том числе рукописные разным почерком, с любыми искажениями/неполные, а так же узнаёт букву в: случайно построившихся соответственно облаках, фигурах атлетов выстроившихся фигурно в надпись, в выложенных спичках на ковре, в пальцах рук, показывающих букву жестом и так далее.
Как обучается нейросеть? Ей показывают 100500 изображений буквы в разных ракурсах и искажениях, чтобы научить этой одной букве, и она будет выдавать 9х, хх% точность распознавания этой буквы в печатных текстах, х, хх% в рукописном тексте, 0, хх% в жестах пальцев и так далее.
Теперь вам понятно чем наличие интеллекта отличается от его отсутствия?
человек распознаёт букву «А» в любом виде
она будет выдавать 9х, хх% точность распознаванияТак, да не так.
Человек видит в своей жизни огромное количество номерных знаков на домах, тем не менее, качество распознавания цифр из датасета SVHN человеком около 98.0% (см Reading Digits in Natural Images with Unsupervised Feature Learning, секция 5). А вот качество распознавания тех же цифр сверточной сетью — 98.31% (см Generalizing Pooling Functions in Convolutional Neural Networks: Mixed, Gated, and Tree, секция 3.2.1).
Да, сейчас есть задачи, которые слишком сложны для современных алгоритмов и не слишком сложны для человека, и есть задачи, где человеку требуется меньшая обучающая выборка, чем машине, меньше времени и электричества на обучение. Это позволяет однозначно сказать, что человек интеллектуальнее любого существующего на сегодняшний день алгоритма машинного обучения. Но я не согласен с тем, что у сегодняшних алгоритмов совсем нет интеллекта — они соответствуют всем свойствам интеллекта, которые вы предложили.
Как учат человека, обладающего интеллектом, распознаванию, скажем, буквы «А»? Правильно, ему показывают на доске/бумаге два варианта буквы — прописной и строчный. На этом обучение закончено: человека распознаёт букву «А» в любом виде
Таки частный случай one-shot learning же, нет? Хотя с этим направлением вроде всё не особо хорошо, да.
Утром запомнил и уже к вечеру забыл
Это вам так кажется. В следующий раз увидите — тут же вспомните руну.
те нейросети, что разрабатываются сейчас, являются аналогом зрительной коры и не затрагивают высшие психологические функции.
Частично верно. Примерно так же, как «радиоприёмники являются аналогом микропроцессоров, так как и те и другие построены на транзисторах». Искусственные нейросети подражают своим устройством реальным нейросетям мозга, однако последние устроены гораздо сложнее. Можно сказать, искусственные нейросети моделируют небольшой участок, скажем, вентрального пути первичной зрительной коры. А проблема, соответственно, в том, что масштабированием этой модели надеются выполнить целую функцию мозга.
Вам нужно будет заложить в неё новый класс — вручную. И натренировать на его распознание
Кажется, где-то на этом моменте пока перейти к unsupervised learning-у с кластеризацией :-)
Если ему добавить возможность контролировать управление предприятием с доступом к документам этого предприятия — он бы смог эффктивно это сделать.
Не смог бы. Ватсон — экспертная система с кодируемыми вручную (!) микроформатами хранимых объектов (личности, места, события и т.п.) и связей между ними, алгоритмом полуавтоматического наполнения этой БД и речевым интерфейсом ввода-вывода уровня Siri. В большей степени это просто торговая марка команды аналитиков и программистов IBM, разрабатывающих специализированные экспертные системы для различных прикладных областей (медицина, финансовый рынок, история и т.п.) Искусственным интеллектом (и вообще технически единой программно-аппаратной платформой) это называется исключительно в маркетинговых целях, и победа на Jeopardy — не более чем фокус (прогон тестовых вопросов по тематикам, хранимым в экспертной системе на тот момент времени).
Но тот же самый IBM Watson, который знает всю википедию уже может считаться интеллектом.
Ничего подобного. IBM Watson считается лишь быстродействующей, сложной, но давно известной экспертной системой, не имеющей никакого собственного интеллекта.
Алгоритмы дообучения используются редко, но ничего сверхъестественного в них нет. Ваше утверждение "не сможет приспособиться к новым ситуациям" к сожалению или к счастью, не верно.
Да и вносить абстракции программисту не обязательно. AlphaGo Zero тому пример.
AlphaGo Zero
Обсуждение личности собеседника и попытки намекнуть на его умственные способности не являются доводом в диалоге.
К тому же вы никак не обосновали свой высокий уровень знания нейросетей (в профиле тоже не увидел), что могло бы хоть как-то обосновать подобное высокомерие.
В архитектуре AlphaGo Zero нет знаний о том, как правильно развивать партию в Го. Все знания нейросеть получает из обратной связи — проигрывая. А не от разработчика сети.
Программа научилась играть, не зная правил и не имея доступа к коду, а просто наблюдая за картинкой на экране.
Я ни в коем случае не утверждаю, что существующие сегодня алгоритмы «умнее», «более адаптируемые» и вообще «интеллектуальнее» человека, это очевидно не так. Но мы постепенно движемся в этом направлении. И уже на сегодняшний день довольно сложно найти конкретную черту человеческого разума, которой бы не обладал тот или иной алгоритм машинного обучения. Да, пока что нет единого алгоритма, который собирал бы все эти черты в себе. Да, пока что человек гораздо более энергоэффективен, требует меньшей обучающей выборки, умеет решать более сложные задачи и тд. Но разница здесь уже скорее количественная, чем качественная.
PS: Пожалуйста, не делайте предположений о своем собеседнике, у вас плохо получается.
Утверждаете, что для обучения Го нужно сформулировать правила Го? Какие ходы делать можно и как в конце считать очки?
Да, это верное утверждение, вы правы (хотя и очевидное).
При этом вы и я знаем — знать правила недостаточно для хорошей игры. Для AlphaGo Zero не использовалась ни одна партия профессиональных игроков. Какие ходы считать допустимыми, действительно прописывается (скоро будут просто с листа читать). Какие считать хорошими — нет, не прописывается.
Ещё непонятно, на чем основывается ваше высокомерие. Вы можете как-то обосновать его или перестать использовать, пожалуйста?
Вы утверждаете, что все абстракции (включая новые, про которые игроки Го никогда не знали), уже содержатся в архитектуре сети? И при разработке сети разработчик их все сознательно закладывает? Вы это имеете ввиду?
Как насчёт абстракций, про которые разработчик не знал? Такие тоже уже сразу заложены в архитектуре?
Я утверждаю, что этот разговор не имеет смысла, вы готовы играть словами ещё вечность, чтобы только «не понимать» сказанного мной. Спасибо за диалог, мне больше не нужно.
Сказанное вами понятно. Просто неверно. Вы могли бы не "объяснить" ваши слова (их не надо объяснять, все вполне ясно), а попробовать подтвердить их истинность.
Впрочем, вы правы, не нужно.
Идея такого подхода, как мне кажется, очевидна любому кто знаком с тематикой машинного обучения. Не менее очевидны и недостатки: необходимость использовать вычислительные мощности, которые доступны только с хорошим финансированием.
В общем это отличная новость для команд, которые могут паралельно тренировать сотни архитектур. Теперь они могут частично автоматизировать подбор гиперпараметров, который занимает несколько процентов времени затраченного на проект.
ИИ от Google обучил дочерний ИИ, который превосходит все ИИ, созданные человекомУже давно пора ализару перевести статью с заголовком:«Очередной сверх ИИ от Google по своей инициативе обучил очередной более сверх ИИ, который превосходит все и во всем. Люди на клавах просто кнопки нажимали.» Карма сразу увеличится на +100500. Потом статью можно будет просто повторять.
играя только сама с собой, зная только правила шахмат но не имея исторической базы ходов, Alpha Zero за 24 часа научилась играть лучше чем человек arxiv.org/abs/1712.01815
Имхо — и 2030-й то ещё не придёт, как в комментариях боты будут гораздо выгодней людей смотреться и работать.
Вопрос только в том у меня, которая из стран первая выступит с Биллем о Правах и Свободах Роботов.
Как работают распознающие нейросети: входящие данные (пиксели изображений или форма аудиосигнала) сравниваются по всей площади с известными элементами в соответствии с весами, построенными по частоте встречаемости. Результатом является цифра процента совпадений. Когда процент выше захардкоженного порога, считается что объект распознан. Процент практически всегда ниже 100% и выше 0%.
Согласитесь, что это простая арифметика (статистический анализ), а не какой-то там интеллект.
нейроны регистрируют простейшие геометрические формы: точки и линии с разным наклоном. Многочисленные вышестоящие слои по этой информации сопоставляют расположение сигналов сравнивая с известными на соответствие шаблонам, постепенно укрупняя классификацию. При несоответствии шаблонам создаётся и запоминается новый. В конечном итоге объект классифицируется с 100%, меньшей 100% или 0% уверенностью.Это называется Unsupervised Feature Learning: youtu.be/n1ViNeWhC24?t=31m29s
Нейросеть сможет отлично писать статьи, только если мы будем для неё хорошими учителями.
Но ведь может получится и так, что пипл создаст себе ровно то, что захочет хавать.
Решил вот сделать ёмкую подборочку в картинках хроники разворачивавшихся по теме событий.
Делюсь под спойлером.
ИИ обучил дочерний ИИ
Блин, они уже размножаются!
-А зачем?
-А ты кто?
-А я кто?
Тогда и приходите.
Алсо, пора запиливать классический >>>Вы здесь<<< список.
ИИ от Google обучил дочерний ИИ, который превосходит все ИИ, созданные человеком