Как стать автором
Обновить

Комментарии 71

Автор, почитай про deep learning. В ряде тестов машины превзошли человека как раз в распознавании образов. До звуков, видео и текста рукой подать (в пределах десятилетия).
А книга действительно интересная.
Насчет терминологии — ИИ — это маркетинговый термин. Есть несколько классов подходов с общим собирательным названием «машинное обучение». Они развиваются уже не одно десятилетие. И будут развиваться дальше. Сейчас очередной всплеск активности в этой области из-за быстрого накопления данных и увеличения скорости вычислений.
Машина не может превзойти человека в общем распознавании образов — для этого машине нужно знать о всех объектах, существующих в мире. Образы распознаются только после конкретного обучения конкретным образам.
Если машину обучили распознавать котиков, то одновременно дорожные знаки или телевизоры, она сама распознать не научится. ТО есть это немного подмена понятий…
Постойте, но разве у человека не так? Если он всю жизнь видел только котиков, то дорожный знак от телевизора он не отличит.
Давайте все же не будем предъявлять к системам машинного обучения более высокие требования, чем к человеку
Компьютер вообще не размышляет. Он или маркирует объект или не распознает его.
Машинное обучение без посторонней помощи пока что невозможно в принципе. Человек должен сперва показать машине все правильные варианты, на которых машина учится.
Все, что делает машина во время «обучения» — это расставляет кучу метрик и их стоимость.

Как в спаме — если в письме полно английских и русских букв в перемешку — добавим 10 очков.
Если письмо с неподтвержденного домена — добавим 50 очков
Если пустой сабжект — добавим 10 очков.

Вот только несколько сотен таких метрик вручную уже расставить сложно. А несколько десятков тысяч — невозможно. И машинное обучение просто расставляет эти очки, анализируя подтверждение человека, что на изображении действительно есть или нет требуемый объект.

Человек напротив. Определяет неизвестный объект, и достаточно легко может отличить один от другого. Он не всегда знает его назначение, но в процессе наблюдения может это выяснить самостоятельно. После определенного уровня развития (когда словарного запаса достаточно для поддержания мысленного диалога), человек потенциально способен обучаться сам весьма эффективно.
Компьютер вообще не размышляет. Он или маркирует объект или не распознает его.
Машинное обучение без посторонней помощи пока что невозможно в принципе.
«Размышляет» или «не размышляет» — это демагогия, к делу не относится. А насчет обучения без посторонней помощи вы не правы — есть немалый раздел машинного обучения, называемый обучением без учителя, да и в обучении с подкреплением роль человека-учителя минимальна.
Человек напротив. Определяет неизвестный объект, и достаточно легко может отличить один от другого.
Я не согласен с этим утверждением, но допускаю шанс того, что неверно его понял, поэтому давайте рассмотрим эту ситуацию на примере. Пусть у нас есть человек, который к физике никакого отношения не имеет, и мы показываем ему две картинки: на одной — токамак, а на другой — стелларатор. Я правильно понимаю, что вы утверждаете, что человек сможет подумать и правильно определить, что где?
НЛО прилетело и опубликовало эту надпись здесь
Я помню лабораторные на уроках биологии. Смотришь в учебнике на всякие митохондрии, вакуоли и т.д., потом открываешь задание, где нарисовано все то же самое, и в течении часа втупляешь, что где. Хотя вроде и картинки одинаковые…
Один раз? Что-то мне не верится. Каким образом, по-вашему, человек должен самостоятельно догадаться, что является важным — различие в форме или, скажем, в цвете? Человеку придется либо дать очень подробное объяснение того, что это такое, либо хотя бы несколько изображений.
И учтите, что у человека есть предыдущий жизненный опыт, т.е. он не обучается с нуля. Честно говоря, я не вижу принципиальных проблем с тем, чтобы нейросеть, скажем, настроенная на распознавание большого числа различных классов, была дообучена на отличие токамака от стелларатора на основе всего нескольких изображений. Да, наверное, она будет ошибаться немного чаще, чем человек или ей потребуется неколько больше изображений, но принципиальной разницы не будет.

PS: Месяц назад учил годовалую дочь дуть мыльные пузыри. Для достижения эффекта мне пришлось показать, как это делается, несколько сотен раз.
НЛО прилетело и опубликовало эту надпись здесь
Ну, если бы всё было так просто и вопрос бы действительно стоял в том, чтобы «знать о всех объектах, существующих в мире». Человек тоже не знает обо всех объектах в мире, но он умеет догадываться и категоризировать неизвестные объекты, зачленяя тот или иной новый объект в какую-то категорию. Никто в мире не видел всех лиц, никто в мире не видел все модели машин или типы домов, однако каждый без проблем определяет (с разной степенью точности), что этот объект — машина, а этот — дом.
Не превзойти, а хоть приблизится может? Пусть с посторонней помощью? Изначально ребенок ничего не знает об «объектах, существующих в мире». За 5 лет с помощью двух или даже одного родителя, который может быть не лучшим педагогом, он узнает очень много. Может ли компания отличных педагогов за 5 лет научить машину тому, что знает пятилетний ребенок? И почему пока это не удавалось?
Человек размышляет, машина помнит.

Машина не может самостоятельно дописать себе новую логику поведения — необходимо усилие огромного количества программистов, чотбы запрограммировать простейшее, с точки зрения живой природы, ориентацию в пространстве и взаимодействие с окружающим миром.

Принципы работы — различные. Человек перепрошивает себя, машина — оригинальный алгоритм неизменный. Если и изменяемый — то благодаря тому, что программист заранее предусмотрел это изменение, и описал его рамки. У человека нет особых рамок, за исключением физических возможностей.

Какая бы ни была умная команда педагогов, нельзя обучить чему-либо аппарат, который не воспринимает обучение как обучение.
Пожалуйста, напишите подробнее, в чем различие человека и машины с вашей точки зрения. Потому что вы же сами пишете, что оригинальный алгоритм машины вполне может изменяться, в определенных пределах, и что у человека эти пределы (определенные физическими возможностями) тоже есть.
В чем тогда вообще разница?
Думаю один из значимых различий — отсутствие боли (во всех ее смыслах). Человеку очень легко объяснить, где неправильно. Накричать, ударить, наказать голодом и так далее.

Машине — в принципе все равно. Для нее -1 и 1 — это два разных варианта, которые не могут быть плохими или хорошими. Не давать электричество? отключится. Уменьшить память? не влезет что-то в кеш. При этом машина не будет понимать, где «правильно» и где «неправильно», если не разработать функцию, которая это определяет.

Сложность заключается в том, что человеку на любом этапе развития, при обсуждении проблемы любой сложности, легко можно сигнализировать, что верно, что неверно.

Машине, при разных этапах развития, непонятно как сигнализировать — необходимо разобрать ее текущий алгоритм определения и в нем вводить условия. А если алгоритм станет очень сложным — есть вероятность, что у программистов просто не хватит времени все разобрать.

Я не исключаю, что «В ПРИНЦИПЕ», на базе процессоров можно будет создать достаточный интеллект, и практически уверен что создание интеллекта, который сможет освоить абстракцию приведет к некоторой технологический сингулярности.
Но мне кажется, что сложность такой задачи — пока не поддается анализу. Но это явно не десятки лет, а больше.
Думаю один из значимых различий — отсутствие боли (во всех ее смыслах). Человеку очень легко объяснить, где неправильно. Накричать, ударить, наказать голодом и так далее.
Речь о моделировании. Модель может «чувствовать», т.е. оперировать такими понятиями, как «боль», «правильно», «неправильно» и т.д. Нпр., примитивная игрушка тамагочи «чувствовала» боль, голод, скуку и т.д. Несложные враги из многих компьютерных игр обладают инстинктом самосохранения и пытаются победить, а не проиграть.
Вы не поняли мою мысль.
Для начала, тамагочи ничего не чувствовала — запрограммированные вещи — нет еды, издать звук А, не гуляют — издать звук Б, понизить шкалу настроение (то есть отображать грустные смайлики). Никакой мотивации что-то делать нет, но суть не в этом.

Суть в нижней части моего комментария — при усложнении алгоритма, нужно каким-то образом сообщать, где ты идешь по неверному пути. Но старые метрики при этом уже могут оказаться бесполезными, потому что в новых алгоритмах никто их не добавлял для контроля «правильности» принятия решений.
У человека уровень абстракции очень высок. Возможность проецирования накопленного опыта в одной области на другую область — пока что неподвластен описанию в виде алгоритма на языке программирования. Слишком глубокий опыт в двух разных областях, при попытке их объединить вызывает смех. Затем смех проходит, а у нас новая ассоциация.

На текущий момент я пока не встречал реализации того, что при самообучении, компьютер сам придумывает себе новые метрики для определения успешности обучения. Есть только старые, а применять их к новым алгоритмам — нельзя.
Научившись выигрывать в шашки, он не сможет сам научиться выигрывать в шахматы — разные условия победы. И не сможет сам научиться играть в пакман — просто потому, что самостоятельно определить, где выигрыш, а где проигрыш — не получится.
Для начала, тамагочи ничего не чувствовала — запрограммированные вещи — нет еды, издать звук А, не гуляют — издать звук Б, понизить шкалу настроение (то есть отображать грустные смайлики).
М.б. и двухмесячного ребенка реакции схожие?: «нет еды, издать звук А, не гуляют — издать звук» А?
Научившись выигрывать в шашки, он не сможет сам научиться выигрывать в шахматы — разные условия победы.
Всякий пятилетний ребенок «сможет сам научиться выигрывать в шахматы»?
Нет, не схожие. Есть дети, которые издают одинаковый звук недовольства в различных ситуациях. Но при этом (сейчас будет главное) он определяет неприятные для себя условия, затем сигнализирует, что ему неприятно. Факторов может быть очень много и разных, но вывод — примерно один. И звук примерно один, ну может разная интенсивность.

Компьютер не может самостоятельно определить неприятные для себя условия без подсказки. То есть вот этот базовый момент — ребенок умеет сразу. Пряник и кнут уже заложен. Очень сложный, приспосабливающийся к разным условиям, понимающий разные уровни абстракции.

У нас пока такой пряник и кнут не разработан, и это будет сложнейший момент для реализации, требующий множества человеколет.

Поэтому вполне вероятно, что могут пойти другим путем.
Ведь на самом деле, ИИ который думает как человек — не особо и нужен.

Сейчас компьютеру нужно все пояснять, подробно и детально — именно это и называется программный код.

Нужен ИИ, который может без ошибок перевести с одного языка на другой. Который сможет безошибочно распознать команды в обычной речи и составить отчет/алгоритм, уточняя детали по ходу.
В общем, который сможет выполнить некую работу, при минимальных усилиях на пояснение задачи.

Поэтому деньги выделяют в основном под разработку специфического ИИ, который решает конкретные прикладные задачи. Насколько эти разработки помогут создать аналог человеческого сознания? Насколько смогут этим заниматься разные специалисты за свой счет?
Я не уверен, есть ли вообще в мире проекты/разработки, которые целенаправленно занимаются именно этим, а не чем-то более прикладным на каком-то заметном уровне.

Не путайте генетические установки с проявлением разума. В компьютер можно тоже много чего "от рождения" заложить.

Простите, но когда в компьютер от рождения закладут столько, сколько заложено в человеческом ребенке — тогда и поговорим.

Как бы не старались кучи преподавателей и психологов с обучением ежа/ужа/курицы да даже собаки — они не смогут перепрыгнуть того, что сможет освоить ребенок.

Поэтому выкидывать эту базу — не нужно. Возможно в ней и так уже закладывается больше, чем за всю оставшуюся «взрослую» жизнь.

Сначала вы утверждали, что компьютер от человека отличает способность к обучению. Сейчас вдруг начали меряться тем, что заложено изначально...

Вот не нужно, такого я не говорил.
Я говорил, что текущие ИИ (которые в основном основаны на нейросетях) — работают по принципу описанному в одном из моих комментариев выше.

Они обучаются не так как человек, а расставляют очки различным метрикам, что позволяет им оптимизировать заранее запрограммированный алгоритм. Человек может самостоятельно разработать новый алгоритм, и самостоятельно определить его корректность, без постороннего учителя. Опять же сейчас я говорю не об эффективности с которой ребенок научится делать токамаки, а о потенциально самостоятельном обучении.
Что вы понимаете под «разработать новый алгоритм»? Если у нас, скажем, задача классификации изображений, то нейросеть при обучении создаст нейроны, распознающие вполне разумные признаки, а если использовать L1-регуляризацию, то большая часть весов будет в точности равна 0. Таким образом, после обучения отдельные нейроны в нейросети будут отвечать за вполне разумные высокоуровневые признаки изображения, и вычислять эти признаки они будут не сложением всех пикселей с какими-то рандомными весами, а смотря на конкретное небольшое их количество.
Это ли не изобретение алгоритма? Да, пока что алгоритмы получаются не такие строгие и не такие качественные, как у человека, но получаются ведь.
Это если ваш ИИ научился отлично распознавать дорожные знаки и разметку дороги, а затем поставить его в кофеварку.
Сможет ли он понять, что ему нужно там делать?

Уж не знаю, что там за задачи в кофеварке, но конечно, если запустить алгоритм на задаче, к которой он не готов, качество будет так себе. Как и у человека, кстати.
Действительно, как вы и заметили, человек учится всю жизнь, в то время как у классической нейросети есть фазы обучения и вывода, и во второй фазе она никакую новую информацию не воспринимает. Однако есть такая штука, как обучение с подкреплением (почитайте про alpha go, например, но вообще в этой области уже немало достижений). Алгоритмы из этого семейства учатся все время, используя обратную связь от окружающего мира. Таким образом, такой алгоритм, оказавшись в кофеварке, будет пытаться распознавать знаки, получать за это штрафы, и постепенно научится делать то, что от него требуют.
Это было во-первых. А во-вторых, есть такая штука, как transfer learning. Может, слышали, был недавно релиз приложения NotHotDog, классифицирующего фото на два класса: "хот дог" и "не хот дог" (https://m.habrahabr.ru/post/331740/). Там была взята нейросеть, уже обученная на базе ImageNet (классификация изображений на хренову тучу классов, и сомневаюсь, что "хот дог" один из них), а потом эта же нейросеть обучена дальше уже на нужной задаче. Такой подход позволяет значительно сэкономить время обучения.


Так что указанная вами ситуация — когда алгоритм обучается на одной задаче, а используется на другой — не просто гипотетически возможна, а уже существует и повсеместно используется

Кхм, пропустил слово, а исправить уже нельзя. Качество поначалу будет не очень
Они обучаются не так как человек, а расставляют очки различным метрикам
А как обучается человек? Никто не знает это настолько, чтобы можно было запрограммировать. Похоже на одно из направлений в ИИ — системы автоматического доказательства мат. теорем. Там обычно отмечают главную проблему: ни один математик не может объяснить, как он доказывает теоремы.
Компьютер не может самостоятельно определить неприятные для себя условия без подсказки.
На мой взгляд, может и определяет. Уже при загрузке ОС может пожаловаться, что был выключен неправильно, что испорчен диск и т.д.

Сейчас компьютеру нужно все пояснять, подробно и детально — именно это и называется программный код.
На мой взгляд, далеко не всё нужно пояснять каждый раз. Нпр., в Windows API уже зашита куча функций, без которых даже простенькая программа становилась бы чрезвычайно сложной.

ИИ который думает как человек — не особо и нужен
Да. Как он будет думать, потребителям без разницы, главное, чтобы он действовал как адекватный человек.

Я не уверен, есть ли вообще в мире проекты/разработки, которые целенаправленно занимаются именно этим, а не чем-то более прикладным на каком-то заметном уровне.
Шахматные программы и программы Го не прикладные в том смысле, что не выполняют какой-то полезной работы. Может быть только PR разработчиков и спонсора.
Если он умеет говорить — ему можно пояснить правила игры и правила выигрыша очень быстро. Если он умеет читать — просто дать текст с правилами.
И да, пятилетний ребенок сможет самостоятельно научиться выигрывать, например играя сам с собой.

Сможет ли компьютер понять принцип игры, получив описание в виде текста? В виде звуков? В виде готовой программы по игре в шахматы, которую он разберет и получит данные из нее?
Мы можем дать текущему ИИ какой-либо вариант, чтобы он смог понять принцип правил игры, кроме как нанять программистов, которые напишут алгоритм для распознания правил игры в шахматы? Пока что — нет, и это не зависит от мощности компьютера.
И да, пятилетний ребенок сможет самостоятельно научиться выигрывать, например играя сам с собой.
М.б. если это вундеркинд. У большинства детей нет таких способностей. Думаю, что и взрослый человек не научится играть, если будет переставлять фигуры то за белых, то за черных. Только играя против кого-то — человека или компьютера, можно научиться хоть как-то играть. При этом полезно почитать книжки по теории шахмат.

Мы можем дать текущему ИИ какой-либо вариант, чтобы он смог понять принцип правил игры, кроме как нанять программистов, которые напишут алгоритм для распознания правил игры в шахматы?
Может быть скрипт, где формальные правила записаны на языке, близком к естественному. Конечно, при наличии программы, которая умеет интерпретировать такой скрипт. Для описания правил шахмат такая программа не имеет особого практического значения, поэтому ее никто и не делает. А вот для карточных пасьянсов описание правил пасьянса через скрипт — очень привлекательный подход. Программисты делают только одну программу — игровой движок, а скрипт для конкретного пасьянса может написать любой человек, т.к. правила написания скрипта не требуют знания программирования. Подобный подход применяется во многих компьютерных играх. Например, в КР2 (упомянута в рецензии) многие непрограммисты, не имеющие доступа к исходному коду игры, сделали много карт-скриптов планетарных битв (их можно найти в Интернете). Единственным инструментом, нужным для этого, является специальный редактор карт. Редактирование проходит в наглядном графическом виде, освоить этот редактор гораздо легче, чем нпр. «Фотошоп».
Мы можем дать текущему ИИ какой-либо вариант, чтобы он смог понять принцип правил игры, кроме как нанять программистов, которые напишут алгоритм для распознания правил игры в шахматы? Пока что — нет
Вообще-то, да. Если мы даем компьютеру возможность играть и сообщаем ему результат игры, этого уже достаточно для того, чтобы выяснить правила и научиться выигрывать, по крайней мере, в некоторых играх (пруф). Ну а освоение более сложных игр — дело времени.
Еще на тему выяснения правил — есть такая штука, как RNN, с помощью которых можно генерировать синтаксически правильный практически осмысленный текст (пруф, пример — генерация текста при обучении на выборке произведений Шекспира). Да, пока что с осмысленностью есть некоторые сложности, но, во-первых, это результат двухлетней давности, а во-вторых, учтите, что RNN самостоятельно с нуля выучила слова языка, правила их согласования, порядок слов в предложении, орфографии и тд.
Думаю, если скормить логи шахматных партий подобной модели, она без труда определит правила игры в шахматы. Попробую на досуге и напишу статью.

Можем ли мы скормить компьютеру набор текстовых правил на естественном языке и ожидать от него разумной игры в игру, ими определенную? Сегодня — нет, но, на мой взгляд, это дело не очень далекого будущего. Для простых игр, конечно.
А что такое боль, как определить, кто ее чувствует, а кто нет?
Я вот вижу один объективный критерий: при возникновении болевых ощущений человек старается их прервать и больше не допускать. Точно так же, как алгоритм машинного обучения старается не допускать ситуаций, за которые штрафуют его функционал качества.

Кроме того, как быть с людьми, страдающими аналгией?
Я вот вижу один объективный критерий: при возникновении болевых ощущений человек старается их прервать и больше не допускать. Точно так же, как алгоритм машинного обучения старается не допускать ситуаций, за которые штрафуют его функционал качества.
Ok. Для модели больше и не нужно.

По-моему разница в принципах обработки информации. Текущие алгоритмы, используемые в нейросетях, работают не так, как естественный интеллект. На начальном этапе есть некоторое сходство, но есть что-то еще, что никем не учитывается. Собаке не нужен миллион повторений, чтобы выучить команды сидеть/лежать. Мне кажется, надо исходить из принципов работы отдельных нейронов. Нейроны же не знают математики, значит и описать эти принципы можно не используя сложные математические алгоритмы.

Кроме некоторых людей и инопланетян (если они существуют), никто и ничто во вселенной не знает математики, равно как физики и химии, однако поведение всех объектов вселенной описывается означенными науками.
Нейроны же не знают математики, значит и описать эти принципы можно не используя сложные математические алгоритмы.

Не значит. К примеру, пустая бочка из-под солярки ничего не знает, но если скатить ее с откоса высокой железнодорожной насыпи, описание ее траектории может потребовать сложного мат. аппарата.
Собаке не нужен миллион повторений, чтобы выучить команды сидеть/лежать.
А кто, когда и где доказал, что любой программе нужен миллион повторений?
На начальном этапе есть некоторое сходство, но есть что-то еще, что никем не учитывается.
Что не учитывается? Волшебство?
Текущие алгоритмы, используемые в нейросетях, работают не так, как естественный интеллект.
Разве «алгоритмы, используемые в нейросетях», должны работать в точности так, как «естественный интеллект»? Шахматные программы «думают» не так, как люди, однако часто побеждают.
однако поведение всех объектов вселенной описывается означенными науками

Если мы делаем модель нейрона, аналогичную по возможностям естественному нейрону, то и ее устройство и процессы должны моделировать таковые естественного нейрона (с точностью до целей и принципов).
Если естественный нейрон не использует понятие "производная", то и модель в искусственной информационной системе не должна его использовать.
А внешнее поведение можно описывать как угодно. Только надо понимать, что именно мы описываем.


описание ее траектории может потребовать сложного мат. аппарата

Описание траектории потребует. А принцип простой — сила тяжести, сила реакции опоры, масса. 3 параметра и несколько законов их изменения.


А кто, когда и где доказал, что любой программе нужен миллион повторений?

А я не говорю про программы в целом. Я говорю про существущие алгоритмы.


Что не учитывается? Волшебство?

Вы неправильно поняли мою мысль. Волшебство ни при чем.


Разве «алгоритмы, используемые в нейросетях», должны работать в точности так, как «естественный интеллект»? Шахматные программы «думают» не так, как люди, однако часто побеждают.

Если нам нужны такие же возможности, то и принципы должны быть такие же. В шахматных программах такая же модель правил, как и у человека, только закладывается она снаружи. Ну и да, думают не так, и возможностей у них таких нет. В шашки например играть не умеют, хотя вроде доска такая же.

Если нам нужны такие же возможности, то и принципы должны быть такие же. В шахматных программах такая же модель правил, как и у человека, только закладывается она снаружи.
М.М. Ботвинник более 20 лет пытался создать шахматную программу, пытаясь скопировать в ней свои принципы принятия решений в игре. Но программа так и не заиграла. Только не человеческий, а машинный подход, основанный на альфа-бета алгоритме, принес впоследствии результаты. Модель нейрона для изучения нейрона и принятие машиной решений в задачах ИИ — разные вещи, требующие разных алгоритмов. Каждая модель имеет определенную величину подобия прототипу и эта величина не бывает 100%. В зависимости от целей в моделях пренебрегают кучей свойств. Нпр., любой современный химик знает, что молекула не устроена из шариков и стерженьков, однако «примитивные» шаро-стержневые модели широко используются в современной химии.
А принцип простой — сила тяжести, сила реакции опоры, масса. 3 параметра и несколько законов их изменения.

Еще параметры, характеризующие упругость бочки и необратимые деформации, аэродинамические свойства (парусность). А еще параметры склона: изменения крутизны, распределение камней по размерам и т.д. Однако бочка и склон не используют в явном виде понятие «производная», как и нейрон. Значит ли это, что в модели скатывания бочки по склону мы не должны использовать производную? — Думаю, что не значит.
А я не говорю про программы в целом. Я говорю про существущие алгоритмы.
Хорошо — пусть алгоритмы. Разве им нужен «миллион повторений»?
Волшебство ни при чем.
Что тогда? Есть научный подход, в котором можно увеличивать точность учета свойств, устройства и поведения моделируемого явления, вплоть до достижения требуемой предсказательной силы моделью, а есть танцы с бубном и прочая мистика. Разве есть еще что-то?
Модель нейрона для изучения нейрона и принятие машиной решений в задачах ИИ — разные вещи, требующие разных алгоритмов

Речь идет о создании аналога естественного интеллекта. То есть о принятии машиной решений в задачах ЕИ.


М.М. Ботвинник более 20 лет пытался создать шахматную программу, пытаясь скопировать в ней свои принципы принятия решений в игре.

У него не было программы, которая бы эти принципы восприняла и смогла их применять. Потому что они требуют анализа ситуации, то есть свойств естественного интеллекта.


однако «примитивные» шаро-стержневые модели широко используются в современной химии.

Именно это я имел в виду под выражением "с точностью до целей и принципов". От модели "сливового пудинга" для строения атома например отказались, хотя поначалу она тоже вроде что-то объясняла, потому что ее принципы не объясняют результаты других экспериментов.


Значит ли это, что в модели скатывания бочки по склону мы не должны использовать производную?

Если вы закодируете каждый отдельный атом и их взаимодействие, вам не надо будет использовать сложные математические формулы для описания всего процесса в целом.


Разве им нужен «миллион повторений»?

Сейчас обучение сводится к большой обучающей выборке и большому количеству обучений по этой выборке. Пусть не миллион, а сто тысяч. Собаке все равно такая выборка не нужна.


Что тогда?

Другие принципы работы. Можно сколько угодно увеличивать точность учета в римской системе счисления, но в позиционной считать все равно удобнее. Можно сколько угодно проводить эсперименты с термодинамикой, но радио так не построить.

Мне все-таки неочевидно, откуда следует вывод, что если у нас что-то не получается, то нужно менять какие-то базовые принципы. Вон, скажем, в распознавании речи подходы, близкие к современным, насколько я понимаю, используются с 60-х, но практический результат был получен только сейчас. Почему вы считаете, что с ИИ не может быть точно так же? Дайте еще 40 лет развития нейросетей и все будет.

Так я же говорю, ЕИ при одинаковых условиях работает по-другому, показывает другие характеристики.

Да, ЕИ работает по-другому, но скопировать ЕИ мы сейчас не можем, и создать на других принципах (например, на нейросетях) сравнимый ИИ тоже не можем. Почему нужно менять принципы?

PS Прошу прощения если мои вопросы выглядят странно, просто я не вполне понимаю вашу позицию и хочу ее понять, потому что мне кажется, что я могу ошибаться.

Вы же сами ответили — потому что с текущими принципами не получается, и даже непонятно, почему именно не получается. Вот про это "почему именно" я и говорю. Нам надо узнать ответ на этот вопрос, чтобы сделать ИИ аналогичный ЕИ.

Так и не понял. Как из «не получается сделать ни одним из двух методов» сделать вывод «первый метод не подходит, выкидываем его»?

В таком случае я наверно не понял вопроса. Скопировать ЕИ мы не можем, потому что нет технической возможности. Значит надо догадываться о принципах. Текущие принципы построения нейросетей дают не такие характеристики, как у ЕИ. Значит нужны другие принципы.


"Другие" не значит, что надо менять всё. Надо подумать, что мы не учитываем, как должен работать один нейрон, чтобы вместе они дали нужное поведение. А не играть параметрами алгоритмов и размером выборки без понимания, как оно там внутри.

Во всем мире работы ведутся в разных направлениях. Нейронные сети — только одно из многих, пусть кажущееся очень перспективным. Вопрос «как оно там внутри?» представляется слишком расплывчатым и не очень важным даже для случаев, в которых мы уверенно можем на него ответить. Возьмем, например, мат. модель интегратора, которую можно реализовать в цифровой форме, как программу для (цифрового) компьютера, а можно в аналоговой — например, в виде электронного устройства, состоящего из операционного усилителя (ОУ) с конденсатором в цепи обратной связи (в статье «Интегратор» Вики есть ряд примеров других устройств-интеграторов). Что ответить на вопрос «как оно там внутри?», если сравнивать два эти интегратора: программу и ОУ или программу+ЭВМ и ОУ? Наверное, можно ответить, что внутри по-разному, но реализуется одна и та же мат. модель (про точность и скорость не говорим). Однако особо большого смысла поставленный вопрос не имеет.
Вопрос «как оно там внутри?» представляется слишком расплывчатым и не очень важным

А вот на мой взгляд это самый главный вопрос, и самая главная причина, почему мы все еще не придумали искусственный интеллект.


мат. модель интегратора, которую можно реализовать в цифровой форме, а можно в аналоговой

Для него мы знаем принципы работы. А для ИИ=ЕИ нет.

Для него мы знаем принципы работы.
Не понял: какие принципы? Если, нпр., если мы знаем, как устроен и работает ОУ, то это не поможет нам написать программу, и наоборот, программист, написавший программу для интегрирования, может не суметь сделать хорошее устройство из ОУ и конденсатора, т.к. ОУ и конденсаторы бывают разными, нужно знать, что выбрать. (нпр., допотопный бумажный конденсатор будет плохим выбором и, нпр., знаток конденсаторов может выбрать QBasic для реализации программы, что явно сомнительный выбор ).

Фраза "как оно там внутри" относится к принципам работы, а не к реализации.


Наверное, можно ответить, что внутри по-разному, но реализуется одна и та же мат. модель

То, что вы называете "мат. модель" и есть принципы работы. Чтобы сделать правильную реализацию, нужны дополнительные знания — приницпов работы программ или электротехнических компонентов.


Вот для интегратора мы знаем принципы работы, и можем сделать разные реализации, а для ЕИ не знаем, и похожих реализаций пока нет.

То, что вы называете «мат. модель» и есть принципы работы.
Разве у ОУ и CPU один принцип работы? Книги по нейронным сетям обычно начинают с описания нейрона: строение нейронов, механизм создания и проведения потенциала действия, классификация нейронов (подзаголовки из статьи в вики). Аналогичное описание принципов работы ОУ:
Несмотря на то, что проще и полезнее рассматривать операционный усилитель как чёрный ящик с характеристиками идеального ОУ, важно также иметь представление о внутренней структуре ОУ и принципах его работы, так как при разработке с использованием ОУ могут возникнуть проблемы, обусловленные ограничениями его схемотехники.

Структура ОУ различных марок отличается, но в основе лежит один и тот же принцип. ОУ […] состоят из следующих функциональных блоков:
1) Дифференциальный усилитель. Входной каскад — обеспечивает усиление при малом уровне шума, высокое входное сопротивление. Обычно имеет дифференциальный выход.
2) Усилитель напряжения [и т.д. …] (Операционный усилитель 741, рувики)
Описание принципов работы CPU начинают с описания простейшего составного элемента — триггера. Такое описание позволяет понять принципиальные отличия между аналоговой и цифровой обработкой информации. Что касается не искусственных нейронов, то не совсем понятно, к каким устройствам они ближе: к аналоговым или к цифровым?

Вы понимаете, что при программной эмуляции ОУ в программе на некотором уровне абстракции есть аналоги (модели) для тех же самых "Дифференциальный усилитель", "Усилитель напряжения" и т.д.? Часть из них упрощена, часть не нужна, и зависит это от целей и принципов работы этих частей. Модель для корпуса например делать необязательно. Вы почему-то постоянно обращаете внимание на реализацию. Каждый элемент реализации нужен с какой-то целью. Цели определются принципами работы. Это более высокий уровень абстракции.

Вы понимаете, что при программной эмуляции ОУ в программе на некотором уровне абстракции есть аналоги (модели) для тех же самых «Дифференциальный усилитель», «Усилитель напряжения» и т.д.?

Нет, простите, не понимаю! Я сравнивал не ОУ и эмулятор частей ОУ, а интегратор на ОУ и программу для интегрирования. И да, речь про уровень абстракции. Можно говорить про черный ящик, но тогда не последовательно говорить:

Надо подумать, что мы не учитываем, как должен работать один нейрон, чтобы вместе они дали нужное поведение. А не играть параметрами алгоритмов и размером выборки без понимания, как оно там внутри.

Либо черный ящик, либо «как оно там внутри». — Внутри черного ящика?!
Я сравнивал не ОУ и эмулятор частей ОУ

Согласен, тут я не понял, но смысл от этого не меняется. В этом случае ОУ это реализация, от которой нам нужны определенные свойства — а именно сумирование значений. В программе есть суммирование и в аппарате есть суммирование. На некотором уровне абстракции принципы работы одинаковые. Главное, что мы знаем, как делается сумма 2 чисел.


И да, речь про уровень абстракции. Можно говорить про черный ящик

"Уровень абстракции" означает, что выше этого уровня мы знаем принципы работы, а ниже не знаем либо они нас не интересуют. То есть нельзя говорить, либо черный ящик либо нет, черный ящик всегда есть на каком-то уровне. Но при этом мы знаем результат работы низкого уровня, его характеристики нас устраивают, и мы знаем, как их повторить. А в случае с нейронами не знаем.


Можно сколько угодно копировать птицу как черный ящик, но чтобы построить летательный аппарат, нужно знать законы аэродинамики, которые на эту птицу влияют.


Фильм на CD и на HDD хранится в разном виде, но на некотором уровне абстракции это один и тот же фильм.


Поэтому речь не про черный ящик. Речь как раз о том, что есть на нижнем уровне абстракции, какие логические объекты и процессы там можно выделить, чтобы их можно было повторить. В более широком смысле вопрос даже в том, как появляются уровни абстракции в мышлении ЕИ.

В основном согласен. Но думаю, что при этом стоит отметить следующие моменты. Справедливо говорят, что «дьявол кроется в деталях» — слишком абстрактный подход может показаться очень привлекательным, но конкретизация, пусть и тоже высоко абстрактная, может вызвать непреодолимые трудности. На мой взгляд, в области ИИ очень много абстрактных работ, где произносится много умных слов, но если вдуматься, то можно увидеть, что работа совсем пустая.

Второе. Очень часто одна и та же задача решается очень разными методами и средствами. Предполагаю, что целей ИИ можно достигать, танцуя от нейрона, но можно и не танцуя.

Третье. Следует брать посильные задачи. Нпр., пытаться научить машину, чтобы она писала осмысленные сочинения по литературе на уровне среднего десятиклассника, в настоящее время скорее всего окажется потерей сил и средств. В лучшем случае получим еще одну «Элизу».
Кажется, я понял. Мы с вами говорим об одном и том же разными словами. Вы пишете
«Другие» не значит, что надо менять всё.
Я абсолютно согласен, что если не менять ничего, то полноценный ИИ не получится (да и вообще ничего лучше, чем сейчас, не получится). Исследования ЕИ, наверное, могут помочь в деле проектирования ИИ, но кто его знает. Ну, не повредят уж точно, это очевидно.
А вот насколько глубоко будут пересмотрены принципы — например, будут ли это нейросети или нет? Будет ли это вообще какой-то алгоритм машинного обучения в современном виде (функционал качества + выборка -> оптимизация весов) или это будет что-то принципиально иное? Думаю, тут нет правильного ответа. В любом случае, наиболее близкая к ИИ современная технология, видимо, RNN.
Ну, во-первых, собаке тоже нужно ненулевое количество повторений, чтобы выучить команду, а во-вторых, алгоритмы постоянно совершенствуются. Не говоря уже о том, что у собаки при выучивании новой команды происходит лишь дообучение уже существующей системы — в машинном обучении такой процесс тоже нередко используется, и он требует гораздо меньших вычислительных мощностей, чем обучение с нуля.
А насчет нейронов — биологические нейроны устроены очень сложно, совсем не так, как нейроны из ИНС.
собаке тоже нужно ненулевое количество повторений

Так я не говорил про нулевое количество. Я говорил про принципы. Если при одинаковом количестве повторений качество результатов разное, значит и принципы разные.


происходит лишь дообучение уже существующей системы — в машинном обучении такой процесс тоже нередко используется

Так вон уж сколько существующих нейросетей в мире. Казалось бы, дообучить и все. Ан нет, не выходит что-то каменный цветок.


биологические нейроны устроены очень сложно, совсем не так, как нейроны из ИНС

Так если они устроены не так, и не получается сделать такие же возможности, то может и делать надо по-другому? И я не имею в виду реализацию. Совсем необязательно моделировать каждую молекулу.

Так если они устроены не так, и не получается сделать такие же возможности, то может и делать надо по-другому? И я не имею в виду реализацию. Совсем необязательно моделировать каждую молекулу.
Ok. Необязательно.
Я говорил про принципы. Если при одинаковом количестве повторений качество результатов разное, значит и принципы разные.
Для того, чтобы научиться выдувать мыльные пузыри, моей годовалой дочери потребовалось несколько сотен повторений. Уверен, что мне сейчас потребовалось бы кардинально меньше, если бы я не умел. У нас разные принципы устройства интеллекта?
Так вон уж сколько существующих нейросетей в мире. Казалось бы, дообучить и все. Ан нет, не выходит что-то каменный цветок.
Вы хотите сказать, что дообучение не используется на практике? Это не так.
Так если они устроены не так, и не получается сделать такие же возможности, то может и делать надо по-другому?
Да, вполне возможно, что делать нужно что-то по-другому, не так, как сейчас. Но методы и сейчас бурно развиваются, то есть, потенциал используемого инструментария еще не раскрыт до конца.
Уверен, что мне сейчас потребовалось бы кардинально меньше, если бы я не умел. У нас разные принципы устройства интеллекта?

Это связано с восприятием информации и управлением мышцами. Если бы вы имели возможность передать мысли, что надо обратить внимание вот на это и подуть вот так, то повторений было бы гораздо меньше. В нейросеть мы можем передавать любые значения, но количество повторений от этого меньше не становится.


Вы хотите сказать, что дообучение не используется на практике? Это не так.

Я хочу сказать, что нейросетям далеко до возможностей ЕИ и дело не в быстродействии, а в принципах обработки информации.

Если бы вы имели возможность передать мысли, что надо обратить внимание вот на это и подуть вот так, то повторений было бы гораздо меньше.
Если бы я мог передать скрытое внутреннее состояние в нейросеть, то смог бы с ее помощью аппроксимировать абсолютно любую функцию от входных данных (см теорему Цыбенко).

А вот с тем, что существующим методам машинного обучения (не только нейросетям, хоть они сейчас и в тренде) в деле решения наименее формализуемых задач до естественного интеллекта далеко, согласен. Но будут ли пересмотрены какие-то фундаментальные принципы или мы просто еще недостаточно глубоко разработали существующие семейства алгоритмов и/или аппаратную базу? На мой взгляд, это неочевидный вопрос.

Что вам мешает записать значение в оперативную память? Может вы не знаете, что туда писать, чтобы получить нужный результат?


Ну и да, смысл входной информации зависит не только от входной информации. И даже если считать накопленный опыт частью входной информации, то вопрос в том, как этот опыт накопить. Как из первоначальной информации выделить объекты и как в последующей эти объекты распознать.

Человек перепрошивает себя
Следовательно, существует алгоритм «перепрошивки»? И его можно реализовать в кодах машины? — Иначе получим, что не всякий алгоритм реализуем на универсальной машине. Это будет противоречить теории.
В ряде тестов машины превзошли человека как раз в распознавании образов. До звуков, видео и текста рукой подать (в пределах десятилетия).
В одном из московских н.-т. журналов 1960х гг. читал утверждение, что к концу пятилетки ЭВМ будет писать стихи на уровне Пушкина. К сожалению, не могу найти точную ссылку — если у кого есть, сообщите, pls.
ИИ — это маркетинговый термин
Прежде всего этот научный термин computer sci. Да, «deep learning» одна из важных составных AI.
В нескольких словах: роботы под водой, на земле, в воздухе, в космосе и на других планетах: Луна и Марс.


… а людей загнали перекладывать бумажки в офисах, сидеть на кассах и заниматься прочими видами деятельности для которой достаточно было бы несложного скрипта.

Поздно беспокоиться о бунте машин, он уже случился.

Пример кассы не совсем корректный. У меня в магазине возле дома есть 4 автоматических кассы, а люди всё равно идут в кассу с кассиром. Потому что в автоматической кассе надо самому пробить все товары, выбрать себе пакет, сложить, как только не ту кнопку нажал — сразу паника. Вот это будет работать только после полноценного внедрения NFC в эту отрасль, чтоб положил в кассу пакет и он посчитался, но я не ручаюсь за стоимость такого решения.


А что до бумажек — тут скорее проблема во внедрении электронного документооборота, тогда станут не нужны бумажки, как и люди, которые их перекладывают. Но тут проблема, опять же, в грамотности населения. Потеряет человек свой приватный ключ, забудет пароль к нему, и что дальше? А подписать бумажку — это просто и понятно, хотя на самом деле проблема огромная, хотя бы потому что клерки к проверке подписей и печатей относятся наплевательски.

НЛО прилетело и опубликовало эту надпись здесь

А можно ссылку на этот случай? Найти что-то не получается.

НЛО прилетело и опубликовало эту надпись здесь
Для меня автомобили всегда были автономны полностью. К сожалению, сейчас в полной комплектации они должны содержать водителя. Если прогресс интеллекта автомобиля не ведет к избавлению от этого ретро-элемента, то для меня это не прогресс.

ПС: пример с автозаменой в ворде явно показывает что автор не понимает что из себя представляет даже современный «ИИ».
М.б. не автор, а уважаемый Микрософт не понимает, раз его программы претендуют на такой «ИИ»?

Желание обойти повторную сертификацию не абсурд, так как процесс крайне дорогой (один из пунктов, 1000ч полетов по ряду тестов) — ниодна авиакомпания не согласится на это. Маркетинг.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации