Pull to refresh

Comments 84

В то же время опытные игроки спокойно «прочитают» на лице новичка, какие у него карты.
Тут недавно как раз новость проскакивала, процитирую:
Алгоритм тренировали на видеозаписях из зала суда, после чего ИИ-система смогла считывать выражения лица, которые появляются, когда человек говорит неправду, с точностью 92%, пишет EveningStandart.
После просмотра всего 15 видеозаписей из зала суда ИИ научился распознавать, кто говорит правду, а кто обманывает, с точностью 92%. При этом, люди смогли считать 81% выражений лица, указывающих на то, что свидетель лжет. «Система одновременно распознает визуальные особенности высокого и низкого уровней, поэтому способна определять, когда человек говорит неправду», — объяснили исследователи.


Ваши аргументы очень убедительны, но к сожалению, или к счастью, полностью несостоятельны в ближайшей перспективе, вы до сих пор разделяете глупую цифровую числомолотилку и теплые аналоговые нейроны, такой подход устарел ещё году в 2015, с тех пор всё больше и больше практических примеров, что цифровые системы могут быть не такими уж и прямолинейными и запрограммированными.
Не надо пропускать слово «опытные».

Если взять десяток студентов и на них показывать недостатки человеческого восприятия, можно доказать всё, что хочет профессор. Тем более, никто не знает, как определяли правду и не правду.

Распознование речи сейчас болтается на уровне 80-90 процентов. Сделав огромный скачок оно вышло на плато и специалисты который год не знают, как добрать остальные десять. А это, пардон, ошибочно услышать одно слово из десяти.
специалисты который год не знают, как добрать остальные десять
И который именно год, по вашему, они терзаются в тщетных попытках превысить 80-90%? Из тех источников, за которыми слежу, второй год только пошел, когда результаты улучшаются на доли процента за полгода, перешагнув уже, тем не менее, 95% (для english), подойдя и даже местами превышая уровень среднестатистического человека (степень корректности такого сравнения оставим на совести экспериментаторов, понятно что у человека в общем случае пока тотальное преимущество, за счет понимания контекста, такие проценты могут быть только на несвязанных случайных словах). На youtube сейчас вполне адекватные автоматически-генерированные субтитры для английского, ошибается только в специфических терминах и названиях, очевидно неизвестных системе.
Опять же, ни один менеджер не посадит на место «среднестатистического человека», посадит подходящего. И именно с ним должен соревноваться искусственный интеллект.

А «понимание контекста» — это то, на чём загнулся взлёт искусственного интеллекта предыдущего поколения. Это же относится и к «специфическим терминам».

Что, собственно, в посте и сказано: удастся заменить саппорт из Бангалора.
А «понимание контекста» — это то, на чём загнулся взлёт искусственного интеллекта предыдущего поколения. Это же относится и к «специфическим терминам».

Пока да. Надо распознаванию смысла учить. Главное направление развития, мне кажется.
Надо распознаванию смысла учить.


Мон шер. Это именно то место на диаграмме развития, на котором написано «И тут произошло чудо»

Используемые сейчас статистические методы способны найти только те смыслы, которые в них заложили создатели. Это занятие настолько дорогое, что оно обмануло радужные ожидания предыдущей лихорадки. И особых прорывов на этом направлении не наблюдается. Даже для «Ватсона» пришлось доставать из ножен древний Пролог.
Кто же говорит, что будет просто :) Но дорогу, как известно, осилит только тот, кто идёт.
Как «кто говорит»? Проповедники скорой победы искусственного интеллекта и говорят на всех углах.
Скорой победы — то сложно сказать. Но хорошо продвинулись — то факт.
Таким образом единственный недостаток искусственного интеллекта: он всё ещё не является сильным. Над этим упорно работают. Впрочем для настоящего скайнета/гладос/что-то ещё пока банально не хватает мощности. Кстати то, что AI поступает в итоге не как человек, минусом не является с практической точки зрения.
Очень просто натаскать AI на миллионе кошечек или на тысячах километров дорог. В специализированных областях банально нет достаточного количества образцов, чтобы на них учить статистические алгоритмы.
С людьми в этом плане не сильно меньше проблем. Собственно подготовка специально обученного человека на достаточно узкую область в сумме занимает десятки лет.
Ну да. Будет то же, что и с лекарствами. Усилия будут вкладываться в простые и массовые вещи, которые позволят дать прибыль на больших объёмах. А вкладывать большие ресурсы в освоение узкой ниши будет просто не выгодно.
Недостаток искуственного интелекта в том что он вообще не является интелектом и в ближайшем будущем быть таковым не предвидится. Это просто решение математических задач по нахождению оптимумов в решении систем уравнений и подбор весовых коеффициентов для оных. Интелектом тут и не пахнет — просто арифмометр с милиардамы вычислений в секунду.
Эм… но ведь нейросети сделаны по образу и подобию мозгов, ваш мозг по сути также является обычным арифмометром, только с неимоверно большим количеством вычислений.
Эм… но ведь нейросети сделаны по образу и подобию мозгов, ваш мозг по сути также является обычным арифмометром,

а когда это стало известно о том как устроен и работает мозг?
, только с неимоверно большим количеством вычислений

если вы считаете что мозг выполняет вычисления то вычислите только с помощью мозга например произведение пары пятизначных чисел. или их логарифим например. И засеките время
а когда это стало известно о том как устроен и работает мозг?

Как точно работает мозг пока не известно, но примерно понятны принципы работы, на этих принципах строятся нейросети.
если вы считаете что мозг выполняет вычисления то вычислите только с помощью мозга например произведение пары пятизначных чисел. или их логарифим например. И засеките время

Но если написать нейросеть на компе которая это делает то она будет справлятся ещё дольше. Вы не верно трактуете вычисления в данном ключе. Но да вы без проблем управляете практически всем своим телом и анализируете изображения, текст, звук и огромное количество другого, это что по вашему не огромные вычисления?
Как точно работает мозг пока не известно, но примерно понятны принципы работы, на этих принципах строятся нейросети.

недавнее исследование нейронов израильскими ученым показало что представление о работе нейрона превалировавшее последние сто лет можно выбросить в мусорную корзину.
И вообще если все сводится к связям между огромным количеством нейронов то почему у слона меньше интелекта чем у человека.

это что по вашему не огромные вычисления

это аналоговые вычисления а не цифровые.
недавнее исследование нейронов израильскими ученым показало что представление о работе нейрона превалировавшее последние сто лет можно выбросить в мусорную корзину.

Не надо торопиться!

Вот эта статья… с картинками:
http://www.nanonewsnet.ru/news/2017/klassicheskoe-predstavlenie-o-rabote-neironov-mozga-okazalos-oshibochnym

Это открытие совершенно не противоречит модели ИНС. Разве что усложняет ее.

Если до этого каждый нейрон рассматривался как нелинейный сумматор-преобразователь, то теперь придется на каждый вход нейрона поставить дополнительный нелинейный преобразователь. Т.е. просто увеличится число слоев НС. Впрочем, их количество и так увеличивают в сложных задачах.
Дело не просто в количестве, дело в связях.
это аналоговые вычисления а не цифровые.

И что это как-то меняет тот факт что это вычисления?
ваш мозг по сути также является обычным арифмометром,

Не-а. Мозг — аналоговый, параллельный и нечёткий преобразователь. Отличия от арифмометра принципиальные. Поди, сейчас в вузах и устройство аналоговых компьютеров не учат «за ненадобностью». А зря.
Ну да, только вот никто вам не мешает симулировать теже самые процессы на компе, Разница только в том что подобная симуляция будет намного, намного дольше аппроксимирующих решений, а в результате будут работать вряд ли лучше.
А недавно новость и про покер была. Проиграли люди в покер машине.
Может быть я излишне привередлив к мелочам, но, по моему, автор имеет несколько ошибочное представление, как о преферансе, так и о применении AI в играх с полной и неполной информацией.

1. Необходимость «читать по лицу» в преферансе возникает весьма не часто. И связано это исключительно с угадыванием сноса на мизерах или (что реже) на других играх.

2. Я немного интересовался теорией угадаечных мизеров в преферанесе. И могу сказать, что блеф в этом случае легко формализуем и описывается в терминах теории игр на информационных множествах и байесовскими апостериорными вероятностями.

3. Самообучающаяся нейросеть «AlphaZero» играет в шахматы (игра с полной информацией) сильнее всех современных гроссмейстеров и сильнейших переборных шахматных программ.

4. Самообучающаяся нейросеть «Cepheus» играет в лимитный холдем (игра с неполной информацией) сильнее признанных чемпионов. При этом умеет блефовать. Правда, с безлимитным холдемом и омахой пока что не совсем удачно выходит.

Я не просто так акцентировал внимание на слове «самообучающаяся». Мы вступаем в эпоху, когда возможности разума и AI становятся сопоставимыми. И поэтому человеку всё труднее научить AI чему либо. А вот научить его учиться он еще волне может.
Имелась ввиду игра опытного игрока с новичком. Просто как модель. И просто в контексте упоминания того, что машина понимает только то, что знает, а человек может воспринимать дополнительные контексты.

В общем же случае любая игра — модель достаточно простая, чтобы для неё рано или поздно нашлось оптимальное «математическое» решение.

Про то, как учат учиться можно прочитать про Ватсона и рак. Очень перспективный рынок и очень скромные результаты для такого объёма вложенных ресурсов. И объективность получается только до границы изложения взглядов тех врачей, которые участвуют в его обучении.
Если кто-то участвует в обучении, то это обучение с учителем. В этом случае, действительно, существуют границы обучения, не выходящие за рамки познания учителя.
Вот почему сейчас все чаще обращаются к идее обучения без учителя, колгда не существует субъективной оценки и критерием является только конечный результат.

Впрочем, «сейчас» началось еще очень давно. Один из ранних персептронов, про который я читал еще лет 30 назад, учился поддерживать вертикальное положение шарнирного шеста на моторной тележке на пути ограниченной длины. Без учителя. Только два исхода — упал шест или еще стоит. И ведь весьма успешно учился.

Так и игровые самообучающиеся нейросети не только учатся играть как люди, но и открывают ранее неизвестные людям приемы и правила.
Естественно, всё началось давно, а прорыв сейчас обеспечили возросшие ресурсы и вложенные деньги. Только я сомневаюсь, что кому-то захочется без учителя самообучать медицинскую нейросеть по принципу «упал пациент или ещё стоит».
Три комментария вниз по предыдущей ветке и есть ссылка на то, что из этого на данный момент вышло в реале. Правда, не знаю, есть ли переводы этих статей на русский.
  1. Нет. Выше пример уже привели.
  2. Нет. Уже были примеры нейросетей, которые обучаются зная лишь правильно они поступили или нет. Автоподсказки google уже делает лучше.
  3. Нет. Очень много ручной работы есть потому, что она дешевая, или потому что профсоюзы против ее автоматизации. Те же почтальоны, например.
  4. Нет. Правда, построение неформальных связей тоже можно делать при помощи нейронных сетей.

Вы как-то слишком сильно возвеличиваете человеческий разум и нивелируете результат, который достигает AI. Вам кажется смешным, что нейросеть может принять диван за кота? Вы выдели список когнитивных ошибок, которые совершает человек?)

даже трехлетний ребенок не спутает диван с котом.
И для этого ему понадобится 3 года обучения и миллиарды миллиардов нейронов.
Для того что бы ребенок запомнил что это кошка ему надо ее просто показать и сказать что это кошка

При этом, когда ребенку показывают собаку, это тоже улучшает качество распознавания кошки.

и что? речь о том что ребенок запоминает что кошка это кошка без прогона тысяч фотографий кошек для обучения. И тысяч фотографий собак чтобы улучшить качество распознавания кошки.
Я к тому что ИИ и всякие нейронные сети не имеют никакого отношения к работе мозга. Человек не строит математическую модель обьекта с коэффициентами. Человек мыслит идеями и смыслами предназначениями- он понимает что это идея кошки а это собаки а это автомобиля.
Ребенка учат не на тысячах фотографий, но на десятках рисунках, в которых основные признаки кошки уже представлены в рафинированном виде. И только потом он сможет отличать кошку на фотографиях.
Кроме того, ребенок учится не только на изображениях, но и наблюдая за кошками вживую. Т.е. видя их в движении, в разных позах и т.д.
Пятиминутное наблюдение за живой подвижной кошкой даст болше разнообразной информации, чем тысячи ее фотографий.

Я вот чего не понимаю: зачем стараться приблизить НС к человеческому мышлению? Это же непостижимое противоречие!
С одной стороны мы хотим моделировать работу человеческого мозга (слабо при этом представляя, как же он работает на самом деле). Чтобы НС водила такси, как Петр Петрович с 40-летним водительским стажем и разбирала корреспонденцию, как Мариванна — заслуженная секретарша, пережившая дюжину директоров.
С другой стороны требуем от AI, чтобы он функционировал лучше, чем наши мозги. И вот это, как ни странно, получается лучше. Особенно, если предоставить НС самой себе.

Т.е. обучение с учителем ущербно по своей природе. Оно всегда будет упираться в субъективные ограничения. Мол, вот это диван, а вот это — задница. Это хорошо, а это плохо. Это теплое, а это мягкое. И т.д. А в условиях таких ограничений НС может только подстраиваться. И не факт, что это получится.

При обучении без учителя (например, при игре с самим собой) никаких искусственных ограничений нет. Есть только цель и окончательные критерии. Во всем остальном НС предоставлена самой себе. Больше свободы, больше гибкости. НС лучше оптимизирует свои связи-коэффициенты.

Кроме того, есть существенное различие в НС, которая распознает 95% слов и НС, которая играет оптимально 95% партий. Хотя бы потому что гроссмейстер-человек не может похвастаться последним.
А по поводу распознавания слов… Так это человеческий шовинизм приписывать машине неспособность распознавать речь. Мол де у человека это в природе заложено, а машине недоступно.
Сами-то попробуйте вставить правильно пробел сюда:

ВОСЕМЬДЕСЯТНИКОВ
Я вот чего не понимаю: зачем стараться приблизить НС к человеческому мышлению?

потому что люди видят будущее как в научно-фантастических романах. Создание искуственного аналога мозга человека бессмысленно хотя бы потому что точно такой же искуственный мозг будет иметь и недостатки такие же как человеческий.
Как в Собачьем сердце когда профессор Преображенский объясняет что с академической точки зрения превращение собаки в человека конечно интересно но с практической точки зрения гораздо проще родить человека любой бабой.

… искуственный мозг будет иметь и недостатки такие же как человеческий.

О чем и речь!
Представляется логичным не создание ИИ, аналогичного человеческому, а внедрение его в области исследований скрытых взаимосвязей, многофакторного анализа и прочего, где пока мы не имеем даже инструментов формальных решений.

Т.е. ИИ должен не подменять человеческое мышление, а дополнять его.
бессмысленно хотя бы потому что точно такой же искуственный мозг будет иметь и недостатки такие же как человеческий

Нет. Если мы будем знать законы, по которым работает естественный интеллект, мы сможем изменить нужные параметры искусственного, чтобы эти недостатки убрать.

Лирическое отступление…

Забросили два рыбака сети и вытащили русалку.
Одн почесал репу и отпустил ее за борт.
Далее диалог между рыбаками в стиле вольного русско-английского перевода:
— But why?
— But how?

Так вот, в данной теме главным является вопрос не «Как?» и даже не «Почему?», а «Зачем?»

С академической точки зрения, это, безусловно, интересно и познавательно. Но вот нужно ли это с практической точки зрения — приближать ИИ к ЕИ?
Может быть оставить кесарю кесарево?

А нейросети зачем? Зачем на эти исследования тратят миллионы?
Чтобы компьютер мог выполнять человеческую работу. Применений этому много, работа в космосе например.

А так ли это необходимо, чтобы ИИ выполнял эти работы как человек? Или нужно позволить ему научиться выполнять их каким либо более оптимальным образом, который пока что инженерам, механикам не известен?

Проблема в том, что НС, обученную без учителя, невозможно контролировать. Т.е. это черный ящик, вещь в себе. И существуют понятные опасения, что в один далеко не прекрасный момент что-то пойдет не так.

Получаем:

ИИ, обученный с учителем, не превзойдет учителя.
ИИ, обученный без учителя, может научиться чему-то не тому.
ИИ, обученный с учителем, не превзойдет учителя.


Ещё экспертные системы прошлого поколения показали, что на определённых задачах программа превосходит тех, кто её обучает. Хотя бы по количеству рассмотренных вариантов или по возможности комбинировать знания многих специалистов.

Проблема обучения с учителем только в огромных затратах на извлечение и формализацию знаний. Для научных исследований это пофиг, а коммерческие проекты должны окупаться.
Или нужно позволить ему научиться выполнять их каким либо более оптимальным образом, который пока что инженерам, механикам не известен?

Для начала он должен выполнять хотя бы каким-то образом со сравнимым результатом. А этого пока нет.


Проблема в том, что НС, обученную без учителя, невозможно контролировать. Т.е. это черный ящик, вещь в себе.

Это не проблема, это следствие проблемы. Проблема в том, что мы не знаем принципы работы естественного интеллекта, потому и не знаем, соответствует ли то, что происходит в нейросети этим принципам.


ИИ, обученный с учителем, не превзойдет учителя.

Не ИИ, а нейросеть. Их нельзя назвать интеллектом. А естественный интеллект вполне может превзойти учителя.

Для начала он должен выполнять хотя бы каким-то образом со сравнимым результатом. А этого пока нет.

Как это нет? Читайте выше. Шахматы, покер. Самообучающийся ИИ на основе ИНС не только превзошел учителей-программистов (которые, подозреваю, весьма посредственные игроки), но и обыгрывает сильнейших игроков и игровые программы.

Соглашусь, что данная область весьма специфична и узка. Но данные примеры показывают ясно: Не надо стремиться притянуть ИИ к ЕИ. Если ИИ и способен превзойти ЕИ, то не в области повседневных человеческих занятий (секретарь, водитель), а именно в тех областях, которые и наиболее талантливым людям даются с трудом.

Оставим человеку человеческую работу. Пусть железяки занимаются тем, на что люди не способны, либо способны считанные единицы.
Оставим человеку человеческую работу. Пусть железяки занимаются тем, на что люди не способны, либо способны считанные единицы.


Задача-то именно в том и состоит, чтобы массово заменить дорогой человеческий труд. Плодить гениальных тунеядцев — это никогда не окупится.
Задача-то именно в том и состоит, чтобы массово заменить дорогой человеческий труд.

Противоречие:
Дорогой труд не может быть массовым. Массовость труда предполагает низкую квалификацию. Чтобы мартышка могла его освоить.
Но если его может освоить даже мартышка, то всегда найдутся люди, которые могут его освоить лучше. Как секретарша из фильма «Дьявол носит Прада».
Поэтому массово заменить все равно не получится. Опять упремся в некоторую планку, когда ЕИ начнет выигрывать у ИИ. Потому что ИИ изначально притягивался к массовым занятиям ЕИ, а не к эксклюзивным специфическим работам.
Дорогой труд не может быть массовым.


Массовый труд не может быть высокооплачеваемым. А вот дорогим — сколько угодно. Сотня землекопов выйдет дороже экскаватора, хотя выроют они меньше.

Вот AI и может выступать подобным экскаватором. Нам же усиленно кричат, что вот буквально завтра даже программисты останутся без работы.
Нам же усиленно кричат, что вот буквально завтра даже программисты останутся без работы.

Так журналисты же кричат. Программисты скромно показывают результаты :) В последнее время — весьма впечатляющие.
Как это нет? Читайте выше. Шахматы, покер.

А причем здесь шахматы и покер? Это игры с правилами, заранее определенный набор ситуаций.
Правильных переводчиков текста нет например. Или тот же пример с десятками рисунков.


Но данные примеры показывают ясно: Не надо стремиться притянуть ИИ к ЕИ.

Ну вам не надо. А кому-то нужны рабочие в тяжелых условиях или в космосе, нужны работники, которые будут делать то же самое, только 24 часа в сутки, или которые не сделают ошибку из-за плохого настроения. Кому-то нужны результаты, чтобы лучше понять как работает мозг, и использовать это в сфере обучения или медицины.


Данные примеры показывают только то, что нейросети работают не так, как ЕИ.


Цель всех этих исследований — именно аналог ЕИ, нейросети это полезный побочный продукт.

Очень даже при том :)

Покер это очень хороший пример принятия решений в условиях неполной информации. Мало того, что карты соперника неизвестны, так еще надо учитывать характер его заявок. А он при этом может как играть по своей карте, так и блефовать или просто ошибаться. Более того, он еще корректирует свои заявки в зависимости от наших!
И кэш на столе при этом тоже является величиной переменной в очень широких пределах.

И вот эту всю информацию (а не только о своих картах) нужно обработать и перевести в простые и понятные инструкции: спасовать, сравнять, повысить на такую-то величину.

нужны работники, которые будут делать то же самое

«То же самое» вовсе не означает «таким же образом».
Вот теперь перейдем к шахматам…

Шахматная НС делает то же самое, что и шахматист или другая шахматная программа: играет, чтобы выигрывать.
Но как она это делает, пока что неясно. Ясно только то, что она не делает глубинный перебор — это в ней не заложено. Если и есть какая-то глубина, она значительно меньше, чем у переборных программ. НС не считает материал, подвижность и прочие критерии по заданным правилам, а оценивает сразу всю позицию.
В результате самообучения она создала свои собственные правила оценки позиции, гораздо более точные, чем применяются людьми и созданными ими переборными шахматными программами.
И теперь она делает то же самое — выигрывает. Но делает это совсем по другому.

Данные примеры показывают только то, что нейросети работают не так, как ЕИ.

Так я об этом же уже сутки и толкую — ИИ и НС лучше всего показывают себя там, где их не заставляют подражать ЕИ.

P.S. Тут пытаются научить ИИ различать, в каких случаях надо начинать письмо словами «Уважаемый мистер Фикс», а в каких — «Дорогой Джордж». А может быть он решит, что правильнее всего написать «Пошел на хрен, Альберт!» © и будет при этом полностью прав :) Потому что не будет подстраиваться под наше представление о том, что и как надо делать.
Покер это очень хороший пример принятия решений в условиях неполной информации.

Это все абсолютно неважно. Это все равно специфичная ситуация. Вот когда программа для покера научится играть в шашки по описанию правил, тогда это будет хороший пример.


«То же самое» вовсе не означает «таким же образом».

Так я о том и говорю, нужно сначала хотя бы каким-то образом добиться сходного результата. Неважно как она в шахматы играет, калькулятор тоже считает быстрее человека.


Так я об этом же уже сутки и толкую

Ну толкуете и ладно, люди-то все равно хотят изобрести аналог ЕИ.


и будет при этом полностью прав :) Потому что не будет подстраиваться под наше представление

Не будет он полностью прав. Потому что эта ситуация напрямую касается людей, и они сами могут оценивать результат. Если вас какая-нибудь секретарша пошлет нахрен, вы не будете считать ее правой, и начальник не будет, вот и робота не будут.

Вот когда программа для покера научится играть в шашки по описанию правил, тогда это будет хороший пример.

Что-то подобное как раз и случилось:

hi-news.ru/technology/vsego-za-4-chasa-google-vzrastila-luchshego-shaxmatista-v-istorii.html

Всего за 4 часа Google «взрастила» лучшего шахматиста в истории.

Комментарий к статье:

«Программе задали только где на экране очки считаются, задали куда нажимать можно — вперед-назад, стрелять и т.п. И нейронка за несколько часов научилась управлять пушкой вообще ничего не зная о правилах..»
Там ошибка. Не за 4, а за 24 часа.

Там нет такого комментария.


Программе задали только
вообще ничего не зная о правилах

Вот и я о том же. Ситуация задается извне. Потом она перебором многих комбинаций нашла подходящий вариант. Она не сможет объяснить, почему делает так, а не иначе.

Ребенка учат не на тысячах фотографий, но на десятках рисунках, в которых основные признаки кошки уже представлены в рафинированном виде.

Вот когда нейросеть научится на тех же десятках рисунков, тогда можно будет говорить, что она по возможностям близка к естественному интеллекту.


Но увидев в фантастическом фильме неизвестное животное, показанное в одной сцене на несколько секунд, вы узнаете его в следующей сцене даже с другого ракурса, хотя никаких рисунков до этого не видели.

Да ну! :)

Вы уверены, что узнаете именно это животное, а не Ваше собственное представление о нем?

Например, я увидев инопланетного монстра в фильме «Викинги против пришельцев», в дальнейшем воспринимал его как трицераптоса или стегозавра, обвешенного фонариками. У увидев что-то стегозавроподобное, я понимал, что это именно этот монстр, сбежавший из клетки. Потому что других монстров в фильме быть не могло!

А «чужой» до сих пор у меня ассоциируется с осьминогом. Хотя щупальце-хвост у него было одно. Но уж больно похоже на осминожье оно распрямлялось.

И я «узнавал» всех этих монстров не потому, что я распознавал их по каким-либо признакам, а всего лишь потому, что они отличались от людей, деревьев, камней. А других монстров или похожих на них объектов, я ЗНАЛ, мне увидеть режиссер не даст.
а не Ваше собственное представление о нем?

Вот в этом и смысл. У машины должно быть собственное представление о внешней реальности. Без этого представление можно только заложить извне, для заранее определенного набора ситуаций.


а всего лишь потому, что они отличались от людей, деревьев, камней

Ну так вот машина пока так не умеет, ей надо гораздо больше повторений.

Я вот чего не понимаю: зачем стараться приблизить НС к человеческому мышлению? Это же непостижимое противоречие!


В контексте пятого пункта данных тезисов.

Вопрос только в том, удастся ли заменить для определённых видов работ программой не Амара Абусарию из Бангалора, а заслуженную секретаршу Мариванну.

При обучении без учителя (например, при игре с самим собой) никаких искусственных ограничений нет.


Есть, конечно. Это ограничение условий игры.

Те же самообучающиеся боты, предоставленные сами себе в чате, или затыкаются и молчат (что можно оценить как оптимальную стратегию), или обучаются таким вещам, что их приходится отключать (как бота-нациста от Майкрософта).

Так это человеческий шовинизм приписывать машине неспособность распознавать речь.


Для практических приложений гораздо важнее, что человек детектирует ошибку распознавания и переспрашивает, а для машины это просто один из выборов с весовым коэффициентом. Тем более, машина не предложит, как поправить входные данные.
один из выборов с весовым коэффициентом

Умение блефовать, применять смешанные стратегии, а не просто классифицировать — это уже признак того, что ИИ способен работать с множественными и нечеткими решениями. В т.ч. понимать, что возможно неоднозначное трактование ответа и включать при этом уточнение.
Пардон, это всё относится к вычислению оптимума среди стратегий с разными весовыми коэффициентами. Прикладные нечёткие системы развивали ещё японцы в рамках проекта компьютеров пятого поколения, внедрившие даже автоматическое вождение поездов.
Я, например, в 6 лет путал слова 'реклама' и 'лекало' (почему-то запомнилось :) ). Хотя казалось бы :) ЕИ тоже тот еще И.
некоторые и в 70 лет косноязычные и что?
Дети лет до восьми путают даже левое с правым и «b» с «d». Это не баг системы, а характеристика её развития. Которая уходит на определённом этапе.

Зато трехлетний ребенок никогда не отличит несколько пород котов, с незаметными на первый взгляд различиями.
А еще не найдет кота на фотографии, где он спрятан в куче других объектов. Более того, это и не всякий взрослый человек сделает.


Вы сравниваете минусы одного интеллекта с плюсами другого. Это не корректно. Просто так получилось, что нейронные сети думают немного по другому, а значит для них свойственны другие когнитивные искажения, которые человеку кажутся странными.


Я уверен, что нейронными сетям кажется смешной прокрастинация, например. Или отрицание вероятности.

Вы сравниваете минусы одного интеллекта с плюсами другого. Это не корректно. Просто так получилось, что нейронные сети думают немного по другому, а значит для них свойственны другие когнитивные искажения, которые человеку кажутся странными.

Не надо вообще сравнивать ИИ и мозг человека. Точнее ИИ вообще не надо называть интеллектом, то есть разумом.
Вы сравниваете минусы одного интеллекта с плюсами другого. Это не корректно.


В контексте поста сравниваются только характеристики, необходимые для выполнения определённых видов работы. И замена взрослых обученных людей компьютерными программами. (И мне не понятно, почему в этой битве человеческий интеллект, вдруг, защищают трёхлетние дети.)

При этом, менеджеру, принимающему решение, совершенно пофиг, как именно работа будет сделана, если она будет сделана правильно. Например, с поиском известных объектов на большом количестве изображений компьютер уже справляется лучше среднего человека. Но отсеивать ошибочное распознавание всё равно приходится человеку-специалисту.

А кто будет отсеивать ошибочное распознавание человека-специалиста, если вы поставите его вместо нейронной сети?
Человек не распознаёт, а принимает решение. «Это пятно засветки», «это срочно на операцию», «это какая-то непонятная фигня. Надо подождать», «Здесь надо отрезать кусочек и послать на гистологию».

Вопрос не в том, кто победит в соревнованиях на отдельном этапе, а какую деятельность можно поручить машине и сколько это будет стоить. (Менять инфраструктуру и рабочие процессы — это тоже не бесплатное удовольствие)
Ну вот специалист принимает неправильное решение в 5% случаев, нейронная сеть в 3%. Почему за специалистом следить не надо, а за нейронной сетью нужно?
Ещё раз читаем внимательно: специалист ошибается в пяти процентах случаев на одном единственном этапе. Причём, это обнаружение фактов, а не принятие решения. И большую часть ошибок он исправляет.

Точно также бухгалтер наделает больше ошибок, если будет считать баланс вручную.
Пример с телефоном понравился, ненавижу различные телефонные меню. Да и на сайте пиццу заказать уже не удобно: введите свои данные, код из смс и прочий мусор, проще позвонить и с оператором поговорить. Вот только к искусственному интеллекту это отношения не имеет, это просто пример идиотского внедрения технологий туда, где они не нужны пользователю.
Вот только к искусственному интеллекту это отношения не имеет,

Ну как же «не имеет». Внедрять искусственный интеллект вместо живого оператора будут те же люди, что создают эти жуткие квесты. И вождение автоматизировать будут те же программисты, что напортачили с педалью газа у Тойоты и в Фольксвагене пытались обмануть американские органы, контролирующие уровень выхлопа.
Опять же это не проблема искусственного интеллекта, а реального. Проблема не в том, что ИИ плохой, тупой, или что программисты опять накосячили, а в том, что не надо внедрять все что попало куда попало. Этот тезис близок к вашему за пунктом четыре, только Вы акцентируете внимание на том что ИИ неспособен «прочувствовать» какие-то грани и потому не применим для некоторых задач. Я же говорю о том, что в погоне за технологиями, модой или другими целями люди стараются использовать инструменты, явно лишние. С другой стороны за некоторыми такими случаями кроются более прагматичные причины: например телефонное меню позволяет экономить на персонале, мне как потребителю это не удобно, но у поставщика услуг другое мнение на этот счет, увы.
Вы акцентируете внимание на том что ИИ неспособен «прочувствовать» какие-то грани и потому не применим для некоторых задач.


Это проблема того, что девочка-оператор, выполняя кривой скрипт, отойдёт от инструкции и подстроится под вопросы клиента. Программа же будет делать только то, чему её научили и не сможет исправить ошибки «реального интеллекта», давшего дурные задачи. Когда сервис является важным фактором, такая экономия выльется в бегство клиентов.

Кстати, те меню, которые управляются голосом, называются «с элементами искусственного интеллекта». То, что первый вопрос у них «хотите ли вы прослушать нашу рекламу» — это не хитра я идея поставщика услуг, а его глупость.
Вам тот же вопрос. Если девочка оператор компенсирует свои 5% ошибок тем, что закрывает 3% случаев, которые не прописаны в инструкции, почему она становится лучше?

Вы рассуждаете о человеке так, как будто он всегда действует правильно и достигает поставленной цели, но это далеко нет так.
Откуда вылезли проценты? И откуда взялись "свои" проценты ошибок?

Или мы говорим о фактах и берём реальную статистику, или мы придумываем, но тогда уже не швыряемся цифрами.
То есть вам без цифр рассуждать можно, а мне нет?..
Окей, выкинем цифры, вопрос тот же. Почему вы учитываете ошибки нейронной сети, но игнорируете ошибки человека?
1. Девочка выполняет скрипт, заданный теми, кто создавал процессы.
2. Девочка игнорирует идиотизм. (Два раза нарвавшись на недовольство клиентов, пытается изменить формулировки на более подходящие)
3. Девочка понимает, что клиент запутался или недоволен и меняет тембр голоса или добавляет что-то от себя.

Нейросеть на это просто не обучена. Она работает со статистикой. Девочка — с конкретным клиентом на другом конце провода.

Не знаю, как у вас, а в моем случае, когда общаешься с человеком-скриптом выглядит это так:


  1. Девочка в любом случае выполнит скрипт, даже если ты попросишь ее что-то проскочить или задать нестандартные вопросы.
  2. Потом она будет безумно тупить в любых нестандартных ситуациях и пересылать куда подальше.

Посмотрите на службы поддержки интернет-провайдеров, на рекрутеров, которые даже не могут в изменение формулировки ответа. А еще можно напомнить про то, что девочка может быть задолбана, у нее могут быть какие-то отвлекающие проблемы и тогда она будет просто бубнить скрипт даже не вникая в то, что происходит.


И опять же, нейросеть вполне можно дообучать и корректировать ее поведение на основе отзывов. В этом же и смысл нейросетей, в обучении.


Мне кажется, вот так голословно заявлять о том, что девочка-оператор лучше, на основе того, что она может обработать часть крайних случаев неправильно. Потому что даже если допустить то, что она может это сделать, она порождает ряд других крайних случаев, которых бы просто не было у нейросети.

В результате самообучения она создала свои собственные правила оценки позиции, гораздо более точные, чем применяются людьми и созданными ими переборными шахматными программами.
И теперь она делает то же самое — выигрывает. Но делает это совсем по другому.

Более того. Думаю, что со временем станет возможным изучить, как конкретно идёт оценка и делать оценку уже на стороне ЕИ более точно. То есть — не только ИИ может учиться у ЕИ, но и наоборот

Я знаю, что так уже происходит в медицинских применениях. Уже относительно давно (лет 10 точно) существуют экспертные системы автоматического распознавания патологий. Настолько хорошо работающие, что они официально допущены FDA к использованию в медицинской практике. Обычно их используют в качестве второго (дополнительного) мнения. Так вот — бывает, что такие системы работают лучше врачей. Какое-то время. Но врачи довольно быстро находят свои 'косяки' и подтягиваются. Так что, кто бы что ни говорил, но польза уже есть даже от слабого ИИ.
К слову — в следующем году компания IBM начнет испытания своей системы Watson в применении к медицинской информации в Китае.
Можно это посмотреть:
hightech.fm/2017/08/14/watson-makes-treatmen
Или перво-источники:
www.ibm.com/watson/health/imaging
Интеллект — это способность к абстрактному мышлению. В принципе, и покер-систему можно научить читать лица игроков, но суть не изменится. Нужны, как минимум 2 качества:
— осознать, что есть такая сущность и такой процесс — «игра», что в покере, что в шахматах, что в домино
— на основе этого осознания уметь самостоятельно обучаться другим играм, используя прежний опыт
По-моему, у нынешней (третьей?) волны строителей ИИ нет понимания этих пунктов.
Sign up to leave a comment.

Articles