Pull to refresh

Comments 63

А как же автоматическая сортировка фоточек в Google Photos?

Пишу вот такие комментарии и получаю минусы. Потом пишу то же самое, но развёрнуто, получаю плюсы. Не факт, что и сейчас так будет, но общая тенденция проглядывается и заставляет задуматься. Но не суть. Автоматическая сортировка фотографий в Google Photos — это лишь один из миллионов тысяч (?) примеров применения ИИ в последнее время. Пример очень наглядный и показывающий, что ИИ в том или ином виде приносит пользу. Скажем, двадцать лет назад, Вы бы могли предположить, что Вашу коллекцию из тысяч фотографий машина может отсортировать по лицам, изображённым на них, в отдельные альбомы поместить животных (тоже отсортировав по внешности), места съёмки, предметы и прочее-прочее. Мне кажется, что о таком мало, кто задумывался, а сейчас — это обыденность. Я не хочу строчить длиннющий комментарий, описывая, где и как применяется ИИ на практике — тут и статьи не хватит. Вы этого не замечаете? Пусть это не тот ИИ, который нам рисовали в фантастических фильмах, но он есть, он уже здесь, он работает, он приносит пользу.
Один поиск чего стоит, заместо того чтобы вручную перебирать можно просто имя написать, или там написать кошки. Очень удобно!
И кому эта фигня, простите, нужна? Пустая трата вычислительных мощностей.
Я пользуюсь. В iOS распознавание содержимого фото сделано достаточно качественно (и выполняется непосредственно на телефоне), поэтому чтобы найти в массиве фото документ — я просто пишу в поиске «документ» и количество фото, которое надо просмотреть — уменьшается в сотни раз. Искал фото расположения проводки в санузле — набрал «ванная» и получил нужные фото.
Как я для себя понял суть статьи — она скорее о том, что текущий ии совсем не то, как его преподносят авторы вроде Юваль Ной Харари.
Но с другой стороны — чтоб разобрать и рассортировать кучу данных, креативные способности не нужны и текущий ии очень даже не плохо справляется.
Ему далеко до возможностей мозга, но и в текущем, «тупом» виде, он не плохо облегчает жизнь и привноси те возможности, которые раньше были недоступны.
Да, этикетка не в полной мере соотвествует содержимому, но само содержимое уже не плохо.
UFO just landed and posted this here

Вот именно. Стоит назвать "это" как-то по-другому. Например, канонически. Системы машинноного или глубокого обучения. Можно как-то с вариациями.
Но вот где там углядели ИИ — не понимаю.

Но разве слово «обучение» не предполагает того, что у обучаемого будет интеллект?
UFO just landed and posted this here
Приобретение новых знаний и навыков, которые можно в дальнейшем использовать на практике. А что Вы подразумеваете под «живым» и под «мыслящим»?
Вот именно, что слово «обучение» должно быть в кавычках применительно к нашей теме. И никак иначе. Под обучением там фигурирует что-то типа тренировки сетки, хотя и это должно быть в кавычках. Там скорее итерации по подгонке результатов под то, что человек (разработчик сетки) считает достаточным для получения приемлемого результата, под который сетка и создавалась. Отсюда и указанная в статье несомненная преобладающая роль разработчика. Сетки не могут ставить себе цель адаптироваться под конкретную задачу и достичь того то и того то. Для этих самых статистических методов, обозванных некогда «глубоким обучением», подобное совершенно нереально. Нужен настоящий ИИ. И 100500 взаимосвязанных сеток (как некто пытается нагородить) не есть его аналог.
В reinforcement learning (обучении с подкреплением) иногда используют curiosity driven learning (обучение направляемое любопытством). Никто пока не знает как этот метод связан с человеческим любопытством (мозг не настолько хорошо изучен), но поведение агента неплохо описывается этим словом — он не только пытается максимизировать подкрепление, повторяя удачные действия, но и изучает окружение, пытаясь найти что-то новое для себя.

В общем, проводить границу между обучением и «обучением» будет всё сложнее, конечно, если она (граница) не основана на позиции «это просто статистические методы», а не «такой-то статистический метод не позволяет сделать то-то, ищем как это сделать».
DeepMind рекламировала свои технологии и руководство, культивируя технологическую загадочность, однако вся демонстрация её работы сводилась к игрушкам с простейшими вычислимыми правилами.

Это он про игру Го? Ну, пусть сам попробует бота написать. Если подсушить, от статьи останется «не получится, потому что раньше не получилось».
А что не так-то? Го — игра с простейшими вычислимыми правилами. Проблема только лишь в количестве возможных вариантов игры.
Просто количество возможных вариантов у тебя как число не влезет в дисплей калькулятора. Про то, чтобы их все перебрать — и речи вообще нет. Потому и нужны алгоритмы, в том числе ИИ, чтобы играть «умно». Перебор не прокатит.
Еще раз: и?
В статье приведено абсолютно корректное утверждение относительно Го и DeepMind. Попытка контаргументировать это через «сперва добейся» — выглядит убого.
Потому и нужны алгоритмы, в том числе ИИ, чтобы играть «умно».

С этим никто и не спорил, не?
20xx год
Человеческий разум это очень простая легко вычисляемая система. Всего лишь жалкие 100 миллиардов нейронов соединённых между собой по ряду правил записанных в ДНК.
С этим никто и не спорил, не?

Мне показалось, что Вы спорили. Вы сказали, что "проблема лишь в количестве возможных вариантов игры", будто их можно перебрать «в лоб» и ИИ тут не впёрся. Возможно, я Вас не так понял, извините.
Ну так их можно перебрать, чисто в силу их конечности. Вопрос в скорости перебора. Вон см. комментарий выше про мозг и 20хх год.
Их сейчас физически нельзя перебрать все на суперкомпьютере, к которому есть доступ избранным. Зато можно реализовать ИИ, который будет достаточно хорошо играть против простого человека и запихать этот ИИ в программу для телефона — и каждый желающий скачает, будет играть и будет счастлив. Даже, если в ближайшем будущем появятся вычислители, позволяющие перебрать все варинты, — когда они станут доступны массам? А ИИ позволяет решать эту (и многие другие проблемы) для простых людей уже сейчас.
Вообще-то автор не с этим спорит. Он утверждает, что ИИ, несмотря на множество утверждений, не выдвигает никаких новых гипотез, не строит новые стратегии.

Решили задачу быстрого перебора, сделали на этой основе алгоритм, играющий в Go. Научились распознавать картинки (хотя и не без проблем, и не совсем так, как делает человек). Прелестно (без всякой иронии).

Может этот алгоритм нам что-то рассказать о том, как играть в другую игру? О том, как управлять автомобилем, как переводить с языка на язык? Или между этими разными применениями ИИ нет ничего общего, и достижения в решении одной задачи ничего ровным счетом не дают для решения другой?

Насколько я понимаю автора, он как раз и говорит, что ни о каком реальном самообучении на сегодня речи не идет. Если кто и обучается в процессе — так это люди.
Может этот алгоритм нам что-то рассказать о том, как играть в другую игру?

Он может научиться играть в другую игру. AlphaZero достиг свехчеловеского уровня в го, шахматах (в них обошёл и StockFish, работающую на основе оттюненых рукописных эвристик и быстрого перебора. AlphaZero, кстати, может неплохо играть и без перебора) и сёги. Рассказать как играть этот алгоритм пока не может, впрочем так же как и люди не могут точно описать как именно они принимают решения в процессе игры.


Или между этими разными применениями ИИ нет ничего общего, и достижения в решении одной задачи ничего ровным счетом не дают для решения другой?

Алгоритмы deep learning были относительно успешно применены в вождении машин (но там свои заморочки), успешно (state of the art) применяются в машинных переводах, разпознавании речи, reinforcement learning, относительно успешно в управлении движениями роботов.


Если кто и обучается в процессе — так это люди.

Люди обучаются строить архитектуры сетей, подходящие для обучения определенным задачам. Если говорить, что нейросети ничему не обучаются, то можно сказать, что и люди ничему не обучаются. Архитектура сети у нас в черепе была создана эволюцией, а не нами самими. То есть это эволюция обучается в процессе, а не мы.

>Он может научиться играть в другую игру.
Само по себе это дает нам немного. Насколько быстрее AlphaZero научился второй игре, и третьей? Были ли при этом использованы результаты обучения — или это было каждый раз обучение с нуля (в том что опыт разработчиков вырос, я не сомневаюсь)?

>Рассказать как играть этот алгоритм пока не может, впрочем так же как люди.

Вовсе не так же. Люди, научившись решать определенную задачу, могут рассказать о ней многое, хотя вероятно не все. О стратегии тех же шахмат написано множество книг. И эти книги позволяют другим людям учиться намного быстрее. И насколько я понимаю (и в этом я с автором статьи согласен), вот о таких результатах обучения пока речи не идет вовсе.

>люди ничему не обучаются
Ну это очевидно перебор. И те и другие обучаются, но люди обучаются _не так_, как сегодняшние нейросети.
Или между этими разными применениями ИИ нет ничего общего, и достижения в решении одной задачи ничего ровным счетом не дают для решения другой?

Т.е. мастера Го должны уметь переводить с любого языка на любой?
не строит новые стратегии.

В случае Го и шахмат — как раз строит. А в случае управления автомобилем 99% людей тоже не строят новые стратегии. Ну и что? Откуда такое требование к ИИ вообще взялось?

Это не требование. Вы статью-то прочитали?

В документальном фильме ВВС «Радость ИИ» профессор Джим Аль-Халили и основатель DeepMind Демис Хассабис описывают, как ИИ-система «сделала настоящее открытие», «способна реально породить новую идею» и разработала «стратегии, придуманные самостоятельно».
Вот не уверен, что строит именно стратегии типа «надо вывести своего ферзя на оперативный простор, ферзя противника взять, а его короля загнать в угол, после чего победа дело тактики». А в случае управления автомобилем, по-моему, и люди, и навигаторы стратегии строят типа «сейчас (по опыту или показаниям датчиков) лучше ехать в объезд центра», а уж «поверните налево, поверните направо — тактика»

Математическое "раз конечное, значит можно перебрать" совершенно не означает, что перебрать на самом деле можно (в нашем настоящем мире). Количество паролей тоже конечное.

Игру го изначально выбрали потому, что эту игру считали не разрешимой для ПК в обозримой перспективе. Но стоило компьютеру разгромно победить, как внезапно оказывается, что игра простая и ни о каком ИИ тут речи быть не может...

Статья лишь как показатель, что машинному переводу еще далеко до человеческого.
Мне за пятьдесят. Из них более 30 лет интересуюсь ИТ. И все равно скажу, что последние 10 лет это реально взрывной рост достижений в области искусственного интеллекта.
Как я понял, автор с этим не только не спорит, а именно это и говорит. Взрывной колличественный рост. Просто, как по мне, похоже на ситуацию с производством муки: изобретение мельниц увеличило производство муки в разы и на порядки. И разнообразие мельниц… (водяные, ветряные, на мулах/осликах,...). Допустим, в сколкове изобрели наножернова и теперь мешок зёрен смалывается за наносек. Заодно можно перемалывать камни, металлы… А вот штуку, кот. создаёт «молекулы муки» из окруж. атомов С, О, Н никак не сделать. Я как-то так понял. Ну и, до кучи, для меня термины «придумал», «изобрёл» и т.п. без кавычек можно применять только к [Искусственному] Разуму, а не к Искусственному Интелекту. О чём и автор, вроде, в начале говорит. Это всё моё ИМХО, ессно.
У меня в шкафу трехтомник " Справочник Искусственный Интеллект"(изд. Радио и Связь 1990 г) под. ред. Попова. И я вот читаю предисловие к книге, что тогда подразумевалось под понятием ИИ и сравниваю с теперешними требованиями к нему. Поверьте дело не только в аппаратной части, ресурсах. Тогда например(90-е) не думали, что нейросети научатся, например описывать происходящее на видеороликах.
А вот если бы нейронные сети не относили к слабому ИИ, то и шумихи бы такой не было. То есть во всём виновата неудачная терминология
А куда их относить? К слабому ИИ даже тесты бумажные относяться.
Никуда не относить. Не обзывать их ИИ
А как называть? Учитывая что ИИ это уже уставившийся термин, и дабы его изгнать придётся приложить титанические усилия. Лучше хотя бы разъяснить разницу между сильным и слабым.
зачастую термин «ИИ» пихают в любую сколь угодно автоматизированную реализацию анализа данных (data mining). А уж обозвать условно «нечеткий», вероятностный, статистический алгоритм ИИ — самое милое дело.
Блин, уже достало что к ИИ теперь относят и fuzzy logic а-ля стиралка-автомат И даже наивный байес!

Как я писал выше, даже бумажные тесты это слабый ИИ по текущим определениям. Нужно менять определения, придумывать новые термины и тд. Если хотите разграничить и отделить.

Статья о том что ИИ нейронных сетей это про интеллектуалность программную, как например автокорректирующиеся фары ксенона, которые являются интеллектуальными устройствами, но не про интеллект. А что там за бумажные тесты?)

Любое устройство, способное выполнять любую умственную работу по определению ИИ. Тем самым определить качества человека это умственная работа, а значит тест ИИ. Инструкция тоже ИИ если позволяет вам переложить свои размышления на решение другой системы. Т.е вы выбрали идти на лево или на право по инструкции, то вот он ИИ.
Так же можно использовать определение из Вики, но по нему Скайнет не ИИ, так как ИИ это вообще научная дисциплина.

Что означает «умственная»? Это подразумевает наличие ума или нет? В сокращении ИИ, первое И означает «исскуственный», а значит если я что то выбрал то значит уже не ИИ, ведь я не искусственный. Или есть другое мнение?
Неудачное выражение, имелось в виду, скорее всего, что вы тупо последовали инструкции, а не думали куда повернуть.
Если инструкцию разработал человек, то она лишь носитель, а не И.
А Скайнет тоже разработал человек, а человека создала эволюция. Значит они лишь носители, а не И.
Интеллект принимает решения, а инструкция нет: все решения приняты автором инструкции, инструкция лишь их передатчик к исполнителю. Вот когда инструкции приобретут способность диктовать с конкретной целью исполнителю что-то, что их автор не закладывал, то тогда они будут ИИ.
Т.е достаточно подождать пока инструкция испортиться и щрифт станет плохо читабельным, из-за чего инструкцию будут читать неверно? А конкретная цель вот она сделать неверно.
Если любой ИИ будет пытаться преследовать не заложенные создателем цели то его уничтожат. Как уничтожают и людей которые преследуют цели запрещённые в обществе.
Инструкция не может решать портиться ей или нет в господствующей научной картине мира. Да и цели иметь не может.

ИИ может быть достаточно умным, чтобы не проявлять своих целей до того как их достижение не станет реальным. Ну и людей чаще наказывают, чем уничтожают, и обычно не за цели, а за действия. А некоторые успешно избегают наказания разными способами, в том числе узурпацией власти.
Он может скрывать свои цели, только если его создатели будут плохо в нём разбираться и плохо тестировать будут. Но думаю таких будут ловить хорошо сконструированные не ИИ
Верно. А сети и не обзывали ИИ до примерно 2014 года. Вот когда начался ИИ хайп, тогда и понеслось. И пошло это не без участия некоторых «отцов-основателей» вроде Хинтона и Ына. У последнего прямая коммерческая заинтересованность в хайпе, а Хинтон, кажется, просто честолюбив. Но этот, правда, топил за ИИ еще с 80-х годов, а тут ему наконец поперло.
А интересно, как автор дает описание слова «Дух» /..But there is no ghost in the Google-stablemate's machine./ ??? Где он переводит его в строгий термин??? Как вообще возможно что то анализировать не определив критерии и термины?
Дух Машины есть частица воли Омниссии, дарованная как благословение. Очевидно же.

Меня терзают смутные сомнения, но, короче, есть небольшая вероятность что это отсылка к Ghost in the Shell.

Проблема функционализма в том что в Биологии НЕЛЬЗЯ РАЗДЕЛИТЬ HARDWARE and SOFT. Это две стороны одной монеты — результата процесса эволюции функций и структуры клеток

И как следствие проблемы с тиражированием: нового агента надо долго и нудно обучать, мирясь с неизбежной долей ошибок. В цифровом мире вы можете просто скопировать и быть уверены что копия и оригинал неразличимы.

UFO just landed and posted this here

Подход интересный, но с точки зрения бизнеса наверно не сильно перспективный. Поскольку получаемое решение приспосабливается к особенностям конкретного девайса, при поломке вы рискуете потерять все свои вложения в его обучение. Возможность бекапа сомнительна, на другом девайсе решение скорее всего не запустится или будет работать неэффективно.

Интересно, при достаточной вариативности в железе и программировании обучением, не будет ли результат надежно защищен от копирования? Кажется получить дубликат можно лишь зная алгоритм обучения и обучающая выборку.
Происходящий всплеск эффективности ИИ, МО и т.н. «глубинного обучения» (ГО) по большей части основан на применении этой техники обратного распространения.

Не совсем так. Всплекс эффективности произошёл за счёт комбинации следующих факторов:


  1. Разработка эффективных численных методов минимизации нелинейного функционала ошибки. Изначально высокая потребность в этих методах была со стороны теории разреженных представлений, что и стало стимулом к развитию этих методов. А уже затем эти методы были использованы и для нейросетей.


  2. Снижение числа параметров нейросети. Проблемой нейросетей было огромное количество параметров, оптимизировать которые не было никакой возможности. Когда вместо полносвязных слоёв стали использовать свёрточные, число параметров упало на порядки, и выросла производительность. А значит, появилась возможность эффективно эти нейросети обучать.



Научные статьи про свёрточные нейросети были ещё и в 90-е годы, но без эффективных алгоритмов оптимизации они были бесполезны.

Разработка эффективных численных методов минимизации нелинейного функционала ошибки. Изначально высокая потребность в этих методах была со стороны теории разреженных представлений, что и стало стимулом к развитию этих методов. А уже затем эти методы были использованы и для нейросетей.


Эм, а что там такого открыли в оптимизациях что это дало толчок? SGD вроде существует относительно давно. Всякие Adam вроде дают прирост, а вроде и нет.

Снижение числа параметров нейросети. Проблемой нейросетей было огромное количество параметров, оптимизировать которые не было никакой возможности. Когда вместо полносвязных слоёв стали использовать свёрточные, число параметров упало на порядки, и выросла производительность. А значит, появилась возможность эффективно эти нейросети обучать.


Опять же, достаточно спорно. Если посмотреть на количество параметров в
современных CNN оно достаточно сильно колеблется — github.com/albanie/convnet-burden. Например для alexnet param mem=233 MB, а для VGG, который в большей степени «сверточный», param mem колеблется от 232 до 548 MB.
Если не ошибаюсь, то само вычисление свертки/бэкпропа через нее дороже чем работа с линейным слоем
Более того, как это не парадоксально, иногда сети с большим числом параметров проще обучать чем сети с маленьким числом параметров.

Все это напоминает сюжет какой-нибудь трешовой передачи про "уникальные советские разработки", когда сидит какой-то ноунейм-академик и рассказвыает, как он там в НИИ еще 40 лет назад делал то, что американцы до сих пор повторить не могут. Только он так и остается никому не нужным ноунеймом, а люди делают крутые штуки при помощи своих "примитивных" технологий.


Так и тут тоже самое: объективно современный "ИИ" позволяет получать крутые результаты, которые еще лет 10 назад считались фантастическими. И черт с ним, что это не настоящии ИИ, но он позволяет решать реальные задачи, в то время как философско-диванная демагогия вообще ничего, кроме информационного шума не производит.


Вот сейчас есть актуальная проблема — это интерпретация современных нейронных сетей. Много задач смогли решить с неплохим качеством при помощи DNN, но никто толком объяснить не может, что там внутри у этой сети происходит и как именно она дошла до таких результатов. И вот было бы неплохо инвестировать усилия в эту область: понять как сети работают, формально и строго объяснить как именно они доходят до таких результатов, доказать, что это не ИИ и это бы принесло пользу. Но ведь гораздо проще с позиции Д'Артаньяна разводить демагогию про "что есть интеллект и что есть душа", про тесты тьюринга и прочие мысленные эксперименты, чем заниматься какой-то реальной деятельностью...

Автор наслышан о некоторых терминах, но слабо представляет себе их суть. Например, back propagation, на который он несколько раз ссылается, не имеет отношения к ИИ. Это просто технический метод оптимизации нейросетей, уходящий корнями в математику 17 века (Ньютон и Лейбниц), а вовсе даже не в 60-е годы 20 века. Как и сами нейросети не имеют отношения к тому, что называется ИИ.

В одном он прав, что эта область неимоверно перехайплена, и это создает проблемы.

Сегодняшние системы ИИ тренируются на основе огромного количества автоматизированных проб и ошибок; на каждом этапе для передачи информации об ошибках и подстройки системы с целью уменьшения количества ошибок в будущем используется техника обратного распространения – и это постепенно улучшает эффективность ИИ в выполнении определённой задачи, такой, как игра в шахматы.
Sign up to leave a comment.

Articles