Pull to refresh

Comments 65

Продолжайте публикацию подобных статей по тематике. Огромное спасибо.

Немало новых вещей.
Играл в шахматы в прошлом, искусственный интелект в шахматах продвинулся в разы.
Играл в Го, было большим удивлением когда компьютер победил одного из Сильнейших игроков…

> Если вам понравилась статья, то в следующий раз мы расскажем о глубоком обучении с подкреплением, о принятии программой решения убить или спасти человека, о самоуправляемых автомобилях и целых городах, регулируемых ИИ.

Понравилась? Да я только ради таких статей GT и читаю!
Пожалуйста, продолжайте.
Я бы добавил, что я ради таких статей хожу в интернет…
Ради таких статей купил компьютер…
Вы бы знали, как приятно читать такие комменты! =)
Точно так, превосходная работа. Подписался и разослал друзьям.
На одном из выступлений против компьютера играли Ханс Берлинер, чемпион мира в игре по переписке, со своим другом — сильным гроссмейстером из топ-30 мировых игроков.

Вот интересно, чемпиона по какой-то там переписке назвали, а гросса из реального топ-30 (по любому это должно быть гораздо более известное имя) — нет.
Вторым человеком был Лоренс Дей (тогдашний чемпион Канады).
Хм, википедия говорит, что он вообще не GM, а IM. Ясно, что это и близко не топ-30.
С количеством нейронов у нас хорошо.
А с частотой не очень. )
Один из самых мощных на сегодняшний день процессоров (Sparc-M7) имеет 10 млрд транзисторов. Самая большая программируемая пользователем вентильная матрица (FPGA) содержит до 20 млрд транзисторов. Это всего 2х10^9 раз, а в мозге 1,5х10^17 раз. Конечно, компьютеры имеют одно большое преимущество — скорость. Sparc работает на частоте 4,3 ГГц. Человек же имеет следующие потенциалы действия нервных клеток: амплитуда — около 0,1 В, длительность — около 1 мс, «рабочая» частота» — 10—100 Гц (до 1000 Гц).

По количеству нейронов человеческий мозг превосходит процессоры на 8 десятичных порядков, а по частоте уступает ну на 2,5 десятичных порядка. Так что решающее преимущество машины скорее в архитектуре. Возможно еще в том что далеко не все свои нейроны мозг может задействовать для решения конкретной задачи — у него и так куча забот и задач.
Это как между сотнями Гц (и то максимум) и Гигагерцами только 2.5 порядка оказалось? Тут целых 7 порядков разницы в пользу машин — различие в 10 миллионов раз и более.

Так что если сравнивать совсем уж примитивно в стиле потенциал = кол-во переключателей х частоту переключения, то топовые процессоры сейчас всего на 1 порядок от мозга отстают по подобному параметру. И где-то на 2 порядка по эффективности использования энергии.
Но если взять не один процессор, а кластер, то уже по «грубой силе» он будет впереди.

Ну и специализация конечно — в мозге эти ресурсы разделены между множеством самых разных задач, а в машине можно все ресурсы бросить на одну единственную.

И именно поэтому, там где удалось создать подходящие алгоритмы машины уже сейчас начинают превосходить мозг. Пока в отдельных узких областях.
Мощно поднят пласт, огромное спасибо!
UFO landed and left these words here
Можете раскрыть свою мысль? Во-первых, что лично вы понимаете под ИИ? Во-вторых, если вы создали искусственную нейронную сеть, работа которой подчинена вполне определённым алгоритмам, но училась она самостоятельно (т.е. не вы прописывали веса в каждом искусственном синапсе, а они возникли в процессе обучения), то это, с вашей точки зрения, ИИ?
А людей природа создала. Так что, лавры переходят ей?
Не надо себя мнить Root-ом в этом мире :D
:)
На деле в самом понятии слово «искусственный» как раз значит — созданный человеком. Поэтому я вообще не понял в чём претензия.
Статья слишком хороша, вероятно написана искусственным интеллектом :)

>>Какой бы путь мы не выбрали, не стоит воспринимать его как человеческую драму по противостоянию человека и компьютера. Под каждым постом о победе ИИ в очередной игре кто-нибудь обязательно напишет комментарий про SkyNet и Судный день. Почему проигрыш машине воспринимают как проигрыш человека? Это выигрыш человека, только не того, который играл за доской, а того, который создал ИИ. И это гораздо более важное достижение: один из них научился двигать фигуры, а другой оказался на шаг впереди и написал программу, двигающую фигуры к победе.

Сейчас именно так. Но приближается момент, когда создавать ИИ будет ИИ. По аналогии с шахматами, где кроме улучшения оборудования, на порядок усилился алгоритм игры, так же и у ИИ, вероятно, есть потенциал улучшения на порядок. Гениальный программист допишет блока самоанализа и далее процесс пойдет по нарастающей сам по себе. Я не утверждаю, что это будет чем-то не хорошо для людей, но со стороны может выглядеть как террабайты двоичного кода без исходников одним файлом, непонятного назначения живущего своей жизнью.
Дочитал до конца, а значит статься годная. Спасибо!
Отличная работа, очень хочется увидеть что-то похожее про deep learning.
Мне кажется что уже реализовывается сценарий симбиоза людей и машин, поэтому нет смысла боятся развития машин.
Надеюсь дожить до момента, когда ИИ научится побеждать человека в человечности.
Отличная статья! Спасибо за большой труд. Хотелось бы почитать нечто подобное про нечеткую логику, Лотфи Заде. Я считаю его не справедливо мало упоминают :)
Статья потрясающая, будит мысль!

Например :-) Интеллект, примененный к самому себе в самой абстрактной форме может породить чистую логику самого себя, это и станет самым сильным результатом самопознания ИИ. А так эта логика реализована в алгоритмах ИИ, то ИИ, примененный к самому себе, не создаст ничего сложнее алгоритмического автоморфизма, то есть ИИ', тождественного самому себе. Поэтому в матрицы ИИ необходимо добавлять элемент «случайного» так, чтобы каждая следующая итерация была частично случайной функцией состояния на предыдущей итерации. Это коррелирует с идеями Роджера Пенроуз, рассуждающего о «квантовой неопределенности» человеческого разума.

Автор, ждем продолжения
Ждем следующую статью, спасибо за труды!
Не понимаю, откуда взялись восторженные комментарии о «потрясающем труде» и «восхитительной статье». В основном чистая «болтология», с ничем не подкрепленными прогнозами и разрозненной информацией. Конкретная программа, использующая «свёрточные нейронные сети», хорошо себя зарекомендовала в игре Го (для которой и писалась), но в остальном это программа является полным «кретином», с человеческой точки зрения. Вы не сможете подискутировать с ней на философские темы, она не сможет управлять автомобилем, или играть в Counter Strike или… (подставьте сюда остальные тысячи умений и занятий, доступных человеку — мастеру Го). Если рассматривать термин ИИ как эмулятор естественного интеллекта, то, думаю, ни при нашей жизни, ни при наших правнуках, подобного просто не будет (поскольку в понимании того, как работает наш собственный мозг, человечество продвинулось чрезвычайно мало).

Ну, а фразы типа «для этого достаточно взять несколько десятков 200-тонных термоядерных бомб и сбросить их по экватору — земной шар расколется пополам» вообще комментировать нет смысла, ибо это полный бред.

P.S. Сомневаюсь, конечно, что мой комментарий опубликуют, но без критики вы, ребята, стоите на грани полной «желтизны»…
> ничем не подкрепленными прогнозами

Какой именно из прогнозов, приведённых в статье, вы считаете неподкреплённым?

> но в остальном это программа является полным «кретином»

Вы, наверное, не прочитали часть статьи, посвящённую определению ИИ.

> Ну, а фразы типа «для этого достаточно взять несколько десятков 200-тонных термоядерных бомб и сбросить их по экватору —
> земной шар расколется пополам»

Не полный. По высказанным учёными оценкам для уничтожения жизни на Земле достаточно 10—100 термоядерных бомб (пруф.: http://www.businessinsider.com/heres-how-many-super-nukes-it-would-take-to-destroy-the-world-2014-12)
Насчёт конкретно физического разрушения планеты, такие гипотезы также высказывались. Главным образом, рассматривался сценарий, в котором дейтерий, содержащийся в морской воде, вступит в цепную реакцию синтеза в результате взрыва сверхмощного термоядерного заряда. К счастью, экспериментов подобного рода не проводилось и, надеюсь, не будет проводиться в будущем.
>>Какой именно из прогнозов, приведённых в статье, вы считаете неподкреплённым?

Не учитывая картинки :), процитирую такую фразу: «Если люди, составляющие алгоритмы ИИ, допустили баги или пропустили ошибочные данные в обучающую выборку, поведение такого ИИ может быть весьма неожиданным. И доверять такой системе принятие решений опасно. Кто-то окажется безответственным, одновременно с этим кто-то окажется глупым, и мы получим сценарий в духе «Терминатора».»

Серьезно говорить о «сценарии в духе «Терминатора»» могут только голливудские режиссеры и продюсеры, обдумывающие возможность очередного римейка. Подобная фраза в популярной статье, претендующей на научность, неуместна. При всем желании и любом финансировании, получить «сценарий в духе «Терминатора»» никак НЕВОЗМОЖНО с точки зрения современной науки и достижений технологии. Равно как и межзвездный полет, или добыча полезных ископаемых на астероидах, или (подставить любую «жареную» фэнзийную тему, которую так любят обсуждать юные мечтатели на гиктаймс).

>>Вы, наверное, не прочитали часть статьи, посвящённую определению ИИ.

Не нужно делать пустые предположения; порой достаточно просто спросить ;) Предвосхищая Ваш вопрос, отвечаю: статью я прочел полностью. Но вот признавать за авторами право на абсолютную правоту и непогрешимость я, увы, не готов. Пять минут правильного «гугления» убедят Вас в моей правоте: понятие «искусственного интеллекта» трактуется разными уважаемыми авторами весьма широко…

>>Не полный. По высказанным учёными оценкам

Оценки ученых из Лос-Аламоса, сделанные в 1945 году (sic!), и изложенные «желтоватым» болтологичным БизнесИнсайдером, как Вы сами, вероятно, понимаете, не могут считаться серьезным доводом :) Могу порекомендовать (не сочтите за хамство!) опять-таки быстрое гугление касательно мощности извержений вулканов и землятресений, выраженных в мегатоннах. Впрочем, чтобы сохранить Ваше время, скажу: ни «расколоть» Землю, ни «взорвать» океаны ВСЕМ современным ядерным арсеналом (или даже арсеналом конца 80-х годов) НЕВОЗМОЖНО (а вот отравить атмосферу радиоактивными осадками — запросто!). Чтобы напугать Вас, скажу, что даже 10 километровый астероид «распылить» или расколоть на куски ВСЕМ ядерным арсеналом землян, включая даже то, что смогут создать за 5 лет, тоже НЕВОЗМОЖНО (это если опустить вопрос своевременной доставки зарядов к астероиду и подрыву их без Брюса Уиллиса :)
>> процитирую такую фразу: «Если люди, составляющие алгоритмы ИИ, допустили баги или пропустили ошибочные
>> данные в обучающую выборку, поведение такого ИИ может быть весьма неожиданным. И доверять такой системе
>> принятие решений опасно. Кто-то окажется безответственным, одновременно с этим кто-то окажется глупым, и мы
>> получим сценарий в духе «Терминатора».»

Где вы в этой цитате увидели прогноз? Это не более чем описание гипотетического сценария, высказанного в ходе набрасывания идей для размышления. Если бы это был прогноз, то сам тезис был бы снабжён хотя бы оценкой вероятности. Но даже если вероятность такого сценария на деле и очень мала (лично я склонен считать именно так), это не значит, что мы не должны о нём говорить. Потому что в массовом сознании такой сценарий расценивается как весьма вероятный, и в деле внедрения ИИ в разные сферы человеческой жизни нам придётся иметь дело с такого рода предубеждениями публики. В том-то и дело, что нельзя сбрасывать со счетов Голливуд и относиться пренебрежительно к распространению тех или иных предубеждений. Это очень хорошо видно, например, по массовой истерии в отношении ГМО: сейчас публичные предрассудки реально мешают развитию целой отрасли. Если вы думаете, что вы напишете КАПСОМ что-то, и люди сразу вам поверят и перестанут тревожиться, то вы ошибаетесь. Потому что вам тут же, например, приведут такие факты:

https://ru.wikipedia.org/wiki/Случаи_ложного_срабатывания_систем_предупреждения_о_ракетном_нападении
http://calendarik.com/event/v-1983-godu-podpolkovnik-stanislav-petrov-predotvratil-potentsialnuyu-yadernuyu-voinu

И т.п.

> Но вот признавать за авторами право на абсолютную правоту и непогрешимость я, увы, не готов.

Хотелось бы увидеть на этот раз от вас ссылки на авторитетные источники.

> Оценки ученых из Лос-Аламоса, сделанные в 1945 году (sic!), и изложенные «желтоватым» болтологичным БизнесИнсайдером,
> как Вы сами, вероятно, понимаете, не могут считаться серьезным доводом :)

Серьёзным доводом в пользу чего? Как вы понимаете, я не физик, а у физиков оценки необходимой мощности зарядов для 1) физического уничтожения планеты, 2) нанесения непоправимого урона биосфере — разнятся. Вот, например, ещё один интересный источник:

http://gizmodo.com/5899569/how-many-nukes-would-it-take-to-blow-up-the-entire-planet

«There are an estimated total of 20,500 nuclear warheads in the world today. If the average power of these devices is 33,500 Kilotons, there are enough to destroy the total earth landmass».

Честно говоря, у меня нет желания влезать в дискуссию по теме, в которой не являюсь профессионалом. Отмечу только, что какую бы оценку мы не приняли, от этого мой исходный тезис не утратит своего значения: в XIX веке у нас не было шансов уничтожить биосферу и самих себя, в XX веке наши возможность многократно возросли, и они продолжают расти. Вы хотите с этим поспорить?
Вы занимаетесь откровенной демагогией; никакого «ИИ, угрожающего человечеству», не существует, и в ближайшем будущем не предвидится (без получения абсолютно прорывных, новейших знаний и технологий), поэтому «жёлтые» статейки на «жареную» тему, сколько бы их не появлялось (равно, как и наивных комментариев на GT) не изменят этого никак.

Перевирать же меня, и приписывать мне то, чего я не говорил — первый признак троллинга. Сорри, но у меня нет желания с вами далее дискутировать.
Где именно я говорил о том, что существует ИИ, угрожающий человечеству? Можете привести цитату?
Опять вы невнимательно читаете, и приписываете мне то, чего я не говорил! Я не писал, что именно _вы это говорили_. Подобный «гипотетический сценарий», как вы выразились, высказан в статье, которя вам нравится (как я полагаю), и которую вы считаете достаточно «нацчной». Я же утверждаю, что в данной статье полным полно не «гипотетических сценариев», а фантастических сюжетов из популярных романов и кинофильмов, плюс куча банальной инофрмации, «болтологии об ИИ».

Если вам действительно хочется почитать рассуждения _ученого_, а не популяризатора/лектора/фантаста об ИИ, я могу порекомендовать Джеффа Хокинса, https://www.amazon.com/Intelligence-Jeff-Hawkins/dp/0805078533 (есть бесплатно и на русском, http://flibusta.is/a/25218 ).

На счет приписывания мне того, чего я не говорил: я вовсе не утверждаю, что «возможности не выросли», где вы такое увидели? Я взял конкретную фразу из статьи "«для этого достаточно взять несколько десятков 200-тонных термоядерных бомб и сбросить их по экватору — > земной шар расколется пополам» в качестве примера полного BS. Если вы считаете, что данная фраза истинна, приведите _конкретные_ доводы и рассчеты!

Ну, и про системы предупреждения о ракетном нападении: никаким «ИИ» там и не пахнет, «какой мэханызм, все ручное!».

Не нужно навешивать модный ярлык ИИ на все, что шевелится! Есть программы, играющие в шахматы; есть программы, играющие в Го, есть программы, распознающие речь (правда, все еще с ошибками, которые _неизбежны_), есть программы-автопилоты, есть программы, распознающие определенные типы изображений (на основе нейронных сетей, которые суть тоже программы!). Нет только искусственного интеллекта (и, возможно, слава Богу!), а есть очень даже неплохой «естественный» интеллект, который эти программы успешно придумывает, для нашего вящего комфорта.
> как вы выразились, высказан в статье, которя вам нравится (как я полагаю), и которую вы считаете
> достаточно «нацчной»

А вот если бы вы всё-таки внимательно прочитали статью, то знали бы, что лекцию эту готовил и читал я)
Если уж браться всерьёз и по существу критиковать содержание, то, наверное, стоит читать не через строчку?)

> _ученого_, а не популяризатора/лектора/фантаста

Я корпоративный учёный. Мой шахматный ИИ один из лучших в стране и входит в мировую тридцатку. Есть алгоритмы, названные моим именем (не мной). Системы, разработанные мною, принимают решения в рамках бизнес-процессов крупных банков. Этого всё ещё недостаточно?)

> в качестве примера полного BS

Вам убедительно показали, что данное утверждения не является полным BS. Но вы упорно продолжаете настаивать. Не очень понятно зачем.

> Ну, и про системы предупреждения о ракетном нападении: никаким «ИИ» там и не пахнет, «какой мэханызм, все ручное!»

Так ли это? В подобных системах задействованы сложные сети сенсоров, выдающие людям наборы сигналов. Т.е. первичная интеллектуальная обработка данных всё-таки происходит внутри этих систем в автоматическим режиме.
Вы не могли бы привести хоть какое-то подтверждение ваших слов? Вы тут сыплете кучами утверждений, не трудясь ничем их подтверждать. Давайте описание архитектуры такой системы или признайте, что просто ввернули свою залихватскую фразу ради красного словца)

> Не нужно навешивать модный ярлык ИИ на все, что шевелится!

Я так и не дождался от вас альтернативного определения AI (прикладного и AGI), приведённого в авторитетном источнике. Проблема в том, что его нет, а вы просто прикрываете многословием собственную некомпетентность.
>>Вам убедительно показали, что данное утверждения не является полным BS.
Снимок или схему, общее конструктивное устройство, а также пруф существования помимо вашей фантазии «200-тонной терямоядерной бомбы» — в студию! После будем продолжать разговор, товарищ ученый-популяризатор…

Касательно определения AI: прочтите сначала Джеффа Хокинса (он, imho, поавторитетней вас будет), потом приходите, подискутируем :) Впрочем, если вы свой шахматный движок называете ИИ, то и Хокинс переубедить вам не сможет :)

>Я корпоративный учёный.
Какое значение ваши практические навыки в программировании имеют к теме данной дискуссии? Я говорил про стиль статьи, по своей сути не научный, а популяризаторский с заносом в sci-fi.

P.S. Впрочем, о чем это я? Ремонтируйте мозг с помощью нанороботов, «сращивайтесь с нейросетью» — аудитория GT обожает подобные фантазии :)
> а также пруф существования

Существования чего?

> Касательно определения AI: прочтите сначала Джеффа Хокинса

Вы не читали и Хокинса, т.к. если бы читали, то знали бы, что Хокинс у себя в книге не даёт определения ИИ. По тексту книги он говорит об ИИ, понимая под этим AGI. Проблема в том, что книга эта писалась 12 лет назад, что для computer science — целая эпоха. Хокинс у себя говорит, что современные компьютеры могут демонстрировать «интеллектуальное поведение», при этом для обозначения того, что сейчас называют AGI или strong AI Хокинс употребляет термин «обобщённый интеллект»:

«… Затем были большие телодвижения насчет «экспертных систем», БД фактов, которые могли отвечать на вопросы, заданные человеком-пользователем. Например, медицинские экспертные системы могли диагностировать болезнь пациента по заданному списку симптомов. Но снова оказалось, что она имеет ограниченное применение и не проявляет чего-либо близкого к обобщенному интеллекту» (курсив мой — С.М.)

Термин AGI устоялся в этой области после работ Гёрцтеля, но и раньше — Сёрль и мн. др. употребляли понятие strong AI.
Вот вам статья из Британники: http://global.britannica.com/technology/artificial-intelligence

Хокинс нигде и никогда не говорил о том, что applied AI не обладает интеллектуальным поведением и нигде не выступал против использования терминов applied/weak/narrow AI.
> а также пруф существования

Существования чего? Конкретной испытанной инженерной схемы уничтожения Земли при помощи фиксированного числа бомб? Я где-то говорил о её существовании?
Я высказал оценку возможности уничтожения Земли таким количеством бомб, они ± вписываются в пределы оценок интервалов некоторых физиков. Точного показателя никто не знает, т.к. пока нет точных оценок статико-динамических прочностных характеристик не только мантии и ядра, но даже земной коры. Вы пытаетесь придраться к второстепенному суждению, при этом заведомо непроверяемому и высказанному только в качестве иллюстрации определённого тезиса.
И да, на закуску. Не переоценивайте авторитет Хокинса в сфере ИИ. 10 лет назад он был авторитетом, сейчас уже куда в меньшей мере.
Отличная статья. Очень интересно!
UFO landed and left these words here
> Не училась, а делала расчеты по представленным данным

То же самое делает и человеческий мозг, обрабатывая данный, поступающие от органов чувств.
В чём по-вашему принципиальное различие?
UFO landed and left these words here
Нейроны и синапсы мозга делают то же самое, что делает искусственная нейронная сеть.
Собственно нейронные сети и были созданы как модель того, что происходит в настоящем мозге. В рамках множества экспериментов было показано, что искусственные нейронные сети описывают поведение реальной нервной ткани достаточно адекватно. То есть искусственные нейронные сети, получая какие-то электрические потенциалы на входах (такие же, как настоящая нервная ткань получает от клеток-рецепторов), на выходах генерируют такие же заряды, как и реальная нервная ткань.
Если у вас есть претензии к адекватности описания работы реальной нервной ткани при помощи нейронной сети и вы сможете эти претензии продемонстрировать в экспериментах — то это тянет если не на нобелевку, то уж точно на публикацию в Nature.
UFO landed and left these words here
> Не тоже самое, а нечто отдаленно похожее.

Не отдалённо похожее, а то же самое. Вот, например, результаты исследования и реконструкции нейронной сети дождевого червя (C. Elegans): http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1001066

> Сравнение не очень удачное

Сравнение крайне поверхностное.

> для того чтобы создать ИИ нужно понимать что это такое и самим запрограммировать его

Зачем? Чтобы понять и объяснить структуру связей естественной нейронной сети, если это сеть по масштабам сопоставима с мозгом человека (~86 млрд нейронов, ~180 трлн синапсов), уйдут сотни лет. А вот воспроизвести эту сеть, смоделировать процесс её обучения — во много раз проще. Именно поэтому и используют нейронные сети — они учатся на обучающих выборках и способны затем эффективно решать поставленные задачи. При этом нет никакой необходимости изучать, какие в результате обучения образовались веса у связей.
UFO landed and left these words here
> Не думаю что авторы статьи согласятся с вашим утверждением.

Почему? Их работа как раз посвящена исследованию реальной биологической сети и созданию её модели.

> Тока есть проблема, стартовая конфигурация «нейронной сети», которая дается нам при рождении,
> запрограммирована эволюцией. Сгенерировать ее через «обучение» не выйдет.

И тем не менее топологию сетей тоже можно генерировать. Например, при помощи эволюционных алгоритмов.
Либо же путём дублирования топологий естественных сетей (как это произошло в случае со свёрточными нейронными сетями).
UFO landed and left these words here
> Дело не только в топологии. Мозг при рождении еще и частично обучен.

Это и выражено в топологии синаптических связей. Электрические потенциалы в нейронах по наследству не передаются.

> вы сильно недооцениваете

Почему вы так решили? Я где-то приводил какие-то оценки?

> Скопировать топологию/конфигурацию мозга животных с развитым интеллектом пока невозможно.

В настоящий момент это проделано для ретины крысы, например. И нет никаких особых ограничений для того, чтобы сделать это для человеческого мозга.

Более того, даже распределение потенциалов, скорее всего, скоро можно будет сканировать с точностью до нейрона за счёт использования магнитоэнцефалографов. Собственно аппараты МЭГ, основанные на массивах SQUID-датчиков, уже сегодня могут делать это с точностью до групп нейронов. Если феррит-гранатовая технология «взлетит», то должны выйти на уровень единичных нейронов.
Вот, кстати, про проект с сетчаткой мыши (EyeWire) мы вот тут писали: http://22century.ru/docs/games-for-science
"… люди сами себе не доверяют. Мы боимся не только того, что развитый разум окажется злым. Он может оказаться и добрым, захочет нести людям добро, но увидит это «добро» по-своему".

Нет своего добра у людей и у ИИ! Есть одно универсальное добро — сохраниться (существовать, быть, длиться). И люди (чаще всего бессознательно), и ИИ (сознательно, делая расчеты и сопоставляя варианты) стремятся именно к этому. Но ИИ учитывая гораздо больше параметров окружающей среды, рассчитывает и самих вариантов поведения больше, и отдаленные последствия цепочек вариантов поведения, поэтому люди могут просто не распознать решение ИИ как доброе. В этом проблема…
> Нет своего добра у людей и у ИИ!

Не согласен. Добро это некоторая целевая функция, которую мы формулируем. Она, вообще говоря, не всегда соответствует простой цели индивидуального выживания и размножения — есть множество нюансов. Во-первых, мы знаем, что люди в ряде случаев способны на самопожертвование. Тут возникают разные концепции, объясняющие подобного рода альтруизм: групповой отбор, родственный отбор (концепция «эгоистичного гена»). В ряде случаев разделяемые людьми ценности, могут напрямую противоречить их чисто биологическим интересам, и такой конфликт очень часто решается не в пользу «биологии». Для ИИ ситуация ещё более интересная, т.к. для всех прикладных ИИ целевую функцию формулирует разработчик. Способность устанавливать определение условного «добра» для интеллектуальной машины и определяет её практическую полезность для создателей. Но получится ли так же успешно управлять ценностями системы, которая по своей сложности будет превосходить человеческий разум? Множество сценариев фильмов-катастроф, связанных с ИИ, как раз основываются на том, что люди допускают ошибку в формулировке целей для машины, делают это недостаточно однозначно, что затем и проводит к тому, что машина, неверно истолковав заложенные в неё принципы, выходит из под контроля и наносит людям серьёзный вред.
Больше статей про нейросети!
Желательно с примерами кода.
>P.S. Если вам понравилась статья, то в следующий раз мы расскажем о принятии программой решения убить или спасти человека, о самоуправляемых автомобилях…
Вот об этих двух аспектах в их взаимосвязи очень хочется услышать.
Что-то мне подсказывает, что будут версии «прошивок» для VIP-персон и стандартные для массового покупателя. И их «решение» кого убить, а кого спасать при неизбежном дтп, будут радикально отличаться. Я уже не говорю о возможных «кастомных» прошивках.
А мне что-то подсказывает, что VIP предпочтет старого доброго белкового драйвера :-). Самоуправляемые автомобили в условиях современной политэкономической реальности призваны решить скорее проблему массового транспорта, при котором за руль могут садиться только водители, прошедшие обучение и имеющие лицензию на вождение. Это ограничивает спрос на автомобили. С другой стороны, профессиональные водители требуют определенных социальных гарантий. Это не позволяет оптимизировать издержки и делает перевозки дорогими. В этом случае самоуправляемость, очевидно, для крупного владельца-перевозчика как манна небесная -:)
Я думаю, что VIP выберет «адванс» — т.е. ИИ помогающий водителю-профи. Ожидаемые показатели аварийности у ИИ заметно меньше, чем у водителей-людей, так что если решать, основываясь лишь на этом показателе, не имея никаких предубеждений против ИИ, разумный человек должен выбрать ИИ, а не белкового водителя)
Другое дело, что в ряде задач прикладного ИИ человек + ИИ по-прежнему эффективнее чистого ИИ. Т.е. сильный шахматист с помощью шахматной программы играет заметно сильнее «голой» программы, в вождении авто, скорее всего, будет также, особенно первое время.
Интересная статья!
Сценарий первый: мы — это тупиковая ветвь эволюции. Разум, превосходящий нас, будет развиваться дальше, а мы останемся забавными обезьянками, живущими в своем мире со своими страстями и интересами. В таком мире нам нечего будет делить с разумными машинами, как нечего делить с шимпанзе и гориллами.

У нынешних обезьянок эволюционно сложились интересы: орать и требовать власть даже если в этом нет объективной необходимости, когда всем и ему от этого станет хуже.
По аналогии как поступил умный человеком с животными — вполне возможно ИИ сначала изрядно истребит, а затем посадит в клетку агрессивных и властолюбивых людей, которые не впишутся в новую реальность.
Биологическая жизнь — есть инженерное устройство, безусловно созданное Разумным Инженером. Отцепитес наконец уже от дедушкиной байки 19 века под названием «теория эволюции».
Боюсь вас расстроить, но именно креационизм это байка седой старины)
Only those users with full accounts are able to leave comments. Log in, please.