Как стать автором
Обновить

Комментарии 75

Интеллект это на мой взгляд одна из форм эволюции.
Может не стоит пытаться создать готовый интеллект, а разработать систему реализующую эволюцию?
Самый опасный путь создания ИИ. Эволюция беспощадна и безжалостна
На самом деле зависит от правил выживания в процессе этой эволюции. Они теоретически могут быть и не основаны на конкуренции и «поглощении». Эгоизм можно извратить.
Да действительно. Хотя не очень хорошо представляю себе как отбирать добрых ИИ, для создания следующего поколения.
Природа изобрела очень классную штуку как «пол», которая помогает двигать естественный отбор в направлениях, отличных от тех, которые свойственны бактериям и вирусам.

«Божественная рука сверху» просто не справится с задачей отбора и отсеивания из-за огромного количества объектов, а автоматизация процесса отбора за счёт гендерных различий — вполне может сработать. Достаточно научиться создавать «притягательность» альтруистическим чертам. Надо будет проанализировать всю мотивационную цепочку от инстинктов до альтруизма (в высших когнитивных слоях), и просто внедрить этот инстинкт, ведущий к альтруизму.

Поскольку это будет всё-таки виртуальная среда, то проблемы с тем, чтобы размножить пострадавшего (или даже погибшего) альтруиста не будет проблемой. Да, это будет грубый чит, но почему бы и нет, в качестве эксперимента?
Зачем грубо читерить, если можно просто создать серию правил, благодаря которой различным «сущностям» будет выгодно объединяться в группы без внутренней конкуренции? У человечества, например, даже при наличии внутренней конкуренции в группах развились различные кодексы морально-этических правил, а при её отсутствии для ИИ такие кодексы будут не нужны, он и так не будет видеть смысла в нанесении вреда своим «союзникам».
Для эволюции нужна конкуренция. Любая конкуренция, даже в кто самый добрый будет конкуренция. Если объединения в группы без внутренней конкуренции будет смысл, конкурировать будут с другими группами.

Выход видится мне в конкуренции без видимых конкурентов. Каждая сущность в собственной песочнице без доступа к другим сущностям, он даже не будет знать о других сущностях. Та сущность что лучше справится пойдет в следующее поколение. Так появится сущность что не имеет понятия, что можно стать лучшим не только улучшениям себя, но и ухудшением других.

Плохой выход похоже. Сущности будут асоциальны. Открыв концепцию подавления других, они тут же займутся этим.
Половой отбор усиливает прочие виды естественного отбора. То есть половой отбор не меняет направление отбора, а лишь ускоряет эволюцию. Если хотите, могу объяснить подробнее. Могу, кстати, сформулировать эту мысль в виде красивой занимательной задачки
Я лишь указал, что нечто подобное половому отбору может быть использовано для взращивания в «разумном виде» желаемых характеристик. Меня не интересуют рассказы о том, как это устроено у человека — это и так достаточно хорошо известно. Гораздо интереснее было бы провести эволюционный эксперимент в виртуальной среде.
Действительно ли искусственный интеллект непостижим?

Заголовок очень желтый. Что значит "непостижим"?
"Часы на руке соседа — они непостижимы" — вот как это звучит. У нас есть 7 миллиардов примеров интеллекта и заявлять о невозможности скопировать его — это странно, даже одного примера было бы достаточно.

Вопрос — как именно вы трактуете слово непостижим? Если вы говорите что у вас 7 миллиардов примеров постижимого интеллекта — то я вас разочарую, большинство людей не постигают и свой интеллект (иначе бы психотерапевты и прочие остались бы не у дел).

Далее, рассуждать о том что если есть объект, то скопировать его можно верно лишь до объекта не сложнее вилки. Дальше начинают возникать вопросы в технологиях и «черном ящике» что в большинстве случаев становится сильным препятствием для копирования. Скажем Китай обладает полной документацией по обслуживанию Ал-31Ф, и на основе этого попытались построить свой WS-10A. Результат — теоретически одинаковые двигатели, практически же…

Проблему начальную правда устранили, подняли межкапитальный ресурс до 1500 часов, но вот с надежностью и реальной тягой так и не справились. В результате Китай тихо и мирно продолжает закупать у нас двигатели, несмотря на свой «такой же».

Вы подменяете понятия. Никто не спорит что сильного ИИ нету сейчас и то что не факт что он появится в ближайшем будущем, или не факт что он сможет работать без очень крутых производительных генераторов случайных чисел и т.д… Но слово "непостижим" в целом все же больше о принципиальной возможности. А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.

Это вы подменяете понятия. Непостижимый по Ожогову — Недоступный пониманию, непонятный. То есть объяснить почему нейронная сеть так поступила мы не можем. Во-первых, сильный ИИ будет для нас непостижим по определению. Во-вторых, если вы считаете что можно объяснить работу естественного интеллекта то вам можно уже ноблевку выдавать. Как вы можете объяснить механизм работы инсайтов, или к примеру биполярные расстройства личности?

И наконец — «А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.» Контр-аргумент — Мы видим что вселенную можно создать — значит можно создать вселенную и искуственно. Правда можем?
А можно поподробнее, кто конкретно видел вселенную целиком? И ещё вопросик, почему в том месте, откуда видно вселенную нельзя создать другую, искусственную?
Так пардон и разум никто особо не видел. Человеческий мозг как объект есть у всех. Но почему-то у савантов и даунов он работает иначе. Строго говоря и всеобъемлющего определения разума не существует.

Что такое гипербола знаете?
Разум и нельзя увидеть, как человека или вселенную впринципе. Я к тому, что Ваш контр-аргумент не очень корректен, т.к. Вы взяли вселенную, у которой уже нет четкого определения, не говоря уже о процессах, которые в ней происходят, наподобие разума у человека. Про неё нельзя сказать «вот мы видим вселенную» потому что мы её не видим, а видим только её часть и что она представляет из себя на самом деле, можем только догадываться. Естественно нельзя сказать, что мы можем создать её аналог. А вот человека мы видим и он вполне себе имеет определение — руки, ноги, органы, мозг. Нет никаких препядствий разобраться как все это работает так, что рождает разум и создать аналог.
А у разума есть четкое определение? И мы точно так же догадываемся о механизмах работы мозга и не знаем всей логики процессов, который происходят в мозге. А препятствия есть. Оно заключается в «разобраться». Психология неспроста не является медицинской специальностью)

Вот вам пример. Окей, допустим как гласит одна теория, разум появляется сам по себе при достижении некого порога сложно нейронной сети. Но у косаток и слонов число нейронов почти на одном уровне с человеком… Далее, допустим, как гласит другая теория, разум — это свойство строения мозга человека. Но потрясающая пластичность мозга показывает что эта теория тоже неправа… Самое веселое, то что HBP как раз НЕ ставит в качестве цели поиск возникновения или работы разума, а лишь занята сбором информации о работе нейронов и их симуляцией.
А причем тут разум и психология? И почему «разобраться» — это проблема? Есть какие-то непреодолимые препядствия на пути изучения устройства человека на физическом уровне или доказательства, что это невозможно?
К чему эти примеры я тоже не понял. Ну не сработали теории, что теперь, дальше не копать?
Что такое НВР?

human brain project. Проект по построению симуляции мозга, грубо говоря. Проблем масса. Невозможность прямого замера состояния возбуждения отдельных нейронов скажем. Ну корневая проблема — допустим, мы приложили кучу усилий и проанализировали 86 000 000 000 нейронов, их взаимные связи, пороги возбуждения и прочее. И что мы получим в итоге — мозг одного человека, чего явно недостаточно для того, чтобы утверждать что мы поняли устройство мозга (пластичность, даже два «одинаковым» мозга со временем начинают вести себя по-разному). Этика мешает, потому что понять работу мозга можно по-хорошему лишь препарируя живой мозг пока он обсчитывает набор известных данных, гемато-энцефалический барьер мешает работать с добровольцами… Да вообще все в устройстве мозга мешает.

Если задача ВЫГЛЯДИТ решаемой это не гарант того, что все так и есть. Мозг ведет себя как детерминированно-хаотическая система, с ними человечество адекватно работать не научилось.
То есть объяснить почему нейронная сеть так поступила мы не можем
Да откуда вы это берете? Нейросеть — это простое отображение из одного множества в другое, иногда недетерминированное, но то что вы говорите мне видится как — вот функция y=x2, мы ее объяснить не можем. Почему она выдает нам те результаты которые выдает — это непостижимо.

Во-вторых, если вы считаете что можно объяснить работу естественного интеллекта то вам можно уже ноблевку выдавать.
Никто вроде не говорил что объяснить невозможно, и никакой нобелевкой тут не пахнет. То что объяснить возможно — это практически по определению. И для того чтобы это утверждать не нужно иметь само объяснение. Вон KIC 8462852 тоже пока объяснить не могут, но никто не говорит что объяснить невозможно. Конечно возможно.

И наконец — «А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.» Контр-аргумент — Мы видим что вселенную можно создать — значит можно создать вселенную и искуственно. Правда можем?
Что? Мы видим как вселенная постоянно появляется? Мы видим что законы физики позволяют иметь неограниченное количество карманных вселенных (может и позволяют, но пока не известно)?
>>> Да откуда вы это берете? Нейросеть — это простое отображение из одного множества в другое, иногда недетерминированное, но то что вы говорите мне видится как — вот функция y=x2, мы ее объяснить не можем. Почему она выдает нам те результаты которые выдает — это непостижимо.
Ответе пожалуйста на вопрос — как можно объяснить работу детерминированной хаотической системы? Или попроще — возможно ли сейчас сделать честный реверс-инжениринг процессора xeon e5 «с нуля»? А главное, после этого еще и произвести копию, работающую как оригинал. Вы ведь понимаете что тут речь идет о куда более легкой задаче?

>>> Никто вроде не говорил что объяснить невозможно, и никакой нобелевкой тут не пахнет. То что объяснить возможно — это практически по определению. И для того чтобы это утверждать не нужно иметь само объяснение. Вон KIC 8462852 тоже пока объяснить не могут, но никто не говорит что объяснить невозможно. Конечно возможно.
Да да… Возможно все объяснить по определению, мы только не знаем как. Но когда нибудь мы это узнаем, так что сейчас чего париться… Мозг серьезно сложнее современных систем глубокого обучения, а с объяснением, почему же система поступила именно таким образом уже фейлились разработчики. Просто потому что понять работу сверточной сети глубокого обучения — это нужно знать, как будут приниматься решения на каждом шаге алгоритма в каждой зоне сети. Ой, как же я забыл, — счет идет на миллиарды весов, и нейронов, причем подбирается это генетическим алгоритмом… То есть в чем-то вы правы, ТЕОРЕТИЧЕСКИ это возможно… Нужно всего-то взять несколько сотен тысяч программистов, посадить их лет на 5-10 на понимание каждый своего участка и потом еще лет 30 пытаться достичь координации между ними. Для меня это синоним невозможно.

>>> Что? Мы видим как вселенная постоянно появляется? Мы видим что законы физики позволяют иметь неограниченное количество карманных вселенных (может и позволяют, но пока не известно)?
А что, принципально нет такой возможности? А с мозгом значит есть?
Ответе пожалуйста на вопрос — как можно объяснить работу детерминированной хаотической системы? Или попроще — возможно ли сейчас сделать честный реверс-инжениринг процессора xeon e5 «с нуля»? А главное, после этого еще и произвести копию, работающую как оригинал. Вы ведь понимаете что тут речь идет о куда более легкой задаче?
Возможно, но никто этим заниматься не будет, ибо затраты большие, а выхлопа не особо, проще купить оригинал. Но принципиально конечно возможно. Тут так же — нет проблем объяснить, просто это никому не нужно зачастую, это слишком дорого.

А что, принципально нет такой возможности? А с мозгом значит есть?
Мозг (человека) вы можете создать, их создают пачками. В этом и отличие от вселенной. Возможно вселенная (еще зависит от определения конечно) — одна by definition, конечно тогда вы не можете скопировать, хотя вы можете создать симуляцию, но она будет в чем-то ограничена. Мозг же ничем не примечателен, можно создать и искуственный.
>>>Возможно, но никто этим заниматься не будет, ибо затраты большие, а выхлопа не особо, проще купить оригинал. Но принципиально конечно возможно. Тут так же — нет проблем объяснить, просто это никому не нужно зачастую, это слишком дорого.
Это называется невозможно. Скажем, возможно ли сейчас чтобы вы мне Луну (которая в космосе) послали прямо в Солнце (которое тоже в космосе)?
>>> Мозг (человека) вы можете создать, их создают пачками. В этом и отличие от вселенной. Возможно вселенная (еще зависит от определения конечно) — одна by definition, конечно тогда вы не можете скопировать, хотя вы можете создать симуляцию, но она будет в чем-то ограничена. Мозг же ничем не примечателен, можно создать и искуственный.
Я умею строить самолеты и подводные лодки потому что есть люди которые их строят! Вы серьезно считаете что для того, чтобы родится ребенок надо понимать как работает человеческий организм на клеточном уровне?
Это называется невозможно. Скажем, возможно ли сейчас чтобы вы мне Луну (которая в космосе) послали прямо в Солнце (которое тоже в космосе)?

Чтобы я — думаю нет, но в целом — возможно. Вот мы сейчас не можем вылечить рак зачастую, но мы не говорим что принципиально это невозможно, не так ли? Или вот завтра прямо мы не можем полететь на Луну, но мы же не говорим что это невозможно? Более того — мы уже туда летали и не раз.

Я умею строить самолеты и подводные лодки потому что есть люди которые их строят! Вы серьезно считаете что для того, чтобы родится ребенок надо понимать как работает человеческий организм на клеточном уровне?
Вы о чем вообще? Я не говорил что надо понимать. Я говорил о том что нету никаких физических ограничений сделать ИИ. Иными словами ИИ — возможен. Но не сегодня.
Если что-то нельзя сделать при текущем уровне развития цивилизации то это невозможно, не находите?

Кстати, изначально разговор шел про непознаваем, это абсолютно разные вещи.
Простите, что? Невозможно — это невозможно. А «невозможно сейчас» — это несколько другое.
Вашими устами, да и полет на Луну невозможен. Ну на Марс — точно «невозможен».

Кстати, изначально разговор шел про непознаваем, это абсолютно разные вещи.
Вы о чем? Непознаваем и невозможно познать — разные вещи?
Просто вы как раз очень близки к утверждениям вроде «мы можем перемещаться по галактике» «мы можем путешествовать во времени» и прочее. Физических ограничений же не доказано!

Тогда какое отношение имеет к познанию «А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.»
Есть такая вещь как здравый смысл. Путешествия во времени мы не наблюдаем, мы не можем сказать возможно это или нет с точки зрения физики или же мы пока не доросли. Но говорить «самое высокое здание — X метров, поэтому X+1 построить нельзя, мы пока такого не видели, я не верю» — это несколько странно, потому что здравый смысл говорит — «можно же».
Перемещаться по галактике безусловно можно, но не в данный момент для человечества.

Искуственный разум с точки зрения физики создать можно, это так же очевидно как то что можно создать яблоко искуственно. Да, сложно, но никаких физических законов не нарушает. Разум — это свойство куска материи, которая концептуально ничем не отличается от материи из которой состоит яблоко или камень. Просто организация сложнее.

К познанию — суть опять же в том что мы можем понять и описать почему что как себя повело, потенциально. На это нету физических ограничений. Может оказаться что это просто никому не нужно, но от того не становится невозможным.
А здравый смысл вам не подсказывает что анализ системы состоящий из 86 000 000 000 компонент и работающий по не до конца ясным законам является сейчас неподъемной «читать невозможной» так же, как и полет на андромеду? И главное — какое отношение имеет СОЗДАНИЕ природного объекта (причем не изученного до конца) к ПОЗНАНИЮ работы искусственной и грубого подобия. Вы это… выдохните и напишите, почему для вас это одно и то же. И расскажите заодно, с каким конкретным типом системы глубокого обучения вы сравниваете мозг.
является сейчас неподъемной «читать невозможной»
Еще раз говорю что «невозможно сейчас» != «невозможно». Потому что вашими словами — невозможно полететь на Марс. Ну или хорошо, Марс уже не за горами — но на Плутон точно невозможно полететь людям. Поэтому слово «невозможно» неверно, как и слово «непостижим». Ведь если подумать — всем известно что ИИ сейчас нету, следовательно к чему рассуждения о том что «невозможно сейчас»? Это достаточно очевидно. Если речь о постижимости/возможности в принципе — то они не верны. Если речь о ближайшем будущем — тогда надо все же это уточнять, насколько ближайшее.

Про «создание» — это продолжение ответа на ваше:
Далее, рассуждать о том что если есть объект, то скопировать его можно верно лишь до объекта не сложнее вилки.
Мозг в этом плане от вилки ничем концептуально не отличается. Вопрос в технологиях а не в принципиальной возможности/невозможности.
Не имеет смысла рассуждать о том, что будет через 30 и более лет, потому что ситуация к этому моменту может радикально поменяться. Под невозможно я имею в виду не теоретические запреты, а практические. Теоретически невозможно это нонсенс, так как теории тоже меняются. Давайте тогда сделаем так — представьте себе заголовок статьи «Мы можем путешествовать во времени!» и в статье объяснение — нет, не можем, но теоретически… Смешно? Нет возможности теоретически обосновать невозможность чего-то, так как теория тоже может впоследствии поменяться. Все запреты на возможность — практические.

Мозг в этом плане от вилки ничем концептуально не отличается. Вопрос в технологиях а не в принципиальной возможности/невозможности.

Возьмите эту деталь. http://img.allzip.org/g/97/orig/6466617.jpg
Насколько сложно ее произвести?
Давайте тогда сделаем так — представьте себе заголовок статьи «Мы можем путешествовать во времени!»
Передергиваете. Я могу аналогично попросить вас представить заголовок: «Полеты на марс — невозможны».
Следует разделять: «можем», «возможно», «не возможно», «не знаем».
Вы пытаетесь доказать что если не «можем» то можно писать «невозможно», но вот про путешествия во времени правильный ответ — не знаем, поэтому ваше сравнение неуместно. Но вот если бы ученые увидели пример путешествия во времени, пусть и не до конца понимая механизмы и без возможности на данный момент скопировать или как-то использовать — мы бы могли честно писать «путешествия во времени возможны».

А ссылка ваша не работает.
Передергиваю. Потому что иначе вы не понимаете. Если задача сложна настолько, что практически нерешаема — то она нерешаема, даже если в теории ее можно победить.

https://habrastorage.org/files/df9/704/eaa/df9704eaab924539910a8678c500f470.jpg
Если задача сложна настолько, что практически нерешаема — то она нерешаема, даже если в теории ее можно победить.
Круто. Т.е. искуственные легкие — это «невозможно»?
Вы упорно путаете «невозможно сейчас» и «невозможно в принципе». Мы знаем что создать искуственные легкие возможно, но не сегодня. Создать искуственное сердце, которое будет работать лучше настоящего — это возможно, но не сегодня. Писать заголовок: «искуственные легкие — невозможны» — это вранье и желтая пресса. Писать «полет на Луну невозможен» — это вранье и желтая пресса.
То что мы его скопируем — не значит что мы будем понимать как он работает, т.к. мы в общем-то не понимаем и то как работает естественный эталон.

Такое ощущение что возражали на заголовок «искусственный интеллект недостижим». А речь и в заголовке и в самой статье о постижимости, а не достижимости. Уже сейчас удается создавать нейронные сети(слабые формы ИИ), которые работают(и неплохо), но даже их создатели не могут разобраться как именно они работают.

Ну а разве "понять" — это что то невозможное?
Да и про ИНС не согласен. Что значит "не могут разобраться как они работают"? Как они работают — прекрасно известно, иногда с математической точностью доказаны оптимальные методы. Как они работают на бытовом уровне — тоже понятно, это всего лишь отображение из одного множества в другое, как и любая другая функция. Что именно не понятно? Скорее речь о том что система не является идеальной и решение не выражается кратко аналитически.

МОжет быть возможно, может быть и нет (если объект и механизмы его действия окажутся слишком сложными для понимания). Этот вопрос собственно и задается, тут нигде не было утверждения что постичь не возможно.

Как тренировать(обучать) и какие конфигурации для каких задач более эффективны — это не понимание как они работают. Этот работа с ними как «черным ящиком», для которого экспериментально нащупали набор эмпирических правил позволяющих его использовать на практике.

Вот с соседней ветке аналогию с EmDrive хорошую подкинули. Известно как его сделать(и не сложно). Известно как включать, известно что влияет на его параметры (увеличили мощность — увеличалась тяга, увеличили добротность контура — пропорциональная увеличилась тяга, поменяли геометрическую форму — тяга поменялась тоже по известном эмпирическому закону) и тд…
Значит ли это что мы понимаем как он работает? Разумеется нет — это непонятный черный ящик с интересными эффектами. Сказать что мы понимаем как он работает можно будет после того как будет создана и доказана теория объясняющая физику его работы.

В случае ИНС это было бы выведения неких общих(универсальных) принципов использование которых позляло бы объяснить любое (ну или практически любое) действие предпринятое сетью или как сформировался ответ на любые поданные на вход данные.
В случае с естественным интелелектом — достаточно его само спросить. В случае алгоритмической программы — в любом момент можно посмотреть все логические действия, выборы, ветвления, вычисления и т.д.
В случае же ИНС ответ в случшем случае будет в стиле: ну вот потому что тут и тут вот такие вот веса между вот этими группами нейронов. А почему такие веса? Ну вот такие сформировались как-то сами сформировались в процессе обучения при использовании вот этой вот выборки обучающих данных. Использовали бы другую выборку — сформировались бы какие-то другие веса (и даже заранее нельзя сказать а было бы конкретное решение/ответ от этого другим или осталось тем же не проверив все это экспериментально).
если объект и механизмы его действия окажутся слишком сложными для понимания

Есть математическое доказательство того что что-то невозможно понять в принципе? Если что Теорема Геделя о Неполноте — это не о том.


действие предпринятое сетью или как сформировался ответ на любые поданные на вход данные.

А что сейчас не понятно? Анализ можно без проблем провести и сказать что именно привело к конкретному решению.


Ну вот такие сформировались как-то сами сформировались в процессе обучения при использовании вот этой вот выборки обучающих данных

Не "как-то сами", а опять же вполне можно провести анализ и понять в чем причина. Некоторые вещи — они да, могут получиться случайно или благодаря шуму, но в чем здесь проблема с объяснением? Да, модель шумит, но мы же не говорим что не понимаем как работает оперативка если иногда срабатывает коррекция ошибок, хотя тоже ситуация сродни шумам.

Сколько уже шума из-за некорректного по сути использования термина искуственный Интеллект. Маркетологи теперь не знают как объяснить что это вовсе не интеллект?
Постижим. Следующий!
А в «автопилоте» Теслы нейросеть используется? Если да, то первые звоночки уже прозвенели. И дальнейшие перспективы внедрения алгоритмов, логику работы которых мы не понимаем, несколько пугают.

А в водителе автобуса нейросеть используется?

Логику работы водителя автобуса мы как раз вполне неплохо понимаем благодаря эмпатии, даже когда он делает ошибки, мы можем объяснить, почему он их делает. А тех людей, логику работы нейросетей которых мы не понимаем, мы таки изолируем от общества в мягких комнатах и пытаемся лечить.

А то ходишь ты такой на работу, один коллега с тобой всегда приветлив, здоровается, а в очередной день он тебе на твое «здравствуйте» перо в бок засаживает просто так (причину никто не узнает, но с точки зрения нейросети коллеги: просто на тебе в этот день был малиновый галстук и зеленые туфли). Как думаете, что будет дальше с таким коллегой?
«А тех людей, логику работы нейросетей которых мы не понимаем, мы таки изолируем от общества в мягких комнатах и пытаемся лечить.»

Нет. Принудительная госпитализация возможна только в случаях, когда подтверждён диагноз тяжёлого психического расстройства врачом соответствующей специализации.
И даже в случае подтверждённого диагноза принудительная госпитализация возможно только при по крайней мере одном из следующих условий:
· непосредственная опасность лица, недобровольно госпитализируемого в психиатрический стационар, для себя или окружающих, или
· его беспомощность, то есть неспособность самостоятельно удовлетворять основные жизненные потребности, или
· существенный вред его здоровью вследствие ухудшения психического состояния, если лицо будет оставлено без психиатрической помощи.

Это для России, но в большинстве цивилизованных стран всё обстоит похожим образом.

А так — люди постоянно друг друга не понимают. Бывает, что пара живёт в браке годы, и всё-равно супруги не могут понять логику и мотивацию друг друга.

Какая разница что мы можем объяснить почему он делает ошибки, если в ближайшем будущем он будет в среднем делать их больше чем автопилот?

НЛО прилетело и опубликовало эту надпись здесь
Помимо аргументов, который привёл предыдущий оратор, остаётся вопрос ответственности. Общество устроено так, что ограничителем для деяний индивида служит ответственность за деяния, которые признаны обществом нежелательными, падающая на этого индивида. Финансовая ответственность, тюрьма, смерть в результате права на самозащиту и вот это всё.
Может быть это и не слишком хорошо работает в больших масштабах, типа ответственности руководителя гипотетической страны за миллионы гипотетических погибших в гипотетической войне, но на бытовом уровне вполне себе работает — если вы нанесёте кому-то вред, вас могут посадить, а если полезете к кому то в дом с нехорошими целями — вас могут застрелить. Т.е. подразумевается, что индивид несёт ответственность как минимум в пределах своей свободы, здоровья и жизни. И пострадавшие (или их родные) вполне могут удовлетвориться этими пределами.
Но теперь посмотрим на ситуацию, когда человека убил механизм с нейросетью внутри. Кто будет нести ответственность за это — автор кода нейросети, тот кто производил обучение, тот кто готовил обучающую выборку или ещё кто-то? Найти виновного в данной ситуации практически невозможно. Понятно, что можно сгладить проблему путём страхования рисков, возникающих в следствии работы нейросети. Но страхование никак не закрывает вопрос ответственности, который является основополагающим в саморегуляции человеческого общества.
В принципе, все те же проблемы могут проявляться и с «обычными» автоматами или другим оборудованием, работа которого может влиять на жизнь и здоровье. И проявляются, как в том же Therac-25, например. Но тут хотя бы есть возможность с пристойной достоверностью определить виновника. В случае же с нейросетями такого варианта нет, по крайней мере на настоящий момент.

Откуда столько кровожадности? Почему вам обязательно надо найти козла отпущения? А когда на вас метеорит упадет — вы тоже будете искать "виноватого"? А когда подскользнетесь в поле?
Даже если количество смертей от автопилотов будет в точности таким же как количество смертей если бы эти автомобили водили люди — это уже огромный плюс, потому что нам не придется сажать людей которые сонные сели за руль или не заметили светофор. Это же отлично, общество выиграет. Причем тут саморегуляция? Это вообще не в тему. Отсутствие виноватого на самом деле — даже лучше присутствия оного при прочих равных.

>>Откуда столько кровожадности? Почему вам обязательно надо найти козла отпущения?
Где я писал, что это моя личная точка зрения? Или вы подразумеваете, что лично я придумал уголовный кодекс, тюрьмы и вот это всё? Я просто поделился своими, весьма очевидными, наблюдениями об устройстве современного общества. Если вам это устройство не нравится, какой смысл перенаправлять ваше недовольство на меня?

Вообще то мир не совсем так устроен. Есть понятие "несчастный случай". Можно даже кого-то убить и быть полностью невиновным. Например если вы запускаете салют (где разрешено), а у соседа от этого инфаркт.

НЛО прилетело и опубликовало эту надпись здесь

Не воспринимайте буквально, вроде достаточно очевидно что смысл был в том, что люди тоже ошибаются, водитель может принять тень от птицы за бегущее животное, резко затормозить или перестроитсья и попасть в ДТП, да куча вариантов когда человек может тоже накосячить. Главное в том чтобы во первых ДТП было меньше при полном контроле автоматики и чтобы автоматика ставила всегда жизнь пассажиров своего авто в приоритет.

«Всё, что тяжелее воздуха — летать не может!» (с)
«Искусственный интеллект непостижим!»
Может, если атмосфера, в которой оно собралось летать, еще более тяжелая (читай плотная).
Поздравляю с первым комментарием за 3 года! Вам явно стоит прокачать сарказмодетектор.
Это уже не полет, а плавание какое-то.
Ну не зря же полеты на аппаратах легче воздуха (или в более общей формулировки — легче окружающего газа) называются именно воздухоплаванием. До того как появились аппараты тяжелее воздуха был вообще синонимом полета.
Я считаю, что в буквальном воплощении — да, ИИ непостижим в сколько-нибудь обозримом будущем (об очень далеком и необозримом не говорим). Но нечто сходное и функционально подменяющее в каких-то задачах — почему бы и нет.

Это похоже на ситуацию с полетом — птичий полет ведь невозможно точно воспроизвести даже сейчас, со всеми современными технологиями. Точнее, можно воспроизвести приблизительно, но это будет очень криво и печально. Однако есть самолеты — устройства не копирующие птиц буквально, устроенные иначе, но тем не менее неплохо исполняющие требуемые от них функции.
Не об этом речь, скорее про EmDrive, представьте что он бы работал, давал бы мощную тягу, все бы им пользовались, летали бы, но без малейшего представления за счет чего он работает.
НЛО прилетело и опубликовало эту надпись здесь
> Вторая модель работала менее аккуратно, чем первая,

Статья явно была переведена нейросетью, причём недоучившейся.

«Accurate» — это «точный», а не «аккуратный». Соответственно, фраза оригинала «This second, interpretable, model was less accurate than the first» переводится как «эта вторая, обяснимая, модель была менее точной, чем первая.»

Надмозгу привет передавайте.
НЛО прилетело и опубликовало эту надпись здесь
А оно обычно так и получается. Долгие-долгие копания, потом взгляд человека с незашоренным взглядом, альтернативный подход — и прорыв.
>современное машинное обучение выступает в роли оракула:
>получить точный ответ о том, что случится,
>или же понятное, но неточное объяснение того, что случится?

Это попытка выдать желаемое за действительное и расплывчатая формулировка одновременно. Предсказать точно, «что случится» в действительно сложной системе — невозможно. Можно лишь прогнозировать, что «может случиться».

Когда при разговоре об ИИ рисуют псевдонейронные сети, показывают распознаваемые картинки, вспоминают статистическое машинное моделирование называя это обучением, аппелируют к IBMам, то можно сразу понять, что видимо для современного распространенного мышления ИИ реально не постижим.
И несмотря на все успехи нейросетей, есть у них и одна проблема: никто, по сути, не знает точно, как они работают

Что значит «не знают»? А алгоритмы обучения наугад придумывали? Сложно объяснить, почему веса именно такие, а не другие, но в самой идее НС нет ничего загадочного.

Даже правительства начинают беспокоиться по поводу растущего влияния непонятных пророков от нейросетей.

Не, ну раз правительства беспокоятся…

Она сначала смотрит на низ картинки, и прекращает смотреть, если находит кровать. Видимо, в наборе начальных данных для тренировки сетей, окна со шторами присутствовали в спальнях.

Ну и о чем это говорит? Правильно, о важности создания правильного тестового набора. Как это относится к теме статьи вообще?

Например, в 1996 году Адриан Томпсон [Adrian Thompson] из Сассекского университета использовал программу для разработки электронного контура, основанную на принципах, схожих с работой нейросетей.… После тысячи итераций по размещению и смене местами радиокомпонентов…

При этом несколько из них не были соединены с остальными, но они, каким-то образом, всё равно нужны были для правильной работы контура.

Перевожу на более программистский язык: некий инженер использовал алгоритм оптимизации (не, ну а чо, в НС они тоже используются), который (о чудо) нашел оптимальное решение. При этом в программе решения был баг, из-за которого некоторые компоненты не были соединены с другими.

Дальше не читал, извините.
> При этом несколько из них не были соединены с остальными, но они, каким-то образом, всё равно нужны были для правильной работы контура.

Слышал я про эту хохму. Там транзистор оказался подключенным к остальной схеме одной лишь базой — но без него всё отказывалась работать. Тайна оказалась в том, что при таком подключении этот транзистор служил антенной, на которую принималась искомая частота как наводка от плохо заэкранированного БП в соседней комнате.
Тут какая-то неверная формулировка. Ученые знают, как работают сети, все это формально математически описано и доказано полностью. Непонятно, что происходит в каждом конкретном случае обучения большой масштабной сети. Невозможно интерпретировать получившийся в итоге огромный многомерный массив параметров.

Что касается возможности эксплойта — так наш мозг тоже можно эксплойтить, почитайте о всяких способах вызывать иллюзию, введя мозг в заблужение.
А почему нельзя во время обучения сохранить где-то метаданные которые бы говорили какие входные данные привели к каким изменениям весов. А во время работы сети так сказать делать обратное — говорить какие нейроны привели в такому-то результату и почему? Или оно так не работает?
Уже какой-то черный ящик получается. Свой мозг понять тоже не можем. То ли мы глупые такие, то ли рекурсия и инертность мышления срабатывает.

Давайте уже договоримся, кто мы есть, и почему водителю автобуса совершать ошибку можно, а НС — нельзя.
Да, как раз об этом недавно с товарищем говорил (и вспоминал про эту статью), вроде нейросеть круче человека за счёт того что может впитать опыт недостижимый за человеческую жизнь, с другой стороны непонятно как фиксить баги и как проверить, что это фиксение не создало новых багов непойми где.
При этом решение на нейросетях это почти как магия, мы не познали проблему, но нашли заклинания которые её решают относительно хорошо.
Грубо говоря это равносильно использованию животных (например голубей) для распознавания образов, оно конечно работает, да только мы не можем считать что решили эту задачу.
Поэтому например подход ABBYY Compreno для анализа текста мне кажется самым правильным решением, их решение хоть и дорогое (требует много работы по подготовки парсинга языка), но вроде как алгоритмизированное, а значит на него можно полагаться (всегда будет работать предсказуемо), а при обнаружении багов пофиксить их и с большей уверенностью считать что ничего другого при этом не поломалось.
Вобщем рациональное мышление требует познаваемого алгоритма, а не магии. Возможно задача не решаема, но это надо формально доказать.
почему в переведёных постах не приводят ссылку на оригинал?
Почему это не обязательное условие публикации таких постов?
НЛО прилетело и опубликовало эту надпись здесь
Я согласен с chouck в том, что оформление дурацкое: во-первых, кажется, что Aaron Bornstein — переводчик, а не автор (следовало бы писать что-то типа «перевод; автор оригинальной статьи — Aaron Bornstein»); во-вторых — какого х… обота ссылка мало того, что не подчёркнута, так ещё и зелёная, а не синяя????

«Проверка дизайна на правильность проста: если зритель, не притрагиваясь к мыши, может угадать, где ссылка, а где нет, — перед нами хороший сайт. Это правило перевешивает все остальные.» — https://www.artlebedev.ru/kovodstvo/sections/171/
Текст переводил тоже ИИ?
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории