Comments 75
Может не стоит пытаться создать готовый интеллект, а разработать систему реализующую эволюцию?
«Божественная рука сверху» просто не справится с задачей отбора и отсеивания из-за огромного количества объектов, а автоматизация процесса отбора за счёт гендерных различий — вполне может сработать. Достаточно научиться создавать «притягательность» альтруистическим чертам. Надо будет проанализировать всю мотивационную цепочку от инстинктов до альтруизма (в высших когнитивных слоях), и просто внедрить этот инстинкт, ведущий к альтруизму.
Поскольку это будет всё-таки виртуальная среда, то проблемы с тем, чтобы размножить пострадавшего (или даже погибшего) альтруиста не будет проблемой. Да, это будет грубый чит, но почему бы и нет, в качестве эксперимента?
Выход видится мне в конкуренции без видимых конкурентов. Каждая сущность в собственной песочнице без доступа к другим сущностям, он даже не будет знать о других сущностях. Та сущность что лучше справится пойдет в следующее поколение. Так появится сущность что не имеет понятия, что можно стать лучшим не только улучшениям себя, но и ухудшением других.
Плохой выход похоже. Сущности будут асоциальны. Открыв концепцию подавления других, они тут же займутся этим.
Действительно ли искусственный интеллект непостижим?
Заголовок очень желтый. Что значит "непостижим"?
"Часы на руке соседа — они непостижимы" — вот как это звучит. У нас есть 7 миллиардов примеров интеллекта и заявлять о невозможности скопировать его — это странно, даже одного примера было бы достаточно.
Далее, рассуждать о том что если есть объект, то скопировать его можно верно лишь до объекта не сложнее вилки. Дальше начинают возникать вопросы в технологиях и «черном ящике» что в большинстве случаев становится сильным препятствием для копирования. Скажем Китай обладает полной документацией по обслуживанию Ал-31Ф, и на основе этого попытались построить свой WS-10A. Результат — теоретически одинаковые двигатели, практически же…
Проблему начальную правда устранили, подняли межкапитальный ресурс до 1500 часов, но вот с надежностью и реальной тягой так и не справились. В результате Китай тихо и мирно продолжает закупать у нас двигатели, несмотря на свой «такой же».
Вы подменяете понятия. Никто не спорит что сильного ИИ нету сейчас и то что не факт что он появится в ближайшем будущем, или не факт что он сможет работать без очень крутых производительных генераторов случайных чисел и т.д… Но слово "непостижим" в целом все же больше о принципиальной возможности. А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.
И наконец — «А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.» Контр-аргумент — Мы видим что вселенную можно создать — значит можно создать вселенную и искуственно. Правда можем?
Что такое гипербола знаете?
Вот вам пример. Окей, допустим как гласит одна теория, разум появляется сам по себе при достижении некого порога сложно нейронной сети. Но у косаток и слонов число нейронов почти на одном уровне с человеком… Далее, допустим, как гласит другая теория, разум — это свойство строения мозга человека. Но потрясающая пластичность мозга показывает что эта теория тоже неправа… Самое веселое, то что HBP как раз НЕ ставит в качестве цели поиск возникновения или работы разума, а лишь занята сбором информации о работе нейронов и их симуляцией.
К чему эти примеры я тоже не понял. Ну не сработали теории, что теперь, дальше не копать?
Что такое НВР?
Если задача ВЫГЛЯДИТ решаемой это не гарант того, что все так и есть. Мозг ведет себя как детерминированно-хаотическая система, с ними человечество адекватно работать не научилось.
То есть объяснить почему нейронная сеть так поступила мы не можемДа откуда вы это берете? Нейросеть — это простое отображение из одного множества в другое, иногда недетерминированное, но то что вы говорите мне видится как — вот функция y=x2, мы ее объяснить не можем. Почему она выдает нам те результаты которые выдает — это непостижимо.
Во-вторых, если вы считаете что можно объяснить работу естественного интеллекта то вам можно уже ноблевку выдавать.Никто вроде не говорил что объяснить невозможно, и никакой нобелевкой тут не пахнет. То что объяснить возможно — это практически по определению. И для того чтобы это утверждать не нужно иметь само объяснение. Вон KIC 8462852 тоже пока объяснить не могут, но никто не говорит что объяснить невозможно. Конечно возможно.
И наконец — «А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.» Контр-аргумент — Мы видим что вселенную можно создать — значит можно создать вселенную и искуственно. Правда можем?Что? Мы видим как вселенная постоянно появляется? Мы видим что законы физики позволяют иметь неограниченное количество карманных вселенных (может и позволяют, но пока не известно)?
Ответе пожалуйста на вопрос — как можно объяснить работу детерминированной хаотической системы? Или попроще — возможно ли сейчас сделать честный реверс-инжениринг процессора xeon e5 «с нуля»? А главное, после этого еще и произвести копию, работающую как оригинал. Вы ведь понимаете что тут речь идет о куда более легкой задаче?
>>> Никто вроде не говорил что объяснить невозможно, и никакой нобелевкой тут не пахнет. То что объяснить возможно — это практически по определению. И для того чтобы это утверждать не нужно иметь само объяснение. Вон KIC 8462852 тоже пока объяснить не могут, но никто не говорит что объяснить невозможно. Конечно возможно.
Да да… Возможно все объяснить по определению, мы только не знаем как. Но когда нибудь мы это узнаем, так что сейчас чего париться… Мозг серьезно сложнее современных систем глубокого обучения, а с объяснением, почему же система поступила именно таким образом уже фейлились разработчики. Просто потому что понять работу сверточной сети глубокого обучения — это нужно знать, как будут приниматься решения на каждом шаге алгоритма в каждой зоне сети. Ой, как же я забыл, — счет идет на миллиарды весов, и нейронов, причем подбирается это генетическим алгоритмом… То есть в чем-то вы правы, ТЕОРЕТИЧЕСКИ это возможно… Нужно всего-то взять несколько сотен тысяч программистов, посадить их лет на 5-10 на понимание каждый своего участка и потом еще лет 30 пытаться достичь координации между ними. Для меня это синоним невозможно.
>>> Что? Мы видим как вселенная постоянно появляется? Мы видим что законы физики позволяют иметь неограниченное количество карманных вселенных (может и позволяют, но пока не известно)?
А что, принципально нет такой возможности? А с мозгом значит есть?
Ответе пожалуйста на вопрос — как можно объяснить работу детерминированной хаотической системы? Или попроще — возможно ли сейчас сделать честный реверс-инжениринг процессора xeon e5 «с нуля»? А главное, после этого еще и произвести копию, работающую как оригинал. Вы ведь понимаете что тут речь идет о куда более легкой задаче?Возможно, но никто этим заниматься не будет, ибо затраты большие, а выхлопа не особо, проще купить оригинал. Но принципиально конечно возможно. Тут так же — нет проблем объяснить, просто это никому не нужно зачастую, это слишком дорого.
А что, принципально нет такой возможности? А с мозгом значит есть?Мозг (человека) вы можете создать, их создают пачками. В этом и отличие от вселенной. Возможно вселенная (еще зависит от определения конечно) — одна by definition, конечно тогда вы не можете скопировать, хотя вы можете создать симуляцию, но она будет в чем-то ограничена. Мозг же ничем не примечателен, можно создать и искуственный.
Это называется невозможно. Скажем, возможно ли сейчас чтобы вы мне Луну (которая в космосе) послали прямо в Солнце (которое тоже в космосе)?
>>> Мозг (человека) вы можете создать, их создают пачками. В этом и отличие от вселенной. Возможно вселенная (еще зависит от определения конечно) — одна by definition, конечно тогда вы не можете скопировать, хотя вы можете создать симуляцию, но она будет в чем-то ограничена. Мозг же ничем не примечателен, можно создать и искуственный.
Я умею строить самолеты и подводные лодки потому что есть люди которые их строят! Вы серьезно считаете что для того, чтобы родится ребенок надо понимать как работает человеческий организм на клеточном уровне?
Это называется невозможно. Скажем, возможно ли сейчас чтобы вы мне Луну (которая в космосе) послали прямо в Солнце (которое тоже в космосе)?
Чтобы я — думаю нет, но в целом — возможно. Вот мы сейчас не можем вылечить рак зачастую, но мы не говорим что принципиально это невозможно, не так ли? Или вот завтра прямо мы не можем полететь на Луну, но мы же не говорим что это невозможно? Более того — мы уже туда летали и не раз.
Я умею строить самолеты и подводные лодки потому что есть люди которые их строят! Вы серьезно считаете что для того, чтобы родится ребенок надо понимать как работает человеческий организм на клеточном уровне?Вы о чем вообще? Я не говорил что надо понимать. Я говорил о том что нету никаких физических ограничений сделать ИИ. Иными словами ИИ — возможен. Но не сегодня.
Кстати, изначально разговор шел про непознаваем, это абсолютно разные вещи.
Вашими устами, да и полет на Луну невозможен. Ну на Марс — точно «невозможен».
Кстати, изначально разговор шел про непознаваем, это абсолютно разные вещи.Вы о чем? Непознаваем и невозможно познать — разные вещи?
Тогда какое отношение имеет к познанию «А принципиально мы видим что человека (разум) создать можно — значит можно сделать этот разум и искуственно.»
Перемещаться по галактике безусловно можно, но не в данный момент для человечества.
Искуственный разум с точки зрения физики создать можно, это так же очевидно как то что можно создать яблоко искуственно. Да, сложно, но никаких физических законов не нарушает. Разум — это свойство куска материи, которая концептуально ничем не отличается от материи из которой состоит яблоко или камень. Просто организация сложнее.
К познанию — суть опять же в том что мы можем понять и описать почему что как себя повело, потенциально. На это нету физических ограничений. Может оказаться что это просто никому не нужно, но от того не становится невозможным.
является сейчас неподъемной «читать невозможной»Еще раз говорю что «невозможно сейчас» != «невозможно». Потому что вашими словами — невозможно полететь на Марс. Ну или хорошо, Марс уже не за горами — но на Плутон точно невозможно полететь людям. Поэтому слово «невозможно» неверно, как и слово «непостижим». Ведь если подумать — всем известно что ИИ сейчас нету, следовательно к чему рассуждения о том что «невозможно сейчас»? Это достаточно очевидно. Если речь о постижимости/возможности в принципе — то они не верны. Если речь о ближайшем будущем — тогда надо все же это уточнять, насколько ближайшее.
Про «создание» — это продолжение ответа на ваше:
Далее, рассуждать о том что если есть объект, то скопировать его можно верно лишь до объекта не сложнее вилки.Мозг в этом плане от вилки ничем концептуально не отличается. Вопрос в технологиях а не в принципиальной возможности/невозможности.
Мозг в этом плане от вилки ничем концептуально не отличается. Вопрос в технологиях а не в принципиальной возможности/невозможности.
Возьмите эту деталь. http://img.allzip.org/g/97/orig/6466617.jpg
Насколько сложно ее произвести?
Давайте тогда сделаем так — представьте себе заголовок статьи «Мы можем путешествовать во времени!»Передергиваете. Я могу аналогично попросить вас представить заголовок: «Полеты на марс — невозможны».
Следует разделять: «можем», «возможно», «не возможно», «не знаем».
Вы пытаетесь доказать что если не «можем» то можно писать «невозможно», но вот про путешествия во времени правильный ответ — не знаем, поэтому ваше сравнение неуместно. Но вот если бы ученые увидели пример путешествия во времени, пусть и не до конца понимая механизмы и без возможности на данный момент скопировать или как-то использовать — мы бы могли честно писать «путешествия во времени возможны».
А ссылка ваша не работает.
https://habrastorage.org/files/df9/704/eaa/df9704eaab924539910a8678c500f470.jpg
Если задача сложна настолько, что практически нерешаема — то она нерешаема, даже если в теории ее можно победить.Круто. Т.е. искуственные легкие — это «невозможно»?
Вы упорно путаете «невозможно сейчас» и «невозможно в принципе». Мы знаем что создать искуственные легкие возможно, но не сегодня. Создать искуственное сердце, которое будет работать лучше настоящего — это возможно, но не сегодня. Писать заголовок: «искуственные легкие — невозможны» — это вранье и желтая пресса. Писать «полет на Луну невозможен» — это вранье и желтая пресса.
Такое ощущение что возражали на заголовок «искусственный интеллект недостижим». А речь и в заголовке и в самой статье о постижимости, а не достижимости. Уже сейчас удается создавать нейронные сети(слабые формы ИИ), которые работают(и неплохо), но даже их создатели не могут разобраться как именно они работают.
Ну а разве "понять" — это что то невозможное?
Да и про ИНС не согласен. Что значит "не могут разобраться как они работают"? Как они работают — прекрасно известно, иногда с математической точностью доказаны оптимальные методы. Как они работают на бытовом уровне — тоже понятно, это всего лишь отображение из одного множества в другое, как и любая другая функция. Что именно не понятно? Скорее речь о том что система не является идеальной и решение не выражается кратко аналитически.
Как тренировать(обучать) и какие конфигурации для каких задач более эффективны — это не понимание как они работают. Этот работа с ними как «черным ящиком», для которого экспериментально нащупали набор эмпирических правил позволяющих его использовать на практике.
Вот с соседней ветке аналогию с EmDrive хорошую подкинули. Известно как его сделать(и не сложно). Известно как включать, известно что влияет на его параметры (увеличили мощность — увеличалась тяга, увеличили добротность контура — пропорциональная увеличилась тяга, поменяли геометрическую форму — тяга поменялась тоже по известном эмпирическому закону) и тд…
Значит ли это что мы понимаем как он работает? Разумеется нет — это непонятный черный ящик с интересными эффектами. Сказать что мы понимаем как он работает можно будет после того как будет создана и доказана теория объясняющая физику его работы.
В случае ИНС это было бы выведения неких общих(универсальных) принципов использование которых позляло бы объяснить любое (ну или практически любое) действие предпринятое сетью или как сформировался ответ на любые поданные на вход данные.
В случае с естественным интелелектом — достаточно его само спросить. В случае алгоритмической программы — в любом момент можно посмотреть все логические действия, выборы, ветвления, вычисления и т.д.
В случае же ИНС ответ в случшем случае будет в стиле: ну вот потому что тут и тут вот такие вот веса между вот этими группами нейронов. А почему такие веса? Ну вот такие сформировались как-то сами сформировались в процессе обучения при использовании вот этой вот выборки обучающих данных. Использовали бы другую выборку — сформировались бы какие-то другие веса (и даже заранее нельзя сказать а было бы конкретное решение/ответ от этого другим или осталось тем же не проверив все это экспериментально).
если объект и механизмы его действия окажутся слишком сложными для понимания
Есть математическое доказательство того что что-то невозможно понять в принципе? Если что Теорема Геделя о Неполноте — это не о том.
действие предпринятое сетью или как сформировался ответ на любые поданные на вход данные.
А что сейчас не понятно? Анализ можно без проблем провести и сказать что именно привело к конкретному решению.
Ну вот такие сформировались как-то сами сформировались в процессе обучения при использовании вот этой вот выборки обучающих данных
Не "как-то сами", а опять же вполне можно провести анализ и понять в чем причина. Некоторые вещи — они да, могут получиться случайно или благодаря шуму, но в чем здесь проблема с объяснением? Да, модель шумит, но мы же не говорим что не понимаем как работает оперативка если иногда срабатывает коррекция ошибок, хотя тоже ситуация сродни шумам.
А в водителе автобуса нейросеть используется?
А то ходишь ты такой на работу, один коллега с тобой всегда приветлив, здоровается, а в очередной день он тебе на твое «здравствуйте» перо в бок засаживает просто так (причину никто не узнает, но с точки зрения нейросети коллеги: просто на тебе в этот день был малиновый галстук и зеленые туфли). Как думаете, что будет дальше с таким коллегой?
Нет. Принудительная госпитализация возможна только в случаях, когда подтверждён диагноз тяжёлого психического расстройства врачом соответствующей специализации.
И даже в случае подтверждённого диагноза принудительная госпитализация возможно только при по крайней мере одном из следующих условий:
· непосредственная опасность лица, недобровольно госпитализируемого в психиатрический стационар, для себя или окружающих, или
· его беспомощность, то есть неспособность самостоятельно удовлетворять основные жизненные потребности, или
· существенный вред его здоровью вследствие ухудшения психического состояния, если лицо будет оставлено без психиатрической помощи.
Это для России, но в большинстве цивилизованных стран всё обстоит похожим образом.
А так — люди постоянно друг друга не понимают. Бывает, что пара живёт в браке годы, и всё-равно супруги не могут понять логику и мотивацию друг друга.
Какая разница что мы можем объяснить почему он делает ошибки, если в ближайшем будущем он будет в среднем делать их больше чем автопилот?
Может быть это и не слишком хорошо работает в больших масштабах, типа ответственности руководителя гипотетической страны за миллионы гипотетических погибших в гипотетической войне, но на бытовом уровне вполне себе работает — если вы нанесёте кому-то вред, вас могут посадить, а если полезете к кому то в дом с нехорошими целями — вас могут застрелить. Т.е. подразумевается, что индивид несёт ответственность как минимум в пределах своей свободы, здоровья и жизни. И пострадавшие (или их родные) вполне могут удовлетвориться этими пределами.
Но теперь посмотрим на ситуацию, когда человека убил механизм с нейросетью внутри. Кто будет нести ответственность за это — автор кода нейросети, тот кто производил обучение, тот кто готовил обучающую выборку или ещё кто-то? Найти виновного в данной ситуации практически невозможно. Понятно, что можно сгладить проблему путём страхования рисков, возникающих в следствии работы нейросети. Но страхование никак не закрывает вопрос ответственности, который является основополагающим в саморегуляции человеческого общества.
В принципе, все те же проблемы могут проявляться и с «обычными» автоматами или другим оборудованием, работа которого может влиять на жизнь и здоровье. И проявляются, как в том же Therac-25, например. Но тут хотя бы есть возможность с пристойной достоверностью определить виновника. В случае же с нейросетями такого варианта нет, по крайней мере на настоящий момент.
Откуда столько кровожадности? Почему вам обязательно надо найти козла отпущения? А когда на вас метеорит упадет — вы тоже будете искать "виноватого"? А когда подскользнетесь в поле?
Даже если количество смертей от автопилотов будет в точности таким же как количество смертей если бы эти автомобили водили люди — это уже огромный плюс, потому что нам не придется сажать людей которые сонные сели за руль или не заметили светофор. Это же отлично, общество выиграет. Причем тут саморегуляция? Это вообще не в тему. Отсутствие виноватого на самом деле — даже лучше присутствия оного при прочих равных.
Где я писал, что это моя личная точка зрения? Или вы подразумеваете, что лично я придумал уголовный кодекс, тюрьмы и вот это всё? Я просто поделился своими, весьма очевидными, наблюдениями об устройстве современного общества. Если вам это устройство не нравится, какой смысл перенаправлять ваше недовольство на меня?
Не воспринимайте буквально, вроде достаточно очевидно что смысл был в том, что люди тоже ошибаются, водитель может принять тень от птицы за бегущее животное, резко затормозить или перестроитсья и попасть в ДТП, да куча вариантов когда человек может тоже накосячить. Главное в том чтобы во первых ДТП было меньше при полном контроле автоматики и чтобы автоматика ставила всегда жизнь пассажиров своего авто в приоритет.
«Искусственный интеллект непостижим!»
Это похоже на ситуацию с полетом — птичий полет ведь невозможно точно воспроизвести даже сейчас, со всеми современными технологиями. Точнее, можно воспроизвести приблизительно, но это будет очень криво и печально. Однако есть самолеты — устройства не копирующие птиц буквально, устроенные иначе, но тем не менее неплохо исполняющие требуемые от них функции.
Статья явно была переведена нейросетью, причём недоучившейся.
«Accurate» — это «точный», а не «аккуратный». Соответственно, фраза оригинала «This second, interpretable, model was less accurate than the first» переводится как «эта вторая, обяснимая, модель была менее точной, чем первая.»
Надмозгу привет передавайте.
>получить точный ответ о том, что случится,
>или же понятное, но неточное объяснение того, что случится?
Это попытка выдать желаемое за действительное и расплывчатая формулировка одновременно. Предсказать точно, «что случится» в действительно сложной системе — невозможно. Можно лишь прогнозировать, что «может случиться».
И несмотря на все успехи нейросетей, есть у них и одна проблема: никто, по сути, не знает точно, как они работают
Что значит «не знают»? А алгоритмы обучения наугад придумывали? Сложно объяснить, почему веса именно такие, а не другие, но в самой идее НС нет ничего загадочного.
Даже правительства начинают беспокоиться по поводу растущего влияния непонятных пророков от нейросетей.
Не, ну раз правительства беспокоятся…
Она сначала смотрит на низ картинки, и прекращает смотреть, если находит кровать. Видимо, в наборе начальных данных для тренировки сетей, окна со шторами присутствовали в спальнях.
Ну и о чем это говорит? Правильно, о важности создания правильного тестового набора. Как это относится к теме статьи вообще?
Например, в 1996 году Адриан Томпсон [Adrian Thompson] из Сассекского университета использовал программу для разработки электронного контура, основанную на принципах, схожих с работой нейросетей.… После тысячи итераций по размещению и смене местами радиокомпонентов…
…
При этом несколько из них не были соединены с остальными, но они, каким-то образом, всё равно нужны были для правильной работы контура.
Перевожу на более программистский язык: некий инженер использовал алгоритм оптимизации (не, ну а чо, в НС они тоже используются), который (о чудо) нашел оптимальное решение. При этом в программе решения был баг, из-за которого некоторые компоненты не были соединены с другими.
Дальше не читал, извините.
Слышал я про эту хохму. Там транзистор оказался подключенным к остальной схеме одной лишь базой — но без него всё отказывалась работать. Тайна оказалась в том, что при таком подключении этот транзистор служил антенной, на которую принималась искомая частота как наводка от плохо заэкранированного БП в соседней комнате.
Что касается возможности эксплойта — так наш мозг тоже можно эксплойтить, почитайте о всяких способах вызывать иллюзию, введя мозг в заблужение.
При этом решение на нейросетях это почти как магия, мы не познали проблему, но нашли заклинания которые её решают относительно хорошо.
Грубо говоря это равносильно использованию животных (например голубей) для распознавания образов, оно конечно работает, да только мы не можем считать что решили эту задачу.
Поэтому например подход ABBYY Compreno для анализа текста мне кажется самым правильным решением, их решение хоть и дорогое (требует много работы по подготовки парсинга языка), но вроде как алгоритмизированное, а значит на него можно полагаться (всегда будет работать предсказуемо), а при обнаружении багов пофиксить их и с большей уверенностью считать что ничего другого при этом не поломалось.
Вобщем рациональное мышление требует познаваемого алгоритма, а не магии. Возможно задача не решаема, но это надо формально доказать.
Почему это не обязательное условие публикации таких постов?
«Проверка дизайна на правильность проста: если зритель, не притрагиваясь к мыши, может угадать, где ссылка, а где нет, — перед нами хороший сайт. Это правило перевешивает все остальные.» — https://www.artlebedev.ru/kovodstvo/sections/171/
Действительно ли искусственный интеллект непостижим?