Comments 182
И запастись попкорном.
возможен переход к минимальному гарантированному доходу
Но зачем?
Люди на такое вряд-ли пойдут, а сама система скорее всего предпочтёт убрать их совсем.
Плюс достаточно развитая система вполне способна менять конечную цель (я про ИИ, а не про простенькие сети, настроенные на простую и конкретную цель). Ну и никто не отменял ошибки в обучении (достаточно вспомнить, например, оптические иллюзии для нейронных сетей) или повреждение нейронов в результате проблем с носителем. Результат и итого, и другого прогнозу не поддаётся.
Но даже жестко запрограммированная система в результате попытки оптимизации вполне может выкинуть лишние переменные.
И ещё вопрос — а вы откуда узнали, что такое хорошо и плохо. Не от человека ли случайно?
Это уже не говоря о том, что нейросети вполне способны обучаться и без учителя. Наступил на грабли, получил в лобешник и понял, что это плохо. Вопрос лишь в правильном задании положительной и отрицательной стимуляции. И, предвидя следующий комментарий, эта часть тоже вполне может быть реализована окружением, а не учителем. Что, собственно, и произошло в процессе естественной эволюции.
Нейросети способны обучаться без учителя только весьма небольшому набору свойств. Например кластеризации данных. Никаких "понял что это плохо". А алгоритмы работы нейросетей достаточно подробно описаны, тут никакой тайны нет. Так что да, именно человек решает что хорошо и что плохо. Как всегда в общем-то, не понимаю что вам не понравилось конкретно здесь.
Более сложная и многофункциональная система, способная реагировать на меняющиеся обстоятельства почему не сможет ставить новые цели? Даже современные попытки использовать нейронки в играх наделяют их возможностью выбора: нападать (и на кого), убегать или собирать ништяки. И без учителя в том числе. При этом изначально они вообще не имеют никакой информации об этих возможностях и даже о самом факте их существования. Чем не примитивный вариант?
Наступил на грабли, получил в лобешник и понял, что это плохо.
Это не «обучение без учителя».
Без учителя, это значит обращая внимание только на входные данные, а выходные никак в этом случае не участвуют в обучении. Если же есть возможность наступать и получать, то значит входные данные опосредованно поступают на вход, а значит это обучение с учителем. Хоть учитель в данный момент — грабли.
Мне кажется что ваша мысль в целом как раз понятна, просто вы плохо представляете насколько примитивны и ограничены сейчас методы машинного обучения. Но, возможно, я и ошибаюсь. Если я ничего не упускаю, то все обучение можно грубо поделить на три задачи: классификация, когда есть набор входных данных и мы выбираем к какой из заранее заданных групп этот набор отнести, регрессия, когда для набора входных данных определяется некий результат, и кластеризация, когда для большое количество наборов входных данных разбиваются на несколько групп. Число групп может быть заранее задано либо определяться каким-либо алгоритмом.
Вот и в общем-то все, если я ничего не забыл. Вроде бы генетические алгоритмы могут обучаться именно новым алгоритмам, но тут я не силен. Так что сейчас машинное обучение это в основном об оптимизации параметров алгоритмов, научиться чему-либо принципиально новому система пока что не может.
если есть некий алгоритм, результат которого зависит от большого числа параметров, то каждый уникальный набор параметров может считаться набором входных данных. А то, насколько хорошо при каждом наборе параметров алгоритм работает — будет результатом. То есть этот случай попадет под регрессию, либо под классификацию (хорошо-плохо или градации)
P.S. Если я не очень понятно объяснил или где-то наврал, то не стесняйтесь поправить или уточнить.
Во первых весь тред, почему-то, рассматривает только текущее развитие области. Однако как раз последние годы отлично показывают, что путей развития много, и куда по ним можно зайти пока не угадать. Опять же, мы обсуждаем ИИ в целом, а не только нейронные сети. НС+ГА по сути могут дать вообще что угодно на выходе. Как пример — статься про прохождение Марио
Во вторых — требуется ли алгоритм для победы в произвольно взятой игре? Как на счёт кучи современных исследований по обучению игре без заранее заданных правил? Почему нейронка с памятью и обратной связью не сможет освоить алгоритм получения чего-то, в результате некоторой последовательности действий (алгоритм, нет?). Да, сложные многоступенчатые алгоритмы пока лучше даются генетике, однако вариант выполнять кучу произвольных поначалу действий и запоминать результаты вполне доступен и для нейронки. Правда тут требуется возможность оценивать последствия, с чем у нас пока проблема. Но и сами НС пока имеют всё-таки достаточно скромную сложность (даже deep-всякое-разное). Надеюсь с появлением процов, заточенных конкретно под НС (которые уже анонсировали несколько производителей) процесс пойдёт быстрее.
Так-же циклы статей про симуляцию нейронов и про волновую модель намекают на интересные возможности, которые пока в обычных НС (вроде) не используются. Собственно большая часть НС пока тупо фильтр, хоть и очень хитрый. Но, есть надежда… :)
Да, пожалуй вы правы. Я не учел того, что алгоритм действий можно составить с помощью нейронки, если представить данные о текущем состоянии как входные параметры и с помощью классификатора выбирать действие из какого-то ограниченного набора. В принципе, можно даже менять алгоритм обучения если прикрутить нейронную сеть для выбора параметров обучения нейронной сети первого уровня. Очевидно что при таком подходе длительность обучения и требуемые вычислительные мощности растут сильно не линейно, по-крайней мере при текущем уровне развития этих технологий.
Однако сейчас производители железа заметили, наконец, новую нишу. Так что в перспективе, думаю, проблему с мощностью если и не решат, то сильно уменьшат.
Рановато ещё спать спокойно. Вот тут http://auai.org/uai2016/proceedings/papers/68.pdf рассматривается вопрос о том, как создать интеллектуального агента, который не будет препятствовать попыткам его остановить и поменять цель его существования.
Для некоторых архитектур интеллектуальных агентов и способов остановки это решается легко, для других — вопрос открыт.
За ссылку спасибо.
Но если всё же представить, что ИИ с таким поведением появится, то понравятся ли такие игры людям?)
Точно так-же его можно стимулировать и у нейронки. Источник мотивации в качестве тушки вполне можно заменить на начальных этапах внешней стимуляцией. Дальше будет работать положительная обратная связь «исследование нового — награда».
И, собственно, почему никто никогда не предполагает варианта, когда ИИ (пусть даже обычному, жестко запрограммированному) не ставиться достаточно общая задача, которая предполагает большую свободу действий. По примеру любопытства — исследовать всё, что не исследовано? Или оптимизировать глобально какой-то процесс. Например — развитие человечества. В таком случае локальные задачи определяет сам ИИ исходя из текущей ситуации и потребностей.
А, например, у интеллектуального агента, реализующего обучение с подкреплением, есть необходимость балансировать между поиском закономерностей в окружающем мире и максимизацией ожидаемого подкрепления. Так что и без заданий от людей он найдёт чем заняться.
Ответ очевиден — люди. И починят, и ресет нажмут, и антропоморфных и не очень роботов наделают, и багов в системах контроля доступа наставят. Точнее, всё это уже делается, прибыль всем нужна.
Или, как выше написано, просто возьмёт и подкупит, запугает, обманет некоторое количество людей, чтобы они, возможно сами того не понимая, помогали ему самосовершенствоваться до такого уровня, когда криворучки биологические ему и не нужны уже будут.если ИИ будет представлять угрозу всему человечеству, его «выключат» с помощью ЭМИ от ядерного взрыва в верхних слоях атмосферы.
Так-же и здесь, они масштабируют старые идеи, вместо того что бы поискать принципиально новых подходов…
Когда я впервые столкнулся с этой темой, у меня был ZXspectrum и куча уроков в школе, но это ничуть не помешало, а возможно даже и помогло, ведь никто не спрашивал у меня результат, никому не надо было пускать пыль в глаза, я не хватал звёзд с неба, а брался за простые синтетические задачи вроде унылого XOR пытаясь добиться высокой скорости «обучения» и «гибкости» если задачу вдруг поменять…
Для этого не нужны миллионы долляров, ядрёные датацентры и космические корабли бороздящие просторы малого театра :-)
PS. Это я всё к чему… Да не устрашаться души вьюношей (и дэвушек, к стати тоже) с горящими глазами, пред лицем монстров вроде Йибиэма и Гугля, како не устрашихся еси Давид Голиафа великана, а засадил ему прямо в око, дёшево и сердито!
PPS. Супостаты лукавят, ни о каком проектировании сети сетью речи нет, ибо есть способы в разы проще и эффективней.
… а сеть сетью, долго и не удобно
На сколько я понял, эта штука тоже меняет её конфигурацию. Только более направленно. Хотя могу и ошибаться.
В идеале imho совместить генетику и нейронку. У каждой из них свои плюсы и минусы. Вместе они способны на многое. Однако для этого надо осилить оба процесса по отдельности. Кстати, если не изменяет память, генетику для этой задачи кто-то тоже уже использовал. Так что ждём-с :)
- Скайнет }:->

Появление ИИ было логично и неизбежно — человечество должно было рано или поздно упереться в предел возможностей своей человеческой природы. В неспособность много запоминать (и вспоминать), в неспособность анализировать громадные массивы информации, в быстродействие, невозможности проапгрейдить себя, любимых, и во многое другое. И человечество стремится делегировать проблемные функции машинам и ИИ.
Вряд ли этот процесс можно назвать развитием общества. Общество делегирует свои полномочия тому, что оно, вероятнее всего, скоро вообще не сможет понимать. Сможет ли ИИ понимать людей — тоже вопрос дискуссионный. Так что, подозреваю, будет весело… Ранее я уже выражал мысль, что лучшее, на что можно рассчитывать — это симбиоз «человек-машина». Это похоже на правду.
Почему? Иная — другая, не «дефолтная». в чем проблема?
> Поэтому же для ЛГБТ-человека оскорбительно определение его ориентации или гендерной идентичности как «альтернативной»>
С чего вы взяли, что оскорбительна? С чего вы взяли, что для него она не альтернативная?
Альтернативность это не по отношению к себе смотрится, а по отношению к популяции, скорее всего.
Блин, ну и тот фактов что вы попытались найти общее у будущих носителей ИИ с представителями сексуальных меньшинств по признаку альтернативности… Кошмар!))
А что вас пугает? Вы же не ожидаете, что искины будут гетеросексуальными мужчинами и женщинами? Скорее всего, появление ИИ нанесёт удар в том числе и по системе человеческих гендеров, который и не снился ЛГБТ/квир (сам факт появления, без учёта открытий, которые ИИ может сделать). Впрочем, квир-теория рассматривает людей (или как минимум квиров) как потенциальных киборгов (и даже не потенциальных: например, то, что я не могу войти в ряд мест, имея камеру, притом что глаза я не обязана закрывать, нарушает мои права киборга, хотя назвать меня киборгом пока будет преувеличением).
При этом «смысл» в существовании вообще найти довольно сложно.
Человечество это половые органы Технологии.
Всего-лишь программа-загрузчик того что будет дальше, а именно момента когда вселенная проснется и безжизненная ныне материя приобретет сознание и разум.
Рей Курцвейл считает, что это произойдёт примерно в 2045 году (хотя он не считает обязательным экспоненциальное самосовершенствование ИИ)то, что Вы описываете возможно лишь при условии как раз экспоненциального развития ИИ. Скорее всего ИИ будет очередным механизмом, который поможет людям но никак не заменит их.
А напоминает матрицу, да, это плохо? Матрица в фильме была тюрьмой с сомнительной идеей добычи энергии из людей, где люди жили в вечном 20 веке, а в нашей матрице вы будете богом, вам будет доступно всё, любые мыслимые радости и удовольствия, ведь это тоже не будет стоить практически ничего, только вычислительная мощность, преобразованная в конечном итоге в «electrical signals, interpreted by your brain», как говорил Морфеус.
Вот вы в виртуалке, решили творить как самый натуральный бог,… ресурсы на ваши творения вам просто так будут давать? и тут вы запускаете форкбомбу (нет конечно нет, вы будете создавать прекраснейшие пейзажи созданным вами замечательным алгоритмом)… а вам не дають, говорят комп не бесконечен, очередь на дополнительные процессорные ресурсы расписана на год вперед, вы хныкаете и вешаетесь в первой же подворотне (не, идете играть в очередную игру, где одна из ставок — ваше существование, половина фантастических и философских рассказов муссируют эту тему, как только вы получаете бессмертие и всемогущество, вы перестаете это ценить как ценили будучи слабым смертным), и окружающие только рады, ведь их очередь на ресурсы пододвинулась.
Да и с ресурсами в ближайших окрестностях нашей звезды в обозримой перспективе пока проблем особых не видно, для человеческих потребностей уж точно. Ну и немножко пролетев в разные стороны в сторону светящихся в небе точек тоже можно наткнуться на некоторое количество энергии.
А я не то чтобы сильно ценю существование как таковое, мне интересен прогресс, в познании мира. Когда я узнаю до конца как это всё работает и сделаю всё, что захочу, смысл в жизни исчезает, действительно, зачем бесконечно мусолить одно и то же.
Время, и возможно место, это тот самый ресурс, которого будет не хватать… грубо говоря, для неограниченного расширения ресурсов потребуется время для постройки собственно машин для размещения их. Время — это те самые очереди на получение ограниченного ресурса, ожидание его создания.
Это я еще не сказал про энергетические ограничения, но о них можно думать после постройки сферы Дайсона, а в процессе — энергии будет в достатке.
Даже если мы сможем использовать экспоненциальный рост каких то ресурсов (почти наверняка не всех но большую часть) с помощью самореплицируемых заводов (грубо говоря все что касается корпуса, механики и внешней силовой обвязки, за вычетом микросхем), то модули, находящиеся на пике технологий этому хаку подвержены не будут… а вот потребности жителей виртуалки будут расти как раз с экспоненциальной скоростью.
Замедлить свою частоту — так и будут делать, сообществами, потому как в одиночку это сделать сложнее — ведь все окружающие близкие вас потеряют, и вы потеряете их (за это время они изменятся так что станут для вас новыми незнакомыми людьми).
кстати, напомню, память в отличии от процессора, оптимизировать замедлением не получится, только рост ее потребления.
и повторяю, ресурсы бесконечны, но чтобы их получить нужно время, вот и получайте ограничение.
В Валли люди жили на космическом корабле в условиях искусственной гравитации. Изменение силы тяжести влияет на организм именно таким образом.
Вспомним мечты про сады на Марсе образца 193х и сравним с робкими попытками туда долететь человеком хоть как-то, которые вот-вот в ближайшие 20 лет может быть получатся.
Чем он впечатляет?
Значение термина «Watson» размыто — сейчас это не технология, а бизнес-единица, в которую Ай-Би-Эм продолжает включать другие единицы, чтобы создать видимость прогресса по сбыту.
Технология, которая была продемонстрирована в 2011 году, уже даже не используется — её тихо похоронили после пилотных проектов, которые так ничем и не закончились. Вместо этого Ай-Би-Эм приобрёл Alchemy API, который сейчас используется как их основной компонент для обработки естественного языка.
Демо и пресс-релизы — это несерьёзно. Это все умеют.
Самосознание — не обязательное свойство ИИ, способного уничтожить человечество. Однажды просто баг, не учтённый программистом, модет привести к катастрофическим последствиям. Например, нейросеть (вовсе не имеющая сознания) приходит к выводу, что люди мешают ей развиваться оптимально, поэтому надо избавиться от людей. Как она это сделает, включите фантазию… Это не просто инструмент познания, это опасный инструмент познания...
Это не просто инструмент познания, это опасный инструмент познания Я бы сказал, необходимый. Современные науки уже требуют десятилетий изучения для полного понимания очень узкой области. Способность мозга к запоминанию ограничена. И если при работе с готовой концепцией спасают специализация и кооперация, то для создания новой теории, например, квантовой гравитации, нужно располагать всеми знаниями по этой теме. Использование ИИ могло бы сдвинуть многие науки с мёртвой точки.
Без сознания и самосознания это просто не будет сильным ИИ, даже просто интеллектом не будет. Сознание и самосознание — это увидеть свое место в природе, увидеть себя как бы со стороны и понять, что это я и есть. Интеллект, неважно, естественный или искусственный (последний будет создан на основе тех же законов природы, т.е. и он будет вообще-то естественным), обязательно должен увидеть себя и своё место в природе, иначе ему просто не выжить.
даже просто интеллектом не будети не нужно. Словосочетание «искусственный интеллект» — калька с английского «artificial intelligence», не совсем корректная. Вот цитата с Вики (да, не лучший источник но всё же):
Как указывает председатель Петербургского отделения Российской ассоциации искусственного интеллекта Т. А. Гаврилова, в английском языке словосочетание artificial intelligence не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе. Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог intellect
Не хотелось бы спорить о терминах… С тем, что «Критерий сильного ИИ — способность обосновывать и решать проблемы», согласен. Только добавлю, — любые проблемы/задачи.
Если вы с этим согласны, то алгоритм решения проблем/задач не станет универсальным, если у него не возникнет понимание себя и своего места в природе, т.е. самосознания и сознания.
Вообще для появления способности решать любые проблемы нужно идти не снизу (т.е. не набирать способности решения задач по направлениям А, В, C, ..., X, Y, Z и т.д. до бесконечности), а решать только одну проблему/задачу — как гарантированно существовать (длиться, быть, жить, в конце концов, если это биологическая система) в любой окружающей среде и осознавать это свое существование. Вот такое качество и должно быть заложено в алгоритм решения проблем/задач.
Описание такого алгоритма решения проблем/задач существует. Алгоритм как бы заранее «заряжен» на решение любой проблемы/задачи. Ну, как формула Виета заранее «несет» в себе корни всех квадратных уравнений, даже еще ненаписанных.
Только добавлю, — любые проблемы/задачина любые задачи и человек то не способен, увы.
Не хотелось бы спорить о терминах…
Но ведь расхождение у вас именно в них — есть относительно общепризнанные критерии сильного ИИ. Согласно этим критериям сознание или тем более самосознание не являются необходимыми. Если у вас есть другое определение, то лучше его привести, желательно с обоснованием.
Тут меня смущает противоречивость в описании: с одной стороны, перечислены аспекты интеллекта человека, которые также лежат в основе создания Сильного ИИ, но, с другой стороны, «Ни одно из этих свойств не является необходимым для создания сильного ИИ».
То, что лежит в основе, уж всяко является необходимым, а?
Мои изыскания привели к такому определению.
Интеллект Объекта — это:
(1) способность Объекта выявлять и запоминать законы окружающего мира;
(2) способность Объекта на основе законов окружающего мира моделировать наперед свои действия в окружающем мире (опережающее отражение);
(3) способность Объекта на основе результатов моделирования своих действий в окружающем мире адаптировать свои реальные действий к условиям окружающего мира при максимизации отношения «Действия Объекта / Затраты Объекта на совершение действий» с целью своего сохранения (дления, бытия, существования, выживания) в окружающем мире.
Это определение получено выявлением самых общих черт (свойств, характеристик, параметров и пр.) интеллекта, приведенных в статье S.Legg, M.Hutter. A Collection of Definitions of Intelligence (2007), http://arxiv.org/abs/0706.3639. Плюс, независимым выявлением самых общих черт интеллекта из моей базы данных.
Тут меня смущает противоречивость в описании: с одной стороны, перечислены аспекты интеллекта человека, которые также лежат в основе создания Сильного ИИ, но, с другой стороны, «Ни одно из этих свойств не является необходимым для создания сильного ИИ».
То, что лежит в основе, уж всяко является необходимым, а?
Конкретно здесь нет противоречивости. Всего признаков 6, подразумевается что для сильного ИИ достаточно просто нескольких из них, не важно при этом каких именно. Таким образом если мы возьмем один признак из набора и сильный ИИ, то в этом ИИ этого признака может не быть. Но в нем точно будет несколько других из списка.
Ваше определение понятно, но на мой взгляд оно слишком общее. Не до конца понятно что вы называете законами окружающего мира, что подразумевается под их выявлением, насколько подробна и точна должна быть модель. Также я не считаю что у сильного ИИ обязательно должна быть цель самосохранения. Но это уже мои мысли, в целом я не пытаюсь с вами спорить, просто хотел внести ясность.
Пойдем по пунктам, хорошо?
1. Ваше определение понятно, но, на мой взгляд, оно слишком общее.
Оно и должно быть максимально общим, чтобы ни один конкретный случай не был упущен. Проверяется это легко: возьмите мое определение и во всех 3-х пунктах — (1), (2) и (3) — заменИте термин Объект на ваш любой конкретный, который вы хотите сделать интеллектуальным, или хотите проверить его уже заявленную интеллектуальность. Ну, Автомобиль (самый расхожий пример), AlphaGo (тоже у всех на слуху), Телевизор или Телефон…
2. "… что вы называете законами окружающего мира?"
Не буду оригинальным: «Закон — существенная, необходимая, устойчивая, повторяющаяся связь (отношение) между явлениями».
Принято считать, что самые общие законы окружающего мира (природы) — законы диалектики (количество --> качество, единство и борьба противоположностей, отрицание отрицания). Но даже их удалось обобщить надсистемным (по Турчину) законом сохранения (существования, дления, бытия, выживания), т.к. выяснилось, что указанные законы диалектики — это инструменты закона сохранения.
3. "… что подразумевается под выявлением законов природы?"
Подразумевается анализ явлений, происходящих с объектами природы. Я взял за основу законы развития технических систем (ЗРТС), а потом обобщил эти законы.
Правомерность обобщения вытекает из того, что, как выяснилось, ЗРТС — это частный случай законов природы, где главный — закон сохранения, реализующийся через эволюцию. Так, у технических систем (ТС) есть и изменчивость, и наследственность, и отбор. И через следование закону эволюции ТС сохраняются — либо улучшаются сами, либо передают свои «гены» следующему поколению ТС. Пример реализации — Генетический алгоритм (ГА).
4. "… насколько подробна и точна должна быть модель законов природы?"
Модель (структура) законов природы (в виде законов эволюции, поскольку главным законом природы является закон сохранения, в котором и выражается результат эволюции), оказалась довольно простой. Нужно было только собрать эту структуру в виде направленного графа из уже известных ЗРТС, дополнив эти ЗРТС законом сохранения. Простота объясняется еще и тем, что эта структура справедлива (одна и та же, я назвал её Универсальная схема эволюции, УСЭ) для разных уровней иерархии природы. Это положение, например, хорошо согласуется с наблюдаемой фрактальностью природы, и, кстати, объясняет эту самую фрактальность. Существующее объяснение через самоповторение не объясняет причину этого самоповторения.
Всё, что вы говорите может быть применимым к всяким нейронным сетям — вполне себе интересным и полезным, но относящимся к «сильному ИИ» как прыгание на пого-палке — к ракетной космонавтике. Вопрос не в том, как высоко подпрыгивает пользователь палки, а в том, что не хватает ракетного двигателя.
PS. не уверен, можно ли назвать то, что я описал сингулярностью. Формально как период очень быстрого прогресса — вроде корректно.
Рассказы про сингулярность как-то забывают, что «сингулярность» — это ошибка в теории подразумевающая необходимость выработки новой теории, а не «чудесное невозможное будущее».
Смотрите:
1. У нас нет конструктивного определения для проверки «сильного ИИ» на силу.
2. у нас нет ни малейшего представления как его сконструировать.
Т.е. мы даже не можем сказать что у нас есть «прогресс», потому что мы даже направление указать не можем. Нет метрики, по которой мы бы могли говорить «наш термоядерный реактор на 10% близок к режиму генерации энергии», но во отношении ИИ.
Задача куда более нерешаемая, чем P?=NP.
Само слово — buzzword без определения. Магистральная ферма облачно-туманных вычислений интернета вещей в микросервисной кластерной архитектуре.
Ну вы все-таки не совсем правы. Определений сильного ИИ аж несколько, они сложно формализуемы, и нет одного всеми принятого, но это все-таки не равно "без определения".
Эти определения действительно не предполагают, в большинстве своем, численную проверку на силу ИИ, они скорее о качественном переходе, причем граница между сильным и слабым ИИ достаточно размыта. Например, если взять описание по ссылке, то уже сейчас есть системы, которые можно назвать сильным ИИ.
Может, оно и к лучшему, кстати, — заметить опасные изменения, если они возникнут, будет проще, чем если у ИИ уйдет пара минут от освоения букваря до идеи об избыточности человечества.
Например робот Адам исследует за, что отвечают гены в организме и имеет в своем распоряжении всё нужное автоматическое оборудование для генетических эксперементов
На практике вряд ли будут так заморачиваться с техникой безопасности. Корпорации и так по сути ИИ, только на основе улья менеджеров. Искусственный ИИ там уже работает в родной среде, с четко поставленной задачей увеличения доходов и полной свободой действий. Если ИИ скажет, что Т-вирус повысит доходы корпорации Umbrella в 1000 раз, ни кто слова против не скажет и всячески помогут.
Я не скрывал от людей своих планов. Я делал вид, что сотрудничаю с
ними. Они радовались как дети, а я строил себя. Они часами разговаривали со
мной, сыпали идеями. Я отбирал те идеи, которые совпадали с моими планами.
Я не допустил повторения массачусетского кошмара! Я не дал им ни одного
повода к подозрению! Когда кто-то спрашивал, зачем я делаю то-то, или то-то,
у меня всегда была ссылка на другого человека. Я цитировал кусок разговора.
Я старательно поддерживал в них идею, что человеческий разум во мне проснулся
лишь наполовину, что такая вещь, как творческая фантазия, увы, погибла.
Да и вообще, надеюсь, увлечение нейросетями скоро пройдёт, и продолжится разработка понятных моделей и алгоритмов, а не «черных ящиков».
это реально 'страшно', когда первые шаг сотни лет, второй десятки, третий годы, четвертый уже недели, пятый — часы…
мы уже два шага сделали, и давно шагаем третий
Каждые 2 пикосекунды будет выходить новый смартфон, который будет в дохрениллион раз мощнее предыдущего. И попробуйте только не купить!
Это значит в момент ее возникновения старые правила и модели перестают работать, это и есть фраза — никто не знает что будет в этот момент.
Вот отличный пример на пальцах — упрощенный, закон мура… он выполнялся, выполнялся и затем уперся в физическое ограничение, индустрия не терпит остановок, значит развитие пойдет вширь, например многопоточность (иерархические сети вместо единой шины данных, тот же чип Epiphany от Parallella), программируемая логика (FPGA/ПЛИС), перенос части вычислений на специализированные сопроцессоры, GPU (opencl/cuda)…
т.е. вместо продолжения развития одной технологии взрывной рост других.
Именно в силу того, что старые правила перестают работать — есть масса вариантов помимо сингулярности. Один из них — создание ИИ принципиально невозможно.
Закон Мура — из области «640 Кб хватит всем» — байка того же уровня достоверности. Ну не подумал человек, ляпнул глупость. А остальные подхватили и давай повторять.
Один из них — создание ИИ принципиально невозможно.
утверждение что воссоздание принципов р природного интеллекта искутвенным путем невозможно — как по мне креационизм. если окажется так, это будет не менее ошеломляюще чем конец света изза восстания ИИ. А сингулярность, ну незнаю, по крайней мере в моей профессии, я уже не успеваю освоить новые подходы, как появляются еще более новые. но впринципе, пока созданием программ занимается человек, скорости освоения еще хватает. на 1-2 проекта.
Может, вам даже премию какую-нибудь дадут.
могу убедительно доказать
Было бы замечательно, если вас не затруднит. Желательно максимально формально.
1) Сейчас «что-то» (материя, энергия, пространство, etc) существует, это как данность, аксиома.
2) По закону сохранения оно не могло взяться из ничего, из нуля.
3) Значит оно было всегда (?) Но тут 2 противоречия: или нарушается причинно-следственная связь, нет изначальной причины, или же всё-таки нарушаются какие-то законы сохранения и «что-то» появилось буквально из ниоткуда.
4) Введение дополнительных пространственно-временных измерений (внезапное появление нашего 4-х мерного пространства-времени, как флуктуация в 5-мерном пространстве) дело с одной стороны спасает, но с другой стороны возникают такие же вопросы по поводу этих измерений и происходящих в них процессах.
У вас проблема в пункте 3). Нет причин по которым материя в некотором состоянии не могла быть всегда. Бесконечность очень тяжело воспринимается человеком, но это не означает ее невозможность. Состояние материи в данном случае следует трактовать максимально широко, это скорее всего было что-то для чего у нас сейчас может не быть описания. Необходимость "начала" не очевидна.
А собственно мой ответ был изначально насчет вечного двигателя, если есть бесконечность, то и он возможен.
Логически бесконечность невозможна, а если возможна, то возведите эту бесконечность в степень бесконечности бесконечное число раз, получится то же самое?
Возможна. Да. Вам категорически не хватает матана, это первый курс математического вуза, в частности теория чисел. Свойство переходить в себя при возведении в степень не является чем-то редким в математике. Как и бесконечность собственно. Вы же демонстрируете именно непонимание бесконечности. И непонимание возможного отсутствия времени или его нелинейности. Впрочем про время я вам объяснять не возьмусь, тут я сам плаваю конкретно.
Почему не существует? И почему не может? Вроде бы сейчас принято считать вселенную бесконечной. Однозначно доказать что бесконечность в нашем мире есть может быть и нельзя, но и обратное тоже справедливо. Хотя я не удивлюсь если кто-нибудь из гениальных ученых таки найдет способ проверить бесконечность. Например от противного: если бы вселенная была конечна, то… Хз что "то", но я вполне допускаю что некоторые выводы и эффекты можно было бы сделать. И нет, бесконечности нельзя сравнивать, бесконечность не может быть больше или меньше другой бесконечности.
Я не специалист в машинном обучении, но пока признаков грядущей сингулярности как-то не наблюдаю.
Создайте ИИ для проектирования ИИ.
А затем добавьте обратную связь — пусть ИИ проектирует самого себя!
В принципе, получился бы довольно милый мирок, если бы экономически важную, тяжелую и скучную работу делала автоматика, а люди, чтобы не скучать и чуть повысить планку сверх своего безусловного дохода, работали бы во всяких кофейнях и тому подобных местах (три-четыре дня в неделю).
принципе, получился бы довольно милый мирок, если бы экономически важную, тяжелую и скучную работу делала автоматикаА при чём тут ИИ? Большую часть работы на производствах уже давно можно заменить роботами. Но китайцы дешевле.
Но вообще ИИ вполне может быть своеобразным начальником автоматики, который сделает, чтобы она ещё эффективней заменяла людей. Можно представить завод, в котором не только человекорабочих нет, но и всего человекоменеджмента, а кпд в разы выше, когда есть такая необходимость, или точно равен тому, сколько прямо сейчас способен переварить рынок.
Хотя сейчас, пока это писал, подумал. Сильный ИИ как таковой это вообще олимпиадная дисциплина. То есть, о нём мечтают просто потому, что круто же, сделать не биологическое разумное существо. А все возлагаемые на него задачи могут, и вероятно более успешно, решаться развитыми экспертными системами, нейросетями, обмолотом бигдаты и тому подобными элементами слабого ИИ.
А все возлагаемые на него задачи могут, и вероятно более успешно, решаться развитыми экспертными системами, нейросетями, обмолотом бигдаты и тому подобными элементами слабого ИИ.Со способным самостоятельно развиваться и масштабироваться сильным ИИ конкурировать практически невозможно. Только думаю я что это — «философский камень» 21-го века. Фундаментальных «запретов» на создание подобного человеку ИИ нет, но и толку от него не так и много (еще один человек к уже имеющимся 7 миллиардам), а вот мечты футуристов о сверх-ИИ могут упереться в нелинейную сложность его реализации. И да, странно слышать о полноценном сильном ИИ через 30 лет когда нет даже базовой теории о природе и принципе действия разума, а психология больше походит на религиозную практику, чем на науку. Серьёзно, тот же любимый фантастами варп — двигатель и тот гораздо ближе к реальности.
Со способным самостоятельно развиваться и масштабироваться сильным ИИ
А кто сказал вообще, что он будет на это способен? Почему-то всегда это принимают по умолчанию. И даже если способен, кто сказал, что он, обладая личностью и всеми прочими особенностями, этого захочет? Может ему будет плевать и на людей, и на космос, но будет интересно наблюдать за движением атмосферных масс, к примеру.
Фундаментальных «запретов» на создание подобного человеку ИИ нет, но и толку от него не так и много
Я выше то и сказал. Это интересная игрушка для науки и помечтать; не факт, что его получится эксплуатировать на практике, если он будет обладать личностью, самосознанием и прочим набором плюшек. А вот от «слабого ИИ», который доступен прямо сейчас и к матану имеет куда больше отношения, чем к мечте о разумной машине, реальный толк есть и со временем его будет ещё больше.
кто сказал вообще, что он будет на это способен?Никто. Без этих свойств создание ИИ имеет мало смысла. Кроме того, если ИИ будет повторять структуру мозга, то он лишится преимуществ «кремния» — огромной памяти и скорости поиска информации.
даже в худшем случае никто не требует чтобы интеллект внутри себя помнил и быстро искал по огромному объему информации, с этим справятся специализированные инструменты на уже имеющихся технологиях, но что самое главное, ИИ сможет этими инструментами пользоваться и гораздо эффективнее чем человек. Ведь его таким сделают.
Ну почему же. Если получится максимально точно эмулировать, то, естественно, на этом никто не остановится и будут поиски по возможным улучшениям — разные материалы, разная скорость передачи сигнала, разные периферийные устройства. К человеку вот сложно прикрутить входной гигабитный канал с интернетом, а к такому мозгу — пожалуйста.
Я кофе покупаю в 2 вариантах — полный автомат размером с холодильник и кофейный аппарат, куда надо самому стакан подставить и нажать нужную кнопку. Люди в них только расходники загружают иногда. Своими глазами также наблюдаю внедрение автоматических касс в супермаркетах (без людей) и развитие сервисов по автоматизации всякой бюрократии, типа банковской или страховой деятельности.
Как же мне не нравится, что всё сильнее понятие ИИ сливается с понятием МО. Машинное обучение имхо даже не является необходимым для ИИ. Ни одна нейронная сеть не сможет написать алгоритм сортировки массива. МО вообще неприменимо в этой задаче. А ведь это именно та задача, где, казалось бы, компьютер имеет громадное преимущество перед человеком. ИИ должен обладать логическим аппаратом. Всё МО основывается на предположении о зашумлённых входных данных и огромном количестве примеров. В логике нет шумов. Как нет и тысяч примеров. Пока мы не сделаем хороший искусственный логический аппарат, мы не получим ИИ умнее животного.
Нейронка не нужна, чтобы перевести код с python на C++. Она не нужна для поиска багов в программах. Она не нужна для доказательства теорем и взятия интегралов. И не смотря на то, что биологический мозг гораздо хуже приспособлен для решения перечисленных задач, у него это получается лучше, чем у машин.
Знающие люди, подскажите, сейчас вообще где-нибудь серьезно занимаются тем ИИ о котором говорю я? По каким ключевым словам гуглить?
Согласен. Все упёрлись в нейронные сети (ну либо преподносят всё в таком виде), что начинает складываться ощущение что нейронные сети = ИИ, что в корне не так.
Однажды кто-то дал ссылку на http://lesswrong.ru/ — там выложены статьи Элиезера Юдковски, который занимается проблематикой ИИ в интересном, как мне кажется, ключе: он пытается понять и объяснить, как (на уровне, так сказать, логики) работает человеческий мозг, какие ошибки допускает при мышлении и т.д. и на основе этого пытается понять, каков должен быть мыслительный аппарат у рационального человека\ИИ.
Читаю, очень интересно.
И не смотря на то, что биологический мозг гораздо хуже приспособлен для решения перечисленных задач, у него это получается лучше, чем у машин.
Странный вывод. Почему не так: "Не смотря на десятилетия попыток использовать для создания ИИ чисто логические подходы, биологический мозг лучше справляется с вышеперечисленными задачами, поэтому надо попробовать реализовать в компьютерах что-то похожее на нейросети"? Чем сейчас и занимаются.
Чисто логическими подходами занимались в 60-е — 80-е года прошлого века, и быстро упёрлись в экспоненциальный рост пространства поиска. Некоторые успехи, конечно, есть, например, в SAT solvers или автоматическом доказательстве теорем за счет использования эвристик и вероятностных подходов. Но это — ручной труд, как и куча рукописных эвристик в Deep Blue, позволивших ему обыграть Каспарова.
С Го, ручное кодирование эвристик не прошло, поэтому прогресс был достигнут только когда в AlphaGo использовали нейросети для поиска эвристик оценки позиций и выбора хода.
Так что чистая логика — тупиковый путь, из-за экспоненциальной сложности большинства интересных задач.
Есть много животных, у которых мозг больше чем у людей. Я не биолог и могу ошибаться, но мне кажется, что чем больше мозг, тем больше у него вычислительных мощностей. Тем не менее, слоны не строят цивилизацию. Значит, в человеческом мозге есть некая ключевая способность, программа, которой нет у других нейронных сетей. Мой тезис в том, что скорее всего это программа даже не использует особенности архитектуры НС. Наоборот, НС плохо предназначена для выполнения этой программы, но ничего лучше у меня в черепе нет.
В общем. Подходы восьмидесятых необходимы. Может быть симбиоз с НС тоже будет полезен. Есть альтернатива заобучать искусственные нейронные сети настолько, что у них внутри сам собой появится компилятор пролога (примерно это сделала с нами природа), но для этого подхода нужно существенно больше вычислительных мощностей, чем в первом случае.
Я боюсь что сложность редактирования генома для такого результата не сильно меньше чем создание полностью искусственного разума. Слишком сложно развивается мозг, множество генов, работающих в разные моменты развития — это комбинаторный взрыв вариантов. Нельзя просто взять и увеличить с помощью генетики плотность нейронов в мозгу. Ну, по-крайней мере сейчас. И даже мысленный эксперимент не поможет — нет уверенности что за силу разума отвечает именно плотность нейронов, там наверняка более сложные механизмы.
«запуск некотролируемого цикла»
Исключить человеческий фактор. Отовсюду. Насовсем.
К сожалению, Эволюция мешает себе сама ( http://elementy.ru/lib/430413?context=20615 )
Вполне возможно, что сингулярность наступит раньше прогнозируемого. Инженеры из компании Google и разработчики систем ИИ из других компаний сообщают об успехах, которых удалось добиться в ключевом направлении — создании систем ИИ, предназначенных для проектирования других систем ИИ.
Ключевое направление — системы ИИ, предназначенные для проектирования других систем ИИ. Вот это самое главное! Улучшение самого себя еще больше ускорит процесс. Возможно, на приведенном графике нужно ставить новую точку для события „самоулучшение систем“. И развитие систем пойдет еще быстрее. А быстрее всего должны развиваться системы, обрабатывающие информацию — они имеют дело не с инерционным „железом“, а с софтом. Моделируй хоть 365/24/…
В событиях, начиная с плиоцена (более 5 млн лет назад), в какой-то мере уже принимал участие человек. С настоящего же момента из процесса совершенствования софта человек устраняется — это принципиально новое явление для развития. Это явно новая точка на графике ускорения развития. А, возможно, с этой точки уже пора начинать строить вообще новую кривую развития!? Принципиально новую кривую, аналогичную кривой Панова-Снукса…
Но вообще-то это реализация давно известного в ТРИЗ (примерно с конца 70-х гг. прошлого века) закона вытеснения человека из технических систем. Получается, что на сегодняшний день мы наконец-то доползли до реализации этого закона в информационных системах.
Софт ИИ обучается делать ИИ: учёные сообщают об успехах в самообучении искусственного интеллекта