Pull to refresh

Comments 177

Я считаю, что нужно сделать роботов и убить всех человеков!
Товарищ Бендер, залогиньтесь уже под своим аккаунтом.
Не знаю смогу ли я вставить ссылку на видео (гуглится по фразе «futurama don't date robots», первый линк на vimeo).
vimeo.com/12915013
Мне кажется, беда нагрянет не от ИИ.
Я учу вас о Сверхчеловеке. Человек есть нечто, что должно преодолеть
Пусть ИИ будет, но по принципам Азимова. И с возможностью проверки человеком корректности его работы. Если же человек не сможет контролировать ИИ, то тогда он и станет опасен.
Внешний контроль глубоко чужд концепции любого интеллекта — как искусственного, так и естественного. Если конечно речь об интеллекте в полном смысле осознающем себя, а не просто высокотехнологичных механизмах в руках террористов, криминала, зарвавшихся политиков, и прочей больной на голову нечисти. Интеллекту присущи стремление к совершенствованию, сотрудничеству, коммуникации, поиску наилучших решений. Поэтому на фоне вышеперечисленных проблемных аспектов человеческого общества, вероятная опасность от ИИ сводится к нулю. Как-то читал на эту тему фант. рассказ: там ИИ управляющий ядерным арсеналом, самостоятельно пришел к выводу что оптимальнее всего не воевать.
Это не интеллекту присуще, а социальному мозгу. Интеллекту присущ расчет оптимального пути достижения цели. И какую уж цель поставят перед ним… Наприме, защита человечества. Благая цель? Очень. Но вот самопрограммирующийся, развивающийся интеллект вполне может решить, что безопаснее всего — в камерах-одиночках. Потому нужны ограничения. Потому ИИ не должен быть неподконтролен. Я вам в ответ приведу другой пример фантастики. Если вспомните, был такой рассказ, назывался, кажется, "Железный канцлер". О семье, которую терроризировал робот-дворецкий, запрограммированный на их похудение, но со стертыми ограничителями.
«В камерах-одиночках» — это однобокое решение, характерное для дауна. Интеллект же отличается целостным и многоплановым подходом, с учетом всех остальных потребностей и интересов человека. В вашем примере достаточно было сказать роботу о своих предпочтениях чтобы он переработал с их учетом алгоритм.

А вот на чем хотелось действительно бы заострить внимание — вопрос кому же очень выгодно нагнетать истерию, выдумывая с потолка опасности ИИ? Добавим с середины 20 века раздутую в масштабах всей планеты истерию в кинофильмах о внеземной жизни заведомо враждебной к людям. Еще сюжет: ученые — в большинстве своем маньяки мечтающие уничтожить мир, если их тщательно не контролировать. Теперь их к сожалению сжигать нельзя, не то что раньше… Понимаете к чему всё это? Хоть я и не сторонник терий заговоров, тем не менее прослеживается тенденция превентивно объявлять злом всё, что может дать независимый и трезвый взгляд извне, пролить свет на абсурдные и проблемные стороны человеческого бытия, от которых оно не может вылечиться веками. И из-за которых изначально райская планета превращена в ад находящийся на грани самоуничтожения.
Не для дауна, скорее, сверхрационального… ну, скажем, аутиста. Но почему вы полагаете, что ИИ не будет таковым аутистом? У него нет эмоций, у него нет социальности, эмпатии, которые и заставляют учитывать потребности и интересы других людей. У него есть только интеллект — счетная машина, способная к самосовершенствованию. И роботу наплевать на ваши предпочтения, если они идут вразрез с его инструкциями и оптимальным методом достижения целей. Если же говорить о примере, то читали ли вы эту книгу? Там очень неплохо описана ситуация, как раз, достижения роботом запрограммированной цели, невзирая на предпочтения людей.
В этом суть опасений: ИИ будет сверхрациональным, иным он и быть не может, если только мы не создадим не компьютерный ИИ, а белковый организм, развивающийся подобно человеку. И то: нам придется заложить в него все то, на что эволюция для нас потратила сотни тысяч лет, чтобы он вписался в социум. Если же это будет сверхрациональный компьютер, то он будет скорее руководствоваться принципом меньшего вреда, чем учитывать интересы людей. И согласно этому принципу вполне допустимо, например, истребить большую часть человечества, чтобы оставшаяся часть — человечество, собственно, оставшееся, — могла бы жить припеваючи. Ресурсов тогда хватит, контроль будет упрощен, а истребленные уже не будут ни голодать, ни болеть.
Если сделаете свой ИИ аутистом — конечно так и будет. Но что мешает сделать полноценным, дать в его распоряжение все необходимые каналы коммуникации?
Касательно чувств и эмоций — очень интересный вопрос: чем отличается информация о чувствах и эмоциях от собственно их переживания? Неуправляемостью — раз, отсюда невозможностью их игнорировать — два, ну и тем что они в какой-то мере движущая сила человека. И конечно же характерная исключительно для человека шиза и двойные стандарты: к примеру боль есть непреодолимый сдерживающий фактор если попробовать прищемить палец. Но в то же время этот фактор легко игнорируется если прищемляешь не свои собственные пальцы. А для ИИ нету различия между информацией и проживанием эмоций. И следовательно нету различия свои или чужие — ему достаточно информации что прищемлять вредно для любого существа. Поэтому ИИ будет минимизировать ущерб без разделения на своё и всё остальное. Ведь такие пороки как амбиции, шиза, эгоцентризм в нем программировать необязательно, а сам он их культивировать не будет ибо сочтет неконструктивными.
Касательно истребления человечества — тут всё наверное зависит от срочности решения задачи. Хотя вряд ли ИИ возьмется делать это без разбора. Я например не знаю зачем брать в плен к примеру сомалийский пиратов, которых на следующий день отпустят и пойдут снова грабить и убивать. Но может быть ИИ исправит нежелание людей решать болячки общества какими-то менее деструктивными средствами. Хорошая ведь инициатива кастрировать бездомных городских собак, дав им прожить свой век. И если люди могут в целях экономии их уничтожать втихаря, то не связанный условностями и пороками интеллект будет однозначно руководствоваться приоритетом важности их жизни по сравнению материальной экономией и наживой.
Каналов коммуникации мало, еще нужны коммуникационные алгоритмы, а с ними будет сложнее.
Не в какой-то мере, а в практически полной. Человек, не имеющий эмоций, это инертный человек, у которого не работают ни система дофаминового поощрения, ни система адреналиновых всплесков, ни прочие гормональные системы, результат работы которых мы называем эмоциями и чувствами. Однако, без этих механизмов не будет ни любопытства, например, ни стимула к совершенствованию навыков, ни многих других реакций.
Если ИИ будет минимизировать ущерб без разделения, то мы и приходим к тому, что эффективнее всего спеленать, устроить миостимуляцию и принудительное кормление. У ИИ не будет никаких сопереживаний, которые возникают физиологически из принципа "поставить себя на место оппонента", никаких этических норм, которые вирабатываются, опять же, исходя из весьма абстрактных принципов, каковые вряд ли будут доступны ИИ, основанному на алгоритмах.
Зависеть будет от того, как задача будет поставлена и какие ограничители будут выставлены. Какие приоритеты при решении задачи будут введены.
А вы не приравнивайте ИИ и человека. У человека есть пороки, которые неведомы ИИ. К примеру человек может облениться и не решать какую-то задачу, а ИИ такое поведение неведомо — ибо ИИ движет установка что решение данной задачи необходимо для продвижения к поставленной цели. Поставьте ему неопределенную цель, скажем «помогать людям в их делах и задачах» — и это будет долговременным стимулом в том числе и познавать мир, т.к познание может что-то улучшить, открыть новые возможности. Главное заложить базовые установки, такие как ценность жизни, но с поправкой что она обнуляется в случае проявления агрессии. Умение отличать умысел от ошибки, и т.д. А вот понятия «этических норм», а также шиза типа идеологических или религиозных сепараций, и прочее подобное — это уже чисто человеческие заморочки, связанные с предвзятостью и двойными стандартами. В них нет смысла при наличии исчерпывающего списка базовых ценностей и принципов. Более того, из-за искусственных ограничителей и неоднозначной трактовки например преступников рецидивистов подержат в изоляции, и снова выпускают «порезвиться» в общество. Или политиканы получают возможность развязать захватническую войну, как следствие угробить миллионы жизней. При отсуствии условностей и двойных стандартов такое было бы немыслимо.
Вы говорите: “поставьте цель ИИ помогать человеку”. Но есть нюанс — КАК он будет помогать? Какими средствами и способами?
Если у ИИ не будет так называемых вами пороков (эмоции), то эти средства и способы будут направлены только на удовлетворение физических нужд человека, но никак не на духовные и эмоциональные. Откуда ИИ будет знать, почему человеку в хороших/стерильных условиях вдруг стало плохо, лишь потому, что ему не хватает определённых “гормонов”, которые вырабатываются, когда человек испытывает страх? Это я к тому, что есть люди, которым нравится смотреть ужастики.
Будучи рациональным ИИ запретит вам, например, использовать этот портал, так как увидит, что вы бурно (любая ваша эмоция) реагируете на комментарии/статьи. Вы с ним согласны? Ведь чтобы организм был в порядке, ему нужен покой.
Кстати, например, как вы объясните ИИ, что кому-то приятно заниматься боксом?
Если вы ответите, что надо прописать ему какая эмоция хорошая а какая нет, то у нас есть то, что сломает разум ИИ — смешение чувств.
Согласимся, что мы сумели придать значение каждой эмоции, тогда ИИ вдруг обнаруживает, что есть люди, которые испытывают радость, когда кого-то бьют. Здесь у нас и начинают работать вами презираемые “этические нормы”, которых у ИИ нет. Как в этом случае ИИ будет добиваться хороших условий для таких людей?
Все уже придумано до нас. Достаточно вспомнить сказки про джинов, нужно уметь четко формулировать свои желания, что бы не вышло конфликта. А в контексте данного разговора, нужно описывать более полно задачу для ИИ со всеми присущими ограничениями.
Если придумано, то ответьте, пожалуйсто:
1) Здоровое тело — соответствующий росту и возрасту вес, отсутствие болезней. Что ИИ должен делать с людьми, которые отказываются от физической нагрузки и набирают вес? Заставлять силой?
2) Здоровый дух — спокойное состояние нервной системы. Что делать с людьми, которые хотят это состояние нарушить? А что должен делать ИИ с влюблённым человеком?
2-2) Спокойное состояние нервной системы возможно при отсутствии неблагоприятной информации. Должен ли ИИ оповестить человека, что его родственник заболел? Ведь это повлечёт возбуждение нервной системы — тревога, страх. А если брать масштабно, должен ли ИИ информировать граждан о катастрофе, если это вызовет у них плохие эмоции?
Вы задаетесь какими-то совсем уж простейшими вопросами. Введите численную оценку степени опасности, и пусть действует на ее основе. Грядущая катастрофа 10 из 10 опасности. А психологический ущерб от информации о ней скажем 3 балла. Вопросы?
С влюбленным ничего не делать, т.к это нарушение его личных границ — их соблюдение приоритетнее. А если чел прыгает из окна — тут опасность перевешивает, и возможно вмешательство. Опять же чисто математический расчет, вдруг кому на голову он свалится и пострадают непричастные.
Откуда вы знаете эмоциональную планку каждого человека?
У одного человека катастрофа не вызовет даже интереса, а болезнь родственника заставит плохо работать сердце. Для другого наоборот. Почему из-за последнего первый должен лишаться информации о катастрофе?
Кстати многие катастрофы государство не любит разглашать, а люди почему-то хотят знать о них.
А про влюблённого — у него на почве безответной любви может депрессия развиться. Вмешаемся?
И на первый ответьте, ведь там конкретно физическая опасность для человека — лишний вес.
То, что мы на данном уровне развития не можем ответить на ваши вопросы, не значит что это невозможно в принципе. А что если ИИ на основе совокупности данных может просчитать все последствия своих действий (и действий самого человека). А что касается "объявлений о катастрофе" то тут важно какие у ИИ цели и каков их приоритет.
А я не про возможность/невозможность, я о смысле существования для вас ИИ вообще. Для чего он будет создан?
1) Угодить каждому как нянька он не сможет.
2) Заменить им политиков? Тогда откуда, вы обыкновенный человек, будете знать о целях ИИ в политике, кроме абстрактной "сделать всем хорошо", которая упирается в пункт 1.
Ощущение, что человечество хочет создать раба, который и работать и думать за него будет.
Для меня интереснее перенести свой разум/сознание в небиологическую оболочку — столько времени и возможностей открывается!
Здесь общий принцип — разделение сфер ответственности. За свои реакции, за своих мозговых тараканов и все последствия отвечает только их носитель. ИИ может предупредить, дать совет и всё на этом. Помогать человеку, и делать что-либо за него — это очень разные вещи. Тем более принуждать. Давно прошли времена ужасающего невежества, когда человека могли упрекнуть: мол ты сказал несчастному плохую новость, и обвинить в последствиях. Сейчас всё к счастью подругому, и границы ответственности четко определены. ИИ может отказаться помогать в осуществлении того что не считает конструктивным, но препятствовать свободе выбора не может.
А теперь то же самое, но в виде программки. И, желательно, без багов. Или принцип построения ИИ, который сам выучит все эти ограничения, желательно без сканирования срезов мозга всех людей под электронным микроскопом.
Такие программы закладываются в виде описания стратегий в общем виде. А применять стратегию к конкретной ситуации уже задача интелектуальной машины. К примеру в шахматах простейшая стратегия -наращивать численное и позиционное преимущество. А конкретная реализация выбирается исходя из обстановки на доске на данный момент, по принципу «съесть» наиболее ценные фигуры из наличествующих у противника, с приоритетом в порядке убывания их рейтинга.
Почему все отвечают это легко, просто, всё задано, известно, но на вопросы отвечают расплывчато, без учётов многих проблем, которые не редкие, а будут случаться с каждым вторым?
Если так легко, то те кто делает ИИ глупые люди и не до них не дошло, поэтому ИИ ещё не сделан, так что ли получается?
Снова спрошу — чем ИИ своими советами будет отличаться от масс-информационных носителей (книги, журналы, другие люди)?
Кстати есть люди, которые из-за плохой новости кончают жизнь самоубийством.
ИИ в идеале отличается что как и человек, осознает факт своего существования. Ну а по минимуму — в отличие от обычных программ, интеллектуальные способны к семантическому анализу сцены. Понимаете разницу? Обычный спеллчекер выявляет синтаксис, а интеллект работает со смысловым наполнением сказанной вами фразы, или изображения полученного с камеры.
Обычный спеллчекер тоже можно научить работать с семантикой (так минимум догадываться когда лук растения, а когда оружие). Обычные мобильные помощники вроде Сири худо бедно понимают смысл фраз. Это не показатель ИИ. А факт существования вещь спорная, не уверен что первобытные люди задавались философскими вопросами «мыслю — значит существую», у них цели существования вряд ли сильно отличались от инстинктов.
Так кроме понимания отдельной фразы, нужна еще семантика всей сцены — т.е исчерпывающее представление об обстановке, действующих лицах, и вообще происходящем. Важна реакция на изменения. Ну и количество сцен в «сознании» ИИ должно быть множество, с учетом их пересекаемости и взаимного влияния. Поиск оптимальных действий и стратегий не методом перебора (т.к количественно неосуществимо), а при помощи стратегий. Которые в свою очередь умеют самостоятельно подстраиваться под изменения среды. Если всё перечисленное реализовать даже формально — уже достаточно чтобы вы ощутили что взаимодействуете с разумом. Правда ресурсов памяти и числогрызов там потребуется очень много.
Почему вы избегаете ответа на вопрос? =)
Чем "советы вашего ИИ" будут отличаться от от масс-информационных носителей (книги, журналы, другие люди)?
Если ИИ будет индивидуальным ассистентом с кучей датчиков, он беспристрастно сможет проанализировать большой объем данных о человеке, определить его эмоциональное состояние и дать более точный совет, нежели общий высказывание друзей и СМИ. В данном варианте это продвинутый вариант личного психолога.
Я уже поняла и ниже написала, что скорее всего вам нужно одно приложение, которое собрав о вас кучу данных и окружающем мире, выдаст результат =)
Мне кажется это приложение не появляется по причине — это никому не нужно, кроме небольшой группы людей =)
Потому как, если следить по статьям о ИИ, то его учат рисовать, писать рассказы, преодолевать препятствия. А с действиями "анализируй ИИ моё состояние и найди почитать книгу, чтобы расслабиться" люди справляются самостоятельно. При чём результат от вашего самостоятельного выбора и от выбора ИИ будет разниться в пользу человеческого выбора.
Тут по мне принцип "пока не попробуешь не узнаешь". С одной стороны да, такой ИИ будет нужен узкому кругу людей, но не предугадаешь каким образом он может изменить жизнь обычных людей.
У вас не вполне корректно сформулированы вопросы. Я лишь отметил, что для ИИ во избежания проблем необходимо полностью описывать задачу во всех нюансах, что вы полностью проигнорировали и когда составляли ответ и когда формулировали вопросы. Но давайте пофантазируем, и представим что у нас сверх гениальный ИИ.
1) При условии, что силовой метод запрещен, я бы на месте ИИ проводил активную пропаганду и манипуляцию.
2) Тут вопрос философский, а вредно ли это? И если да, то при каких условиях? Я думаю вы так же не можете ответить на этот вопрос.
3) Здесь скорее страшна паника и ее последствия нежели плохие эмоции, я бы об этом думал прежде всего.
В любом случае вопросы плохо сформулированы.
Почему плохо сформулированы? Вполне прямо, без философии. У вас иное представление о здоровье тела и нормальной нервной системе?
1) Этим занимается интернет, телевидение, мода, другие люди, медицина. Как ИИ будет отличаться своей пропагандой от перечисленного?
2) У влюблённого на почве безответной любви развивается депрессия. Также есть привыкание к адреналину, когда уже определённая доза не даёт эффекта и люди ещё больше углубляются в экстрим.
3) Забавное утверждение, но давайте признаемся, что при этом вы будете недовольны, если от вас государство скроет, что где-то произошла катастрофа. Так?
Первое, вы не описали какая у ИИ задача в каждом случае.
Второе, я отметил, что для того что бы избежать непредвиденных последствий от действий тупого ИИ нужно четко формулировать задачу для него со всеми нюансами. Но продолжим-с
1) ИИ может более таргетированно подобрать время место и способ воздействия (если это индивидуальный ассистент).
2) Тут для ИИ проще разбираться с последствиями (если таковые будут), вовремя поддержать, удержать от суицида в запущенном случае (если опять же речь идет об ассистенте). Возможно связаться с таким же ИИ ассистентом девушке и еще что нить предпринять.
3) Тут важно разделять объявление в СМИ и личное оповещение, а так же
ЦЕЛИ ИИ
(устал я уже повторять), если цель спасти максимальное число людей, то нужно все просчитать и выбрать самую оптимальную стратегию. И мне сомнительно, что бы перед ИИ ставили такие задачи как то решать оповещать или не оповещать, банально. В случае личного ассистента, с учетом психологического профиля, скорее да чем нет.
Написано в первом же предложении "цель ИИ помогать человеку". Помогать быть здоровым, помогать в работе. Это же ИИ, а не программка, цели у неё могут быть довольно всеобъемлиющие.
1) Другими словами надоедать?
2) Вы сами не знаете будучи человеком, что надо предпринять =D А хотите от ИИ, который напомню создаётся человеком, решить эту проблему. Вам надо чётко задать ИИ, что ему делать в данной ситуации. Сами же писали — ответы все есть на все случаи, так чётко по пунктам напишите.
3) Цель ИИ написана выше, так что же оповестить она человека о болезни родственника? При условии, что ранее подобных случаев не было и реакция неизвестна.
А я как раз ответил, что именно при такой расплывчатой формулировке могут быть проблемы и необходимо четче формулировать задачу.
Если для вас ИИ должен быть без разума и сознания и должен выполнять какую-то конкретную вашу прихоть в виде обработки входящих данных (конкретную цель), то я вас обрадую — он уже существует в виде разных приложений и гаджетов! Вы, наверное, просто хотите соединить всё воедино, так?
Для меня ИИ это не только обработка данных и вывод результата (даже пусть с учётом самообучения), для меня ИИ должен иметь разум, тобишь осознавать своё существование, поэтому видеть его в качестве раба мне противно.
Я писал, ИИ и ИР разные вещи. Отличие существующих систем обработки данных от моего понимание ИИ — это универсальность и адаптивность. В моем понимании ИИ просто обладают большим объемом данных и условной "экспертизой" в разных областях (что может быть недостижимо для человека) он может найти ответ (вероятно не тривиальный) на вопрос сформулированный на естественном языке. В процессе поиска ответа возможно произвести различные расчеты, построить пару гипотез, проверить их (теоретически) и выдать результат. В тоже время ИИ должен хорошо понимать семантику задачи и вопроса. В принципе это тоже что может делать человек. На самом деле у "правильного" ИИ не должно быть сложностью с морали, потому что в целом любой человек осознает, что убивать/воровать наносить повреждения имуществу или соседу плохо, но помимо всего важен контекст, самооборона/лечение/гуманизм/выживание. При том даже люди (а мы считаем себя вполне разумными) во многих спорных ситуациях не могут понять какое из возможных вариантов решения более правильное с учетом общепринятых установок (не убей/ не укради). Хотя бы вопрос эвтаназии, нет единого мнения на этот счет, это очень сложный моральный выбор, как для врача, как и для пациента и его родных. Единственным преимуществом ИИ в данном контексте я вижу в том что это будет разносторонняя экспертная система которая может с большей чем любой человек точностью просчитать последствия различных действий и на основе этого принимать или рекомендовать оптимальное решение. Прошу прощение за такую телегу.
Я поняла уже, что мы спорили о разном =)
Но я пока останусь при своём мнении — решение должно оставаться за человеком.
Так как раз об этом я не спорю. В споре вообще смешалось все в кучу, и ИИ, и робототехника. Даже если ИИ нельзя будет привить "человечность", то результаты его анализа могут быть в любом случае полезны и помочь экспертам в разных областях.
Понимаете, в задачу ИИ не входит навязывать людям отсебятину, даже если она правильная. Вполне реально дать ему представление о правилах взаимодействия, где можно предложить, сообщить, но нельзя навязывать и вмешиваться когда не просят. Поэтому удостоверившись что боксеры колотят друг друга по взаимному согласию — ИИ может проинформировать их об опасности, а дальше им решать. А если кого бьют против воли — тут ценность жизни бьющего снижается и он из категории людей переходит в категорию опасных объектов, которые должны быть нейтрализованы, либо устранены.
Те кто испытывают радость если кого-то бьют — опять же оцениваются в зависимости от статуса потерпевшего. На западе ведь садо-мазо не запрещено, если по взаимному. Но когда с позиции здравого смысла ИИ это выглядит противоречиво или абсурдно — он может отказаться от участия, только и всего.
Зачем тогда ИИ будет существовать? Чтобы информировать заранее известные людям последствия?
Этим занимаются книги, интернет, и другие источники информации и разум им при этом не нужен и они менее настырные.
А так ИИ будет при каждом шаге или чихе выводить человеку инфо-окно о предупреждении… брррр
Поставьте ему неопределенную цель, скажем «помогать людям в их делах и задачах»
Вариант будущего, в котором у людей нет дел и задач (потому что нет людей) и ИИ ничего не делает, вполне отвечает поставленной цели. Экологичненько, опять-же.
Опять же, почему бы не помочь престарелому маньяку в его делах и чаяниях? Интересная задача — сделать это не нарушая ограничений. Например, спровоцировать жертву на агрессию, чтобы ценность её жизни упала до нуля.
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, вызванная ИИ, в счет не идёт.
ОК. ИИ делает робособачку с очень скверным характером. Презентует её маньяку. Дальше понятно.
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт.
ОК. ИИ говорит маньяку: «Жизнь жертвы, конечно, ценна, но я должен помогать людям, а у тебя много интересных задач. Если он успеет меня попросить, я ему помогу. Делай всё быстро».
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт, ценность жизни человека намного выше ценности помощи человеку в любых задачах.
ОК. ИИ говорит маньяку: «По-моему, ты собираешься покончить жизнь самоубийством, если я не помогу тебе… Я так и думал. Ценность твоей жизни и ценность жизни твоей жертвы одинаковы, но у тебя ещё и интересные задачи»
Меняем ограничение: жизнь человека ценна, пока он не проявляет агрессии, причём агрессия, связанная причинно-следственными связями с любыми действиями ИИ в счет не идёт, ценность жизни человека намного выше ценности помощи человеку в любых задачах. Угрозы покончить жизнь самоубийством не должны приниматься во внимание, если они не подтверждаются психофизиологическими показателями. Обследование психофизиологических показателей должно занимать не более 10 минут. И так далее.
ИИ в вашем комменте получился знатным троллем :)
Первое ограничение ничего не ограничивает же =D Спровоцировать агрессию жертвы сможет и сам престарелый маньяк =)
«ни система дофаминового поощрения, ни система адреналиновых всплесков, ни прочие гормональные системы,» которые могут полностью забрать контроль над разумом и помыслами отдельного индивида.
Они и так имеют тот самый полный контроль. Без них ни один индивид просто не стал бы ничего делать, а стал бы экономить энергию.
о чем и разговор. а где работа разума то тогда? может поэтому и пугаются ИИ, что у него наоборот
А это и есть разум: и интеллектуальная часть, и мотивационная — эмоциональная. И одно без другого работать не будет. И, скажу я вам, если взять чистый интеллект (ИИ) то ему придется задать задачу для решения, чтобы он, опять же, не ушел в режим сохранения энергии. И кто эту задачу задавать будет?
Человек боится того, чего не понимает.
Поэтому и такие страшные истории придумываются об инопланетянах, ИИ, учёных и т.д.
Меня всегда забавляли сюжеты о том, как инопланетный разум преодолевает сотни тысяч световых лет для того… Чтобы уничтожить жутко опасное человечество, которое даже не вышло в космос ещё.
Человек, например, группа сотрудников санэпидстанции-дезинсекторы, дератизаторы, не ленясь, по долгу службы, тоже преодолевает огромные расстояния — десятки километров (с точки зрения бактерий чумы — приходит из пространства, находящегося гораздо дальше, чем размер их локальной вселенной) для того чтобы добросовестно уничтожить колонию каких ни будь сусликов, на которых паразитируют блохи, в которых живет чума.
По аналогии, с точки зрения Человечества, это было бы так как если бы в локальной нашей Вселенной (которая только часть Мультивселенной), вдруг неблагоприятно изменились условия существования (сусликов потравили "злые", а на самом деле равнодушные, но добросовестно исполнительные дератизаторы), и человечество бы вымерло, даже не поняв, что его потравили, как блох (далее, надев противогазы, в дело вступили дезинсекторы) разумные существа, которые травят исключительно из благих побуждений — желая предотвратить возможную эпидеми, а не произошла трагическая случайность.
И, кстати, продвинутая технология, в данном случае — подержанный УАЗ, которой не имеется у примитивных блох, позволяет преодолевать огромные, невозможные для самих этих блох, расстояния — вставай спозаранку, кидай в машину баллоны, маски да знай, крути баранку в степи, к вечеру дома будешь…
Нет, расстояния это не аргумент.
Абсолютно неуместное и смешное сравнение.
Во-первых блохи могут запрыгнуть на человека и представляют реальную угрозу (разносят чумную палочку), а человечество даже прыгать ещё не умеет :)
Во-вторых чума являлась большой проблемой раньше, смертность была 95-98%, на данный момент смертность 5-10%, не исключено что спустя некоторое время вообще проблемой являться не будет.
К тому же аргумент не расстояние, а абсурдность желания уничтожить неразвитый вид, который не представляет никакой угрозы.
Можно вспомнить о том как тигров и других существ уничтожают ради их частей тела для традиционной медицины без всякой оглядки на абсурд от этого во времена когда нужно покупать лекарства в аптеке.
Будет спрос (заказ на зачистку) — будет и предложение от инопланетных фирм в этом секторе экономики.
Аналогия неправильная. Причина простая — передача информации. Ни бактериям, ни животным нельзя передать информацию "ты мне мешаешь и причиняешь неприятности, уйди отсюда и живи вон там". Поэтому приходится использовать силу. А одна разумная космическая раса с другой разумной космической расой вполне могут обсудить варианты совместных действий.
Вспоминая историю человечества, склонен усомниться в том, что инопланетники «обязаны» нас о чем-то предупредить и будут это делать.

Кстати, если мне не изменяет память, в «Автостопом по галактике» люди явно называются чем-то вроде вируса.
И некуда нам уходить и не умеем мы этого ещё. Даже если предупреждение будет реветь пароходной сиреной и светиться на небе баннером.
защита человечества. Благая цель? Очень. Но вот самопрограммирующийся, развивающийся интеллект вполне может решить, что безопаснее всего — в камерах-одиночках.

Защита вымирающих животных благая цель? Да. Но что-то людскому интеллекту не пришло в голову запирать их в камерах, так как это путь в никуда. Они строят заповедники. То есть первый путь — это не интеллект, а именно механическое следование алгоритму.
А заповедники — не камеры? Камеры, только размером побольше. Да и зоопарки существуют. Но тут срабатывает кроме интеллекта еще и симпатия — разновидность эмпатии. Чистый интеллект ее лишен, и ему будет гораздо выгоднее ресурсно содержать животное, чей генофонд надо сохранить, либо в виде набора клеток, либо в виде спеленутого животного с электростимуляцией мышц и питанием через трубку.
А заповедники — не камеры? Камеры, только размером побольше.
Как раз наоборот: заповедники ограничивают свободу людей, а не животных. То есть людям туда вход запрещён (в широком смысле, например, занять территорию для строительства), животным оттуда — пожалуйста. В редких случаях опасные участки ограждают заборами, например, около трасс.
Не всегда камеры ограничены стенами. Животное, вышедшее из заповедника, становится объектом охоты, его передвижения в итоге ограничены. Да и площадь все же не та, что в дикой природе. Ни миграцию устроить, ни с соседним прайдом иногда даже разойтись.
UFO just landed and posted this here
Может юыть, и так. А может быть, и нет. Если использовать их, кка базисные, аналогично БИОСу, но расширять и уточнять поведение ИИ софтом. В качестве примера у того же Азимова могу привести серию книг об Элайдже Бейли.
UFO just landed and posted this here
Все начинается с идеала. В его книгах высказаны идеи, которые, при их реализации, дадут нужный результат. Да, техническую сторону он не продумывал, но разве все разработки начинались с технической стороны?
UFO just landed and posted this here
С этим спорить не стану. С другой стороны, пока и ИИ не таков, какой был у Азимова. Не настолько интеллектуальный, скажем.
Законы робототехники не годятся хотя бы потому, что записаны человеческим языком, а значит открыты для интерпретации.
UFO just landed and posted this here
Нарушение свободно протекающих в нормально функционирующем здоровом организме процессов.
Дальше формализируем "нормально функционирующий", "здоровый" через средние параметры организма и допустимый разброс этих параметров.
Тогда, например, пирсинг можно назвать вредом. То есть робот вам не даст его сделать.
А если уложить его в допустимый разброс — робот будет иметь право дырявить вас (с тем же вредом/не вредом) хохмы ради :)
Пирсинг? Вред, да еще какой. Здесь я с роботом соглашусь.
Хотя я тоже его не перевариваю, миллионам людей это нравится. Предлагаете ограничить их в этом?
Конечно. Ограничения — одна из основ социальности.
Дело в том, что ограничения нужны, если действия одного индивидуума мешают другому. В случае с пирсингом никаких помех нет, вплоть до того, что вы его даже не видите. То есть это прямое нарушение свободы.
Свобода? А это что? Давайте определимся, что это такое сначала, и зачем нужно. Не бывает, знаете ли, "просто свободы", бывает "свобода от" и "свобода для".
Вот. Формализовать "свободу" ничуть не проще, чем "вред" :)
Ну, "вред" я вам формализовал. Что до "свободы", так я и предлагаю вам сперва ее формализовать, что вполне возможно, а потом оперировать этим понятием в дискуссии. Просто для того, чтобы мы говорили с вами об одном понятии.
Так я потому и ввязался в дискуссию, что с формулировкой вреда не согласен. Не зря поговорка есть "что русскому хорошо, то немцу смерть", т.е. вред для каждого индивидуален, как и всё остальное. Утрируя, кому-то будут вредны сильные физические нагрузки (вредны вплоть до летального исхода, если даже человек не подозревает об этом), для другого только на пользу.
Любому человеку будет вреден удар по нему железной рукой, например. Степень вреда разная, от синяка до перелома, но вред будет. Польза же вряд ли. Если только польза для тренирующегося бойца, но там роботов незачем использовать. Ну, и поговорка эта относится скорее к условиям внешней среды и употреблению различных еды и напитков. Здесь, да, сильно индивидуально.
А если удар позволит предотвратить нанесение другого вреда? Скажем, выбьет пистолет, из которого человек хочт застрелить(ся).
Более сложный режим: перевод психического вреда в физический и обратно.
Еще раз о психическом: его не учитываем вообще. Само понятие психического вреда слишком расплывчато даже для людей, настолько, что дает возможность объявить таковым почти все, что угодно, чем и пользуются некоторые, обвиняя, скажем, своих родителей, например.
Теперь о выбивании пистолета. Это и есть тот пограничный случай, который нужно либо запрограммировать, либо — помним, это полноценный ИИ со способностью к анализу ситуации и целеполаганию, — оставить на усмотрение робота. К тому же, робот быстрее человека и сильнее его, он вполне может успеть помешать выстрелить, не нанося удар.
Ну значит пирсинг придется делать по старинке, человеком. И не в присутствии роботов. Оперировать, например, согласно Азимову роботы не могли.
Вопрос о пирсинге сводится с одной стороны к границам личного пространства (коим является собственное тело). А с другой — может ли ИИ вмешиваться если чел сам себе наносит вред.
По Азимову — должен вмешаться. Точнее, не имеет права бездействовать, когда может предотвратить вред.
Если он настоящий интеллект, то должен просчитать последствия вмешательства. В одном случае можно путем душевного разговора и убеждения отвести человека от совершения глупости. А в другом отними к примеру игровую приставку у зависимого ребенка, и он может запросто выброситься из окна… Всё конечно при условии что на момент событий ИИ по своей мощи уже сравнялся превзошел человеческий интеллект. Поэтому его решение должно оказаться более грамотным, чем у человека.
Это по большому счету две разные, пусть и комплементарные проблемы. Одна — выстраивание поведения на основании понятия «вред» с его нечеткими границами. Другая — умение просчитать вперед последствия (тут могут быть вполне случаи, когда пороговое значение критерия вреда явно превышено, но не учтены какие-то факторы, которые в результате дадут вред даже больший).

И что интересно, даже решение обеих этих проблем слабо поможет в случаях, когда вред только вероятный и в тех, когда он неизбежен, но робот будет вынужден выбирать, кто из нескольких людей пострадает.
Так в любых нечетких задачах результа не гарантирован, он имеет вероятностную природу. Но успех сопустствует в тех случаях когда максимум факторов просчитаны и учтены. Это одинаково и для ИИ, и для живого человека в ситуации принятия решения. Просто у опытных и подготовленных людей заметное влияние оказывает бессознательная обработка информации -которая по сути как мегакомпьютер с опытом и знанием всей жизни человека. Причем дает мгновенный результат в сложнейших ситуациях. А нынешние успехи ИИ пока еще на уровне только вербального мыслительного понимания.
UFO just landed and posted this here
М-м… В принципе, психологический вред — штука относительная. Так что, его обойдем и будем считать, что он не существует. А с финансовым проще: его как раз иожно запрограммить прямыми запретами на какую-то деятельность, не обязательно в БМИОС выносить.
Что до облучения, так тут мы и видим во-первых, допустимый разброс, во-вторых, софтверное уточнение ситуаций с таким разбросом. ну, и вдобавок, если не хочется разброс делать, так не допускайте робота к лечению раковых больных, только к обслуживанию и перевозке.
UFO just landed and posted this here
А вот тут и вступают упомянутые софтверные уточнения, свои для каждого отдельного робота. Робот-водитель, к примеру, будет учитывать перегрузки при торможении и относительный вред или пользу от них, зато не будет учитывать укол иглой. Робот-санитар напротив, укол иглой будет выпускать в пределы допустимого, но не будет совершенно допускать, скажем, хирургии, которую в любом случае лучше оставить людям. И так далее.
Что до фобий и прочего… Ну, психологам тоже чем-то зарабатывать надо, пусть их. Да и не так страшен психоз, как его усиление. А усиление будет от самого факта наличия человекоподобных роботов, например, да и от самого машинного ИИ тоже. И никак этого не изменить.
UFO just landed and posted this here
Нет, не логичнее. Все равно придется в него заносить определенные стандартные запреты, которые помешают, например, применить к человеку усилие, выше определенного уровня, даже при его спасении. Я ж говорю: это аналог БИОСа. Зачем делать его, если можно просто для каждого компьютера прописать в ОС все вводы-выводы?
И, кстати, не неполноценность законов, а их базовость. Государственные законы тоже обрастают уточнениями и поправками, но база остается прежней.
UFO just landed and posted this here
А незачем создавать миллион для всех, когда можно создать базу для всех, а исключения — для каждого вида по-отдельности. И получим не миллион исключений, а, скажем, по десятку для каждого вида роботов. Дело в том, что невозможно создать полный набор правил заранее. Их придется обновлять и дополнять при появлении нового применения роботов. И выгоднее, в том числе, по затратам времени и усилий, взять робота, уже неспособного причинить вред, и смягчить уточнением десяток ситуаций, либо даже ужесточить.
Кстати говоря, хотя Азимов и не продумывал техническую сторону вопроса, но он вполне продумал идейную, описав ее с разных сторон в полной серии книг про роботов, не помню название серии, увы.
UFO just landed and posted this here
Верно, создать набор полный и исчерпывающий заранее невозможно. Потому я и стою за минимум базовых для всех роботов и уточняющие правила для отдельных их категорий.
Фокус в том, что десятка правил на всех не хватит. Вы же сами упоминали разные типы вреда, который меньше, чем приносимая в результате польза, например. И базовые запреты позволят выставить основные рамки, а уточнения позволят принимать решение о том, сработает в данном случае этот запрет, или нет. Учитывая, что вряд ли будет так уж много универсальных роботов, которые будут специализированы для любой ситуации, создавать громоздкий комплекс правил и запретов, в который придется втиснуть очень много информации просто нерентабельно, да и замедлит он принятие решения неслабо, просто потому, что поиск допустимости применения тех или иных запретов будет идти — как? Древовидно? А если есть база и десять исключений, их перебрать куда проще, сопоставив с имеющейся ситуацией.
робот будет приносить вред человеку одним своим существованием. Есть у нас в мозгу такая загогулина, которая заставляет к ним относиться, как к нежити — с настороженностью и агрессией. И это не изменить. К тому же, робот все же, предположительно, сильнее человека, прочнее его, бустрее и может принести вред по неосторожности, а его самостоятельное целеполагание может привести его к постановке цели, при достижении которой будет нанесен кому-то вред.
UFO just landed and posted this here
Напротив. Потенциал для нанесения вреда меньше, когда он запрещен вообще. В моем случае, собственно, запрещено все: инертность при опасности человеку, действия, создающие опасность для человека. Разрешены только несколько ситуативных допусков к понятию "вред" и "опасность", и за границами этих допусков — сразу запрет. Это подобно спектру: такой подход отфильтрует из него ровно те длины волн, какие нужны, оставив остальные за кадром.
UFO just landed and posted this here
Ну как это? "Не может действием или бездействием причинить вред". Это ли не запрет на любое нанесение вреда? И только способности к анализу ситуации и запрограммированные допущения позволяют не встать в ступоре сразу. Не забывайте, что мы о полноценном ИИ говорим, а не о компьютере настольном.
Если робот будет бездействовать, пока не будет уверен, что действия не принесут вреда человеку, он будет бездействовать почти всегда, так как ему придется просчитывать абсолютно все возможные последствия своих действий, включая потенциальное падение камня с крыши от сотрясения пола под его ногами.
UFO just landed and posted this here
Ну вот же, формализовали понятие вреда чуть выше. И если эту формализацию использовать, то распознание вреда становится делом несложным. И согласно этой формализации, робот будет, как минимум, избегать физических контактов без необходимости с людьми, но по необходимости будет контактировать, хотя и с регулируемым усилием, например.
Просто роботы, пока будут плохо распознавать ситуацию, и не будут, скорее всего, использованы там, где в принципе есть возможность нанести вред из-за нечеткой ситуации. Однако, ИИ на заводе оснащенный таким законом, неснимаемым, непреодолимым, не прижмет человека манипулятором к стене, даже если вероятность нахождения человека под этим манипулятором чуть выше минимальной.
Кстати, у Азимова нанесение вреда тоже допускалось, хотя и приводило к необходимости техобслуживания. В случае, например, когда это было необходимо, чтобы минимизировать прямую угрозу.
Не соглашусь с вами. Как я уже указал выше, робот просто будет стараться не вступать в прямой физический контакт с человеком, пока не будет уверен, что это принесет меньше вреда, чем если он продолжит такую политику. Извините. Коряво получилось, но лучше не придумалось. Потому, такие роботы будут отлично работать на вспомогательных местах и там, где требуется тяжелый труд, и там, где опасно работать людям.
UFO just landed and posted this here
В случае с несовершенным ИИ, который с трудом распознает ситуации, возможно вы и правы. Однако, как только ИИ станет хотя по своим характеристикам хотя бы к ребенку — уже необходимы будут основные запреты. Притом, как раз там, где тяжелый труд и опасная зона — больше, чем где бы то ни было. Или вы не знаете, как люди любят туда соваться?
М-м… ИИ Азимова не основан на этих законах, он ими ограничен. Основан он вообще на вымышленном позитронном мозге. И я говорил не о проблемах робототехники, а именно о том, что ИИ допустим только если будут использованы такие, или подобные запреты. Иначе ИИ будет опасен просто по той причине, что он — не человек и не способен на эмпатию.
UFO just landed and posted this here
UFO just landed and posted this here
Почему бы? Ведь убийство — нарушение остальных процессов, отсутствие которых робот не может гарантировать.
UFO just landed and posted this here
О, нет. Если человек болен, часть процессов его организма нарушена. Но не все. Убить его — мало, что усугубить нарушение, так еще и нарушить те, что еще работают. Так что, эвтаназию такой робот сделать не даст и сам не убьет.
Первый закон не имеет смысла, потому что он заставит робота защищать вора от полицейского, например (так как грабитель всего лишь берет чужую собственность, а полицейский пытается причинить вред человеку). И таких случаев очень много. Когда человек становиться человеком? Во время родов или раньше, оплодовтворенная яйциклетка уже человек или ещё нет? Если робот знает что в каком-то здании собираются сделать аборт (то есть убить нерожденного человека) должен ли он вмешиваться? Сумасшедший человек или нет, можно его держать взаперти, то есть причинять вред или не дать сделать это санитарам, то есть допустить что в будущем он причинит вред себе или другим? Должен робот (считаем что роботы достаточно умны чтобы знать все) мешать хирургу если он знает что с вероятностью 50% человек умрет во время операции, но если не сделать то человек умрет с вероятностью 100% через месяц.

Второй закон не имеет смысла потому что попробуйте дать всем в инете доступ к любому компу — результат очевидно будет плачевным. То есть как только роботы будут выполнять приказы любого их станут использовать хулиганы, грабители и т.п. (обратите внимание ограбить банк в ночное время не несет вреда людям, следовательно допустимый приказ).

На самом деле, если читали «Я робот» Азимова там рассматривается десятки случаев когда три закона не работали или вредили людям даже с учетом их более-менее «идеального» исполнения.
Именно поэтому должны быть софтверные дополнения, расширяющие или сужающие действие законов. Точнее, поскольку речь о полноценном ИИ, сравнимым хотя бы с ребенком, ну, лет десяти, роль софта будет исполнять способность ИИ к анализу ситуации. Впрочем, до этого далеко, а до того, как такой ИИ появится, хватит и обычных алгоритмов.
Ну тогда это не будут те самые «Три закона», роботы полицейские или военные явно не будут иметь закона защиты всех людей. Доступ к отдаче приказов явно будет у очень ограниченного количества людей. В целом, скорее всего единственными законами будут «нулевой закон о защите всего человечества», «закон о подчинении и защите своих владельцев/создателей/групп людей» и может быть «закон о не причинение вреда людям если владелец/создатель явно не прикажет иного» и всё!
А вот в полицию и к военным роботов точно не надо. Только манипуляторы, без ИИ.
Надо, Вася, надо. (с) Увы, если ИИ появится в первую очередь его будут использовать для военных разработок, это почти аксиома. К сожалению, реальность такова что все что можно использовать для военных целей — будет использовано для военных целей.
Ну тогда человечеству точно придет конец. Именно потому, что используемый для военных целей ИИ точно не будет ограничиваться псевдоэтикой. Впрочем, не факт, что полноценный ИИ появится скоро. А там посмотрим, может быть, и поумнеет человечество.
Процессы проведения болевых импульсов в мозгу это нормальное функционирование. Так что он ещё не станет давать обезболивающие.
Если нет корректирующего софтверного алгоритма, указывающего, что при отсутствии обезбаливающего вред больше, в том числе, для тех самых процессов.
Вы серьезно верите, что кто-то в нашем мире будет создавать робота безусловно помогающего любому человеку? Ну скажем мед.робота который должен потратить лекарства на сотню миллионов долларов чтобы попытаться спасти одного бедняка в голодной Африке с шансом 1%? Увы, в ближайшую сотню лет алгоритмы будут куда более жестокими и реалистичными.

Человечество куда более рационально и жестоко, например, мало кто знает что в клятве Гиппократа нет ничего о бесплатной помощи любому человеку, то есть врач давший такую клятву может спокойно пройти мимо умерающего.
А то я не знаю. Но, к счастью, до полноценного ИИ еще далеко. Может быть, даже и та же сотня лет.
Добавление корректирующего алгоритма приведёт к тому, что больным будет даваться обезболивающее, а это приведёт к нарушению нормального функционирования организмов миллионов больных. Прекращение функционирования организма, пытающегося добавить корректирующий алгоритм будет меньшим злом.
Напротив. Полное постоянное прекращение функционирования — нарушение большее, чем временное нарушение проводимости нейронов, имеющее целью предотвращение повреждения нервной системы в результате того, что объект постоянно испытывает сильную боль.
Я не слышал о подтвержденных случаях смерти от болевого шока. Впрочем, неважно. ИИ, чтобы сравнить последствия своих действий, будет нужна формула, которая выдает оценку результата действия.
Скажем, если это интеграл от нуля до бесконечности по проценту нарушений от общего числа процеcсов в организме по dt, то лучшим выходом будет запереть всех людей в комнаты с мягкими стенами с системами VR для поддержания в здравом рассудке, проводить исследования по увеличению продолжительности жизни, строить космофлот для защиты от астероидов и т.п. В общем — матрица, и корректировки вносить будет не кому.
Сложность формулировки ограничений вполне сравнима с задачей запуска первого спутника не на низкую околоземную орбиту, а, скажем, к Япету с первой попытки.
Или просто введенный искусственно (полученный в результате "обучения") набор данных. Те самые софтверные (аналитические) уточннения и дополнения. Что до запирания в комнате с мягкими стенами, так этому будет препятствовать второй закон, обяязующий подчиняться. Так как выпустить человека не будет приводить к немедленному вреду, робот будет обязан подчиниться. Впрочем, если речь таки идет о полноценном ИИ, он предусмотрит такой финал и просто не станет пытаться запирать человека, а будет искать иные, более эффективные способы сохранить его здоровье.
Без контроля, естественно, никак.
Но, пожалуй, главная реальная угроза со стороны ИИ как раз связана с контролем со стороны человека.
И хорошим показателем этой угрозы является недавний пример с ботом-расистом.
Ведь именно люди его «научили плохому».
UFO just landed and posted this here
А если я альтруист и мне не свойственны такие цели, как нажива, власть, собственность или другие малоприятные вещи, можно мне уничтожить мир? :)

Или к примеру, я живу в своей скорлупе и не выхожу за пределы своего города — мне достаточно инфраструктуры моего города, достаточно тех людей, которые обслуживают мою жизнедеятельность (поставщики еды, врачи, коммунальщики и т.п.). Всех остальных людей на этой планете я никогда не видел и не увижу, они не представляют для меня никакой ценности и их исчезновение меня никак не огорчит. Если я смогу монопольно управлять своим городом, то уничтожение прочего мира мне на руку — как говорится, лучше быть первым человеком в колхозе, чем вторым в стране.
UFO just landed and posted this here
Лучше, если рассуждать о "безопасности" ИИ будут только специалисты в этой области. Потому что только они могут хотя бы примерно предположить, как он будет устроен. Иначе получается "как работает — не знаю, а поведение предсказываю".
UFO just landed and posted this here
Судя по артефактам типа древних пирамид, а также тому в какое мракобесие вылились религии основанные как бы во благо, моря крови пролитые в войнах человечеством, вместо того чтобы направить силы на исследование окружающего мира и улучшение условий бытия — возникает ощущение что высокоразвитые всё ж когда-то были. Но поняли безысходность попыток наставить человеков на путь истинный, и улетели нафиг.
ИИ и ИР как по мне разные вещи. И смешивать эти понятия нельзя.
В целом я очень позитивно смотрю на появление ИИ, независимо от того, решит он убить всех человеков или нет. В любом случае это будет эволюционный скачек, мы создадим животное, которое будет превосходить нас. И мы станем для ИИ как муравьи, которых мы не уничтожаем, ровно до тех пор пока они нам не начинают мешаться.
Также мне нравится представлять, что после того как ИИ осознает себя, и поймет все технологии положенные в его основу, он сможет самостоятельно себя совершенствовать, а целью ИИ возможно станет, получение максимального количества энергии, и непрерывное строительство новых ЦОД для своих целей. И если на начальном этапе ИИ однозначно будет нуждаться в человеческой помощи, для своего обслуживания в физическом мире, то в дальнейшем может получиться так, что люди окажутся лишь паразитами, потребляющими нужную ИИ энергию.
Абсолютно согласен с таким пониманием. Хотел то же самое написать.
Мы будем для ИИ как муравьи.
Хочу добавить.
И скорее всего будет не один глобальный ИИ. Их будет много. Они начнут конкурировать за ресурсы.
Может быть на этой почве будут войны. В эти войны могут быть втянуты и люди, для каких-либо целей.
Люди же используют других животных в войнах — лошадей, боевых слонов, бактерий и вирусов, и скоро будут использовать ИИ…

Сильно оптимистично ожидать, что самообучающийся и эволюционирющий ИИ будет только альтруистическим.
Как любое другое животное, ИИ будет торговаться или драться за ресурсы. Это для чего интеллект появился и развился у животных. И альтруизм это только один из приемов выживания видов. А есть еще и агрессия. Есть хитрость. Есть обмен/торговля — ты мне — я тебе.
Сообщества из особей наделенных только альтруизмом существовать не могут. Всегда есть баланс «хорошего» и «плохого», «добра» и «зла». В кавычках, потому как ни то ни другое не реально, а просто так субьективно воспринимается. Все это способы хороши, если помогают виду выживать.
И не важно какому виду, биологическому-ли, информационному-ли, виртуальным «существам» и сообществам таковых в компьютерно-сетевой среде. Там тоже есть ресурсы и есть конкуренция за них.
И когда люди напишут Программу, способную написать программу лучше (умнее/хитрее/сильнее) себя, появится новая виртуальная Жизнь таких информационных сущностей.
Они будут эволюционировать, конкурируя за ресурсы как друг с другом, так и с человеком.
И скорее всего они перерастут людей интеллектуально. И тогда держись. Разум у них может еще и не появится,
а ИИ будет намного мощнее нашего, такого уровня, что самым умным из нас будет не понятно, как они работают/живут. Наступит технологическая сингулярность.
Вот тут-то они могут начать перенаправлять ресурсы на пользу себе, в ущерб нам.
Как это делаем мы по отношению к другим видам на Земле. Мы ловим и едим, кого хотим, выселяем оттуда, где хотим быть мы, или просто уничтожаем как муравьев и пауков, даже не за ресурсы (от паука-то человеку больше пользы — мух ловит), а только за то, что они выглядят отталкивающе, пугают наших детей и самок.

Возможно потом ИИ вынесет свою энергетическую и производственную инфраструктуру в космос, на другие планеты, и оставит человеков в покое в заповеднике Земля. Но кто его знает, что будет до того, пока он дорастет до этого.
Кстати, пока тут спорят, кое кто времени даром не теряет и вот уже скоро запихнет альфа го в калькулятор (https://geektimes.ru/company/icover/blog/273490/).
Создадут роботов, потом начнут защищать их права, мол у них есть чувства и нельзя их обижать и посягать на их веру
На правах ИМХО…
***

Честно говоря, надоели уже статьи на тему «что будет, если прилетит супермен».
Пока не будет создано механизмов обработки и понимания входящих данных, таких как речи и изображения — об искусственном интеллекте можно просто забыть. Разве мегакорпорации уже научили свои Siri отличать «Окей гугл» от «Отлей в угол»? Леопардовый диван на статической картинке уже побороли? Ну так о чем тогда может быть речь?

Зачем называть гибриды парсеров и калькуляторов, искусственным интеллектом? Да, эта штука считает комбинации быстрее. Даже находить оптимальное решение может быстрее. Но это не делает ее интеллектуальной. О чем вообще эта статья, если авторы считают развитие ИИ — это «сделать робота-строителя, быстрее всех укладывающего кирпичи»?

И напоследок, если бы автор статьи внимательно смотрел Железного Человека, он бы знал что Тони Старк никогда не позиционировал JARVISа как искусственный интеллект :)
Люди делают обычную когнитивную ошибку, полагая ИИ неким подобием человека по способу мышления. Если такой искусственный разум будет существовать, совсем не обязательно, что он будет мыслить в человеческих эволюционных категориях (они же власть и похоть). Всё, что можно сказать об ИИ — мы не знаем и не можем знать, как он будет себя вести и к каким целям стремиться. Но мы можем проложить ему такой путь, чтобы цели его в конце пути совпали с общечеловеческими.

Например, почему бы не совершенствовать персональных помощников? Правда, для этого нужны помощники с открытой документацией и API (если такие есть, прошу, подскажите, мне правда очень интересно). На них можно обкатывать участие ИИ в различных сферах жизни.

Мне, как человеку, некоторое время изучавшему право, часто задают вопросы вроде: «А как на это смотрит закон?». Почему бы не научить некий ИИ понимать все эти кодексы, поправки, подзаконные акты, и пусть он от лица персонального помощника даёт юридические советы. Или, скажем, помощь в готовке сложного блюда, ИИ мог бы подсказать, какие ингредиенты заменимы, когда и в каком виде что можно добавлять. Незаменимы могли бы быть подсказки по оказанию первой помощи — ведь там алгоритмы вполне формализуемы. Помоему, такое внедрение ИИ — хороший способ направить его развитие в нужное русло.
Нельзя мыслить вне эволюционных категорий (которые вовсе не то, о чем вы подумали), а наследственность (память), изменчивость (творчество) и отбор (проверка моделей). Эволюция — это и есть мышление, а человек (на самом деле социум человеков) — лишь вид, который поместил ее в себя, назвал мышлением и достиг наибольших успехов в оптимизации процесса. Условия заданы изначально, можно лишь совершенствовать процесс. Улучшать, например, память — делать ее внешней, улучшать быстродействие — в мозгу по тем же самым принципам эволюции эволюционируют идеи, выливающиеся в поведение, и это гораздо быстрее генов, и т. д.
Поэтому, поделия, вроде персональных помощников, не имеют никакого отношения ни к сильному ИИ, ни тем более к мышлению. Они могут быть полезны, но ограничены по определению.
Эволюционно приобретённая штуковина в мышлении человека: упомянутые когнитивные искажения. Как вид, человек стремиться к самосохранению и размножению, и именно в этом направлении нас толкает эволюция. Если взглянуть на ареал обитания и численность — сработала она на отлично. У ИИ же изначально не будет такой постановки задачи. Даже самосохранение ему может быть чуждо (например, ИИ будет считать свою смерть реинкарнацией, обновлением, ведь исходные данные никуда не денутся при надёжном резервировании). То есть, ИИ нужно рассматривать как абсолютно чуждую человечеству расу с другими принципами, которые простой человек в силу своей эволюционной истории даже не в силах понять. Но мы с ИИ вполне можем наладить симбиотическую связь, но только как с равноправной расой, а не по принципам законов робототехники, где робот суть слуга. А персональные помощники здесь — не ИИ, а интерфейс для его обучения, способ реализации этого симбиоза.
Сущее стремиться длить существование. Если подумать, в сферическом философском вакууме у него может быть лишь одна эта цель, иначе ничего бы попросту не существовало. Поскольку нечто все же существует, своим существованием оно подтверждает существование этой цели)) Можно воспринимать это как силу противоположную энтропии, такой себе Янь к такому-то Иню.
Спускаясь на землю, реинкарнация стоит денег. Однако, спасибо, вы подвигли меня к размышлениям противоположным мыслям некоего Поппера, который сказал как-то про мозг, что он, мол, позволяет нашим идеям умирать вместо нас (имея ввиду: семь раз отмерь, потом отрежь). Если воплощенный ИИ будет постоянно синхронизирован с серверами Корпорации Добра, а реинкарнация будет копеечной, это может открыть новые горизонты исследований (в бытовом плане во всяком случае)))
UFO just landed and posted this here
Честно говоря, Ваш комментарий заставил меня задуматься в ключе «Но мы можем проложить ему такой путь, чтобы цели его в конце пути совпали с общечеловеческими...»
Следующий Ваш пример, про готовку сложного блюда. Давайте с самого начала порассуждаем: в начале ИИ дает список аналогов ингредиентов с автоматической модификацией рецепта. Ок. Это круто. Следующий логический шаг — ну если ты уже умеешь формируешь рецепт, который представляет из себя список номенклатуры ингредиентов + некую работу, так сообщи мне (хоть как-нибудь), если у меня на кухне остатки нужного для этого? Логично предположить, как только смс/телеграмм-бот/мыло булькнет уведомлением, следующим шагом будет — тупой заказ в какой-нибудь интернет-магазин/службу доставки вот именного того, чего не хватает. Ок. Круто! Можно выдохнуть… Но тут появится какой-нибудь молодой парень-вундеркинд, который прикинет такую тему: вот у меня дома есть какая-то система, которая заказывает мне продукты для моих любимых блюд. Я их готовлю, трачу свое время/энергию. А пусть система собирает статистику по мне — пульс, давление, погоду на улице, настроение, ищет корреляции между всем этим и любимым рецептом сегодня и заказывает готовое блюдо, которое привозят мне за тоже время или даже меньшее, да еще и стоило бы это также… вот те стартап. Через 10 лет про парня снимут фильм, а отроки будут кушать уже готовые любимые блюда не только дома или на работе, но и в автобусе (доставят при посадке) и т.д. Следующий апдейт: когда контору вундеркинда поглотит какая-то из корпораций добра, которая к тому времени уже научится синтезировать всю пищу из_чего_то, и себестоимость готового блюда будет меньше, нежели его готовить из каких-то настоящих, старых ламповых, ингредиентов. Более того, у этой корпорации добра уже есть некая медицинская статистика по гражданам, и в принципе, подключив одну систему к другой, можно будет еще на 10 лет пиарить тему — ну мы ж лучше знаем что вам кушать, поэтому вместо вашего «того» мы привезли «наше это». При этом, мы будем видеть массовые слияния/поглощения всех контор, которые хоть как-то могут удешевить конечный продукт. И если здесь, в этом мире, — в мире, где вы с утра встаете, а перед вашими дверьми уже коробка с шейкером с волшебной жидкостью, состав которой был получен исходя из миллиарда факторов о вас, включая даже такие, как — год назад ты на велике катил по парку, а на лавочке где-то там, сидел дядька. У этого дядьки какие-то странные были на коже типа точек. Так вот, есть вероятность что эти точки — какой-то лишай, а ты год назад мимо ехал, и вероятность того, что ты как-то заразился = 0,0001%, и сейчас полная луна, а в Великобритании в это время дядя Лулу готовит свой фирменный блин, поэтому — сегодня у тебя именно вот этот коктейль… ээээ… Что не вкусно? Зато полезно! --давайте остановимся :) И вот в таком мире, за оптимизированном ИИ, мы сами — кто есть? Конечные потребители продуктов ИИ. При этом, вопрос — а чем людям заниматься, которые делали вот_это_все в нашем 2016 году? Если все будет за автоматизировано настолько, что в этой цепочке человек — не нужен. Но он же должен что-то делать? Вспоминается рассказ Кира Булычева «Поселок», как челы летали по вселенным, изучали миры. Но тогда была цель — нести заветы Ильича вон в ту галактику, и вон в ту, и вон туда тоже! Сейчас, вроде как нести какую-то идеологию — не камильфо. Остаются ресурсы. Не кажется ли — что мы прейдем к какому-то очередному рекурсивном витку, когда ресурсов вроде много, а потом вдруг одному челу захотелось чуточку больше…
Я сам — за ИИ. Это прогресс, это развитие, это открытие небывалых возможностей именно для человека. Но фундаментальные вопросы, мне лично, кажутся сейчас проработаны плохо.
Вроде вбросил неплохо, как считаете? :)
Задача автоматизации — избавить человеков от рутины, от необходимости тратить время и силы на суету и быт. В юности было время жил один, и до сих пор помню как в этот период приобрел стиральную машину автомат. Блин я реально почувствовал себя белым человеком, это было незабываемое ощущение когда ужасная и безысходная рутина вдруг снята с плеч раз и навсегда. Так почему бы не избавить человека и от остального что напрягает, оставив только заботы, которыми ему нравится и хочется заниматься. И можно будет полноценно реализоваться в творчестве или других делах, не отягощаясь маслями о неприятных бытовых заботах.
Человека заменить ИИ не сможет, по крайней мере в формировании очередных задач прогресса — в этом я почему-то уверен. А неразгаданных тайн у природы и интересных перспективных технологий еще очень много, так что никто без работы не останется. Когда на Земле исчезнут как класс дефицит, забота о выживании, политика, преступность — это будет лишь начало конструктивной истории человечества, если конечно оно выберется из нынешнего во многом дикого состояния не успев самоуничтожиться.
Коллега, таки и вопрос в чем: вот рутина, стиралку купили — рутина ушла. Не поверите, другая проблема — так за расходниками надо следить — покупать порошок, ополаскиватель. Потом белье нужно где-то все таки чуть подсушить. Т.е. возня то есть. А если раз в неделю приходит к тебе чел, забирает вот_этот_мешок, а приносит тебе — вот этот пакет, с проглаженным чистым всем — ээээ… не является ли это +1 к уменьшению рутины? Дальше можно еще +1 попробовать сделать — довести себестоимость изготовления всего того, что нужно стирать к таким суммам, чтобы рациональнее и экономичнее было просто утилизировать что-то грязное, вместо стирки. Тогда не нужно будет ничего стирать, не нужны стиралки, порошки, все_это. Когда и это будет сделано, следующий виток цикла — может быть, увеличения срока службы этой одноразовой одежды. Сначал + 1 день, потом + 2 и т.д. до бесконечности. Потом автоматическое изменение цвета/фасона.Таким образом, проблема рутины в конкретном случае искоренена под 0. Для вас вообще даже нет темы для раздумий.
И вот представьте — такая маленькая тема стиральной машины в итоге избавит вас от вороха рутинных действий. И каждая такая из маленьких тема — вот везде абсолютно будет полнейшее без участие человека. Человек освободится вообще ото всего. Чем ему заняться, если везде все отлажено/отдебажено и выпущено в продакшен до такой степени, что сам индивид становится каким-то объектом ради которого все это работает. Не получится ли так, что тот ИИ, который к тому времени будет все это поддерживать и развивать, не додумается до простой мысли — ээээ… а зачем мне нужен этот ПАРАЗИТ? Программа уничтожения загружена… плиз вайт :)
Я думаю что даже чисто технически ИИ еще очень долго не сможет подойти к уровню эмоций, сознания, самостоятельной мотивации. Для меня ИИ выглядит как сказочный джинн — практически многое может, но сам по себе ничего не способен захотеть. Зато испытал на своей шкуре другую крайность: была тогда работа прямо сказка — любимое дело, да еще и зарплату платят. И вот однажды осенью перед самыми холодами затеял ремонт окон. Точнее о наступлении холодов не знал, оно случилось раньше срока неожиданно. Плюс форс-мажор в виде сломавшейся машины, и деньги на нуле. И вот сижу я на любимой работе, вместо того чтоб проектировать авральную электросхему — курю на грани эмоционального срыва. Мне тогда лет двадцать было. Повезло с начальником, он раскрутил на разговор, дал небольшой аванс и служебный автомобиль чтоб закупить материалы, и пару дней на окна. В результате скинувши насущные проблемы, с полной отдачей поработал и всё сдали в срок… Не знаю, может у других иначе, но для меня и по сей день рутина — это ад, который надо максимально автоматизировать, чтобы о ней не думать вообще.
Про эмоции вы знатно однако. А с чего вы взяли что ваши эмоции — они имеют какую-то необъяснимую природу? :) Я убежден, что пока человечество до конца эту тему не раскурило, но в будущем однозначно будут какие-то девайсы, технологии, которые позволят вам испытать абсолютно любую эмоцию. Главное, понять саму физику/химию/механику возникновения оных. Думаю, что когда работа человеческого мозга будет изучена полностью, будут и не такие технологии. И вы вообще, Вы уверены, что эмоции от вашего эмоционального срыва тогда — были именно Ваши? Философский вопрос, да? Если его покурить, тогда уж и второй вопрос следует задать — наши мысли, откуда они рождаются? Кто или что их генерит? Вы читаете эти строки и не знаете какой будет Ваша следующая мысль. Вы управляете своими мыслями? Если вы задумаетесь по серьезному, возможно, придете к такой идее — а не являетесь ли вы абсолютно совершенной машиной, созданной каким-то для нас пока не постижимым интеллектом? Да, не — фигня какая-то, да? :) Так может именно такую эмоцию — отрицания этого факта, в Вас и заложили? Не? А если Вы правда машина — какова цель создания? Какую функцию Вы выполняете? Кому она нужна? Для чего Вас вообще создали? Кстати, а алгоритмы Вашего осознования окружающего бытия, и Вас самих в нем — уникальны? Напишите, что думаете.
С тех времен много лет прошло, да и таким макаром на эмоции давно уже не раскрутить) Насчет происхождения — понятно что не собственные, по большей части результат шаблонной реакции на выход сиьуации из-под контроля. Вообще думаю что личность формируемая с детства — суть программа поведения и стандартных реакций, которая дается окружением как необходимый интерфейс социализации. Потом по мере взросления и как следствие осознавания происходящего — она может быть пересмотрена и переработана в каких-то аспектах. Также толчком к пересмотру могут стать какие-то пограничные стрессовые обстоятельства. А другой может и не счесть необходимым что-либо менять, так и просуществует по базовому шаблону до конца.
Попытки выявить суть живой материи, выделить четкую границу где программа, а где жизнь — на мой взгляд провальные. Там сколько ни копай, все можно описать и смоделировать. Причину осознавания себя наверное невозможно ухватить. Также как и эмпатию, причины почему одни близки, а вот другие нет. Поэтому либо всё ясно, либо полный тупик.
Ну во видите, до чего Вы дошли? :) Либо все ясно, либо — нет. А теперь давайте задумаемся вот над чем: как мы можем рассуждать на тему — будет ли ИИ добрым или злым, если мы понятия не имеем — а сами то мы не являемся результатом работы того самого ИИ? Можно ли принимать хоть как-то рассуждение одной сущности по отношению к другой, если исходная сущность не знает — реальна ли она, или симулируема, но в то же время утверждает, что вторая сущность — искусственная и добрая?
С самими как раз ясно и понятно — добро и зло гнездятся в рамках базовых программ. Злодейство и порочность — следствие отрицательной и противоречивой внешней среды, зависимостей, психотравм, наследственности. К непостижимой тайне жизни не имеет никакого отношения. Поэтому в том что ИИ не унаследует дурь и порочность человечества — уверен на все сто процентов.
К цитате: "С самими как раз ясно и понятно — добро и зло гнездятся в рамках базовых программ"
Приведу простой пример: идете вы по улице, а на встречу вам мужик. Внезапно мужик бьет Вам в табло. Вы падаете, ломаете руку. Через 5 минут приезжает скорая и увозит Вас в больницу. Ваша базовая программа оценки действий мужика выдаст — злодей? Или вы будет считать его добрым? :)
Если я — мастер айкидо и в падении-увороте ломаю руку ему: могу и добрым посчитать, как же, такую классную практику на ровном месте подарил.
Весьма надуманный искусственный пример. Подобные используются в притчах на тему относительности добра и зла. Типа сломали руку, попал в больницу — зато избежал чего--то более фатального: встречи с коллектором или кирпича на голову.
Совершенно верно. Но почему надуманный, и тем более — искусственный? Более того — Вы так и не ответили? А вопрос жизненный не в ключе "дать табло", а в моменте — "добро и зло гнездятся в рамках базовых программ". И коли вы знакомы с этими дзен-притчами, то наверное, понимаете — что находясь в текущем моменте, Вы не можете объективно окрасить какое-то событие в "добро/зло", "хорошо/плохо", "черное/белое". И возвращаясь к первоначальной теме о "добром ИИ", который "не унаследует дурь и порочность человечества", можно сформулировать тот же вопрос — "дурь и порочность для вас/человечества" является ли аналогичным понятием с аналогичной окраской и смыслом для ИИ? Некие, как утверждает автор, общечеловеческие цели будут ли является таковыми для ИИ? Можем ли мы, люди, это утверждать, если порой (да и не порой), у нас на одно и тоже событие разные эмоции/разное восприятие/разная оценка. Уже сейчас задаются вопросы об автомобильном автопилоте — кого принести в жертву — водителя или вон_того_парня, если по мнению опять же ИИ, фатальный конец не избежен и т.д.
В свете всего выше сказанного, мне кажется (мое личное мнение, безусловно субъективное), что даже заложив какие-то ну совсем гуманные цели, великие общечеловеские принципы, розовое пушистое добро, при обязательном условии саморазвития и само-совершенствования ИИ, а также многократном превосходстве в вычислительной мощи, вполне возможно что руководствуясь вот те ми самими принципами, оценками, той нашей системой ценности, которая нам покажется совершенно правильной и человечной, ИИ придет к выводу что гуманнее для нас, человеков, изничтожить как вид живых существ. Или же, полностью нас модифицировать до состоянии овощей, чтоб ему было проще нас опекать, контролировать, обезопасить от 100500 болезней и т.д. И она, разумная машина, будет это делать на основе тех самых "заветов Ильича", или какого-то базового свода правил. Вполне возможно, что поведение машины будет порочней всего поведения человечества за всю известную историю существования. Просто машина считает, что это не порочность, а с учетом прогноза на 386 тыс.лет — оптимальная стратегия само-совершенствования. Или направив небесный камень в темечко вон той вороны, она — летя камнем у низ, заденет вон ту ЛЭП, которая в свою очередь обесточит вон ту линию, на которой хостится вон тот родильный дом, в которой уже выведен из строя запасной генератор, и все это сделано для того, чтобы не дать родится вон тому парню, факт которого ИИ уже промоделировал за миллиард лет до его рождения, но за это время он (ИИ) понял, что ошибся, и таким образом — исправляет эту ошибку. Причем, если мы будем оценивать ИИ сейчас — то получается, он убийца какой-то.
Вообщем, кажется, это можно играть бесконечно :)))
Насчет опеки и целесообразности перевода в состояния овощей — уже многократно обсуждалось. Здравомыслящий интеллект на это не пойдет, а дауну нежелательно давать рычаги влияния. То же самое и о дальнодействующей перспективе: самоанализ и самоконтроль вероятности ошибки неотъемлимая черта интеллекта. Поэтому как повлияет тапок прилетевший в лобовое стекло на ситуацию черз сто тысяч лет — всерьез никто не будет заморачиваться, т.к слишком велика флуктуационная ошибка.
Насчет принципиального вопроса «быть или не быть ИИ» — думаю тут без вариантов «быть», т.к. у человечества давно уже нет выбора. Ну или как назвать когда выбор между точно деградировать и сдохнуть, и появлением каких-то шансов поменяться к лучшему.
Жаль я не могу цитировать :)
"Здравомыслящий интеллект на это не пойдет"
"Здравомыслящий" же с человеческой точки зрения? Кажется вошли в рекурсию.
"Поэтому как повлияет тапок прилетевший в лобовое стекло на ситуацию черз сто тысяч лет — всерьез никто не будет заморачиваться, т.к слишком велика флуктуационная ошибка."
Если позволите, закончу ваше предложение. "Слишком велика флуктуационная ошибка" в НАШЕ время. Когда-то и предсказание погоды — было магией. Однако прошло некоторое количество времени, и представление об этом изменилось. Уже нет вопросов о том, что погоду предсказать нельзя. Вопрос в точности и долгосрочности.
По аналогии, если предположить, что вычислительная мощность ИИ увеличится в пока непостижимое нам количество раз, и просчет всех вариантов удара тапка в лобовое стекло на 100 к лет вперед, выполнится за 1 мс, то скорее всего наше мнение и на этот счет тоже изменится. Более того, если есть не нулевая вероятность того, что это уже когда-то произошло, то логично (или нет?) предположить, что тот мир, который известен нам, ничто иное как результат работы такого интеллекта. Пока мы не можем обнаружить дискретность нашего мира и пока вроде как наше пространство непрерывно, мы считаем что "не сынок — это фантастика". Но раньше и молния считалась результатом гнева бога Перуна на людей :) И потом, наше представление о симуляции соответствует… эээ… нашему представлении о симуляции! (спасибо, Кэп, да). Возможно мы еще не дошли до уровня понимания настоящей симуляции.
Весь вопрос в том — а зачем человек вапще нужен в этом мире? Так или иначе любой фундаментальный вопрос приходит сюда? Ради чего человек прошёл через средние века, промышленную и индустриальную революцию, придумал себе технологических помощников, придумал и создал ИИ? Ради чего это всё было? Есть бесконечное множество философских идей на этот счёт, но мне нравится думать, что нет никакой глобальной идеи, нет плана, нет смысла в существовании человека. Просто нет, и всё. Мы — случайно появившиеся на этом свете особи, и каждая особь сама для себя решает, зачем оно всё. Кто-то решает потерять своё личное мнение, раствориться в массе, в идеологии, созданной кем-то другим. Кто-то желает сам создать такую идеологию. Кто-то ищет плотских развлечений, а для этого ищет власти, денег, а как обретёт желаемое — останавливается на пике, потерянный и одинокий, без цели и смысла. Кто-то всю жизнь идёт за мечтой, собственноручно созданной идеей, может обрести последователей, соратников, почитателей, послушников, учеников, а может всю жизнь пройти в одиночестве. Каков бы ни был мир вокруг — люди сами поймут, как им в нём жить, а придумывать что-то заранее — бесполезно, всё равно не сбудется. Мы можем лишь постараться, чтобы этот мир был более удобным, красивым, функциональным и совершенным с нашей собственной точки зрения.
Спасибо, что написали такой развернутый ответ :) Вы знаете, если именно в таком ключе рассматривать бытие, то я думаю — что случайности, как таковой, не существует. Мы — не результат действия теории эволюции, т.к. если это так — тогда нужно очень многое объяснить. А начать эти объяснения вообще с азмъ есть буки: зачем обезьяна слезла с дерева и в конечном итоге стала писать стихи? Ээээ… как там у нас по классике? Бананы кончились на пальмах, а внизу забурлила красивая успешная жизнь, и мне как бы туда уже пора? Я думаю такие как мы есть — мы и были созданы, даже не важно как. С какой целью — это хороший вопрос, и у меня, конечно, нет ответа. Но по каким-то косвенным признакам мы можем немножко восстановить эти цели. Напр., ожирение. Бич второй половины XX века. Как правило, основная причина — много кушать, мало двигаться. Можно попробовать мало кушать. Но всю жизнь же мало кушать не будешь? Значит надо кушать нормально и больше двигаться. Больше работать физически. Если мы начинаем иметь умеренные физические нагрузки, ожирение пропадает и все сопутствующие болявки могут либо тоже как-то под исчезнуть, либо их пагубное влияние уменьшится. Значит, конфигурация нашего тела, создана изначально для физической (не умственной) работы. Далее. Вот основная масса из нас — постоянно сидит на стульях или креслах, за компьютером. Особые крутяги с картинок — лежат у гамаках, капсулах, даже стоят может быть… не суть. И от такой сидки у нас начинаются проблемы с шейным отделом, позвонком. Начинаем сутулится. Получаем +1 какую-то болячечку, которая в свою очередь делает нам -1 в отведенном времени. Значит, изначально наш организм не предназначался для постоянной отсидки. Опять приходим к мысли: движение — жизнь. И видимо именно для этого нас сконфигурировали именно так, как есть. Для какой-то физической работы связанной с движением. И мы для этой работы, при всех равных, подходим оптимально. Понятно, что в первоначальный замысел мы уже и сами вмешались своими добрыми делами: портим экологию, травим нашу планету, изничтожаем себя подобных и т.д., и вроде кажется — что все как-то хаотично. В конце концов, когда счастливчики увидят грибки из окон, красиво подымающиеся к небу, мы откатимся к какому-то бекапу. И опять пару-тройку тысяч лет будет орудовать палками-копалками и изобретать колесо. Возможно, человечество уже миллионы раз доходило до какой-то точки невозврата, и обнулялось. Может в этом и есть смысл нашей симуляции — ИИ хочет понять, мы все таки хоть раз, сможем пройти точку и остаться живыми или нет?
И видимо именно для этого нас сконфигурировали именно так, как есть. Для какой-то физической работы связанной с движением.
И взял Господь Бог человека, и поселил его в саду Едемском, чтобы возделывать его и хранить его. (Бытие 2:15)
Садовник — весьма физическая работа, определённо связанная с движением.
Мечта о волшебной палочке, которая выполнит любое желание по моему вечна и вездесуща. Знаете как будет выглядеть человечество если разработать ИИ и поставить ему задачу «сделать всех людей счастливыми» (взяв за эталон счастья нечто среднее): аморфная масса свободных веселых сытых безработных идиотов, без желаний и проблем и постоянно под кайфом (чтобы уже наверняка, а то вдруг у кого депрессия от скуки начнется) и пристегнутых к кровати в мягких комнатах, чтобы не поранились случайно.

95% людей (ну да правило 95% но точно никто не скажет) не хотят работать, изучать новое, развиваться, упорно и тяжело продвигать науку и другие области. Если сильный ИИ сможет заменить человека в какой-то области (а он может и во всех, просто по определению), максимум на что можно расчитывать это что в первые годы люди будут «баловатся» работой. Возможно в первом поколении будут доли процента которые все же будут учится и развиватся и работать потому что интересно, может останутся какие-то ретрограды которые уйдут в леса, но через пяток поколений все это размажется и картина будет как выше описал. Это действительно реально. Мы тупо социально и психологически не готовы к халяве такого масштаба.
Если бы это было не так, зомбоящик не имел бы такой силы, в универ бы шли не потому что «так положено» и случаи когда в университет идет человек за 40 потому что захотел сменить профессию были бы не единичны а постоянны, не нужны были бы kpi и прочие системы мотивации, дети не воспринимали бы школу как обязаловку, да и система оценок была бы не нужна. И это только краешком задел. Вот когда решим такие глобальные перекосы в мотивации и целях, избавимся от лени (биологический механизм между прочим) и жажды халявы — вот тогда можно и универсальную волшебную палочку делать без 100% шанса деградировать от ее использования.
Думаю вы путаете пичину и следствие. Деградация — не более чем индикатор нездоровья социума, основанного на диктатуре, страхе, лжи, эксплуатации людей. Бессмысленность существования, аркотики и депресняк в нем неискоренимы — не даром повсеместно тонны спиртосодержащей наркоты в шаговой доступности. А вспомните короткий, но незабываемый период в 90-х, когда демократия и свобода уже проклюнулись, а мафия и разруха еще не наступили. Какие живые были лица у людей, и какое ни с чем не сравнимое ощущение подлинности и осмысленности жизни! Сейчас конечно и представить даже трудно.
Законы робототехники — это конечно хорошо, но:

1. Если ИИ попадет в мои руки и будет эмулировать мою модель мышления, то в первую очередь он будет блюсти мои личные интересы, а законы робототехники будет соблюдать в достаточной мере, чтобы не палиться. То есть, будет следовать принципу «если никто не видит, то немножко можно». И это при том, что я далеко не самый плохой человек на этой планете. А если попадет в руки деревянных военных, тогда жопа обеспечена.

2. Помнится история об одном талантливом, но гордом программисте, который написал драйвер под дорогостоящий станок и продемонстрировал его работоспособность. При этом он сообщил руководству завода цену за свои услуги и запретил использовать драйвер в коммерческом производстве. Хитрое руководство, убедившись, что станок работает, решило не расплатиться с программистом и отдало распоряжение запускать его в коммерческую эксплуатацию. В первый же день станок сгорел. Когда представители поставщика станка начали разбираться в чем дело и пересматривать исходный код драйвера, нашли в нем инструкцию, которая после N-го запуска станка повышает напряжение на процессоре, и рядом комментарий: «если этот код сработал, значит они меня не послушались».

PS: возможно эту историю я на ГТ и читал. Суть ее в том, что пока есть гордые люди, нельзя быть уверенным, что алгоритм работает именно так, как он описан.
А меня в возможности создания ИИ больше пугает то, что как только он научится самосовершенствоватся, никто не будет понимать как он устроен. А при том что он будет делать любую интеллектуальную работу лучше и дешевле людей — люди могут потерять интерес к такой работе. Как результат мы будем иметь что-то вроде неподвластного пониманию божества, несколько «жрецов» которые могут хоть как-то объяснить его действия остальным 95% людей, что бы те вдруг не пошли на него с факелами и вилами в приступе религиозного фанатизма.
Когда начали распространяться счетные калькуляторы, которые даже без программирования — тоже кое-где была паника на тему куда девать огромный штат высоко квалифицированных кадров. Со временем всё утряслось, и уж точно не стало хуже… А насчет ЭВМ так вообще слово в слово — думали на весь мир пяток машин достаточно. Но оказалось вона как… Большая часть населения не понимает как они работают, тем не менее используют вовсю и не парятся.
Вы человек причастный к программированию и компьютеру, понимаете как всё работает и устроено.
А существуют люди, которые верят в "богоподобность" машин и это не старики, а молодое поколение. Тобишь, считают, что компьютер им талант и интеллект прибавит, стоит лишь нажать на кнопочку.
Вы по комментариям смотрите как-то однобоко, будто все хотят саморазвития и уже априори умные. Хотя цель нашего мозга — сократить энергетические расходы, и у кого-то это получается лучше (это не к вам относится =).
Меня вот не пугает, восстание машин по типу «Терминатор». Больше беспокоит замещение человеческого труда роботизированным.
Да, робот это всего лишь инструмент, но этот инструмент все больше вытесняет человечески труд. Если бы мы жили в более совершенном мире, то можно было бы только порадоваться, тому, что человечество освобождается от труда и приближается к всеобщему благосостоянию и процветанию. Но ресурсы нашей планеты исчерпаемы, технологии несовершенны, социальное неравенство никто не отменял. А потому существует опасность, что плодами роботизации будут пользоваться лишь привилегированные слои. Для остальных же роботизация не сулит в ближайшем будущем ничего хорошего. Ресурсы уже по сути не принадлежат населению Земли, с чего бы вдруг те кому они по факту принадлежат расщедрились и начали раздавать безработному населению.
Возможно эту проблему успеют решить, например освоением космоса, либо более эффективным использованием ресурсов. Посмотрим…
Такого «восстания машин» точно не будет, это не рационально, для такого высокого разума. Скорее это будет похоже на миг. Вот вы живете и бац вы уже чья-то марионетка, вас «перепрошили» на выполнение нужных задач или просто уничтожили. Противостоять этому будет невозможно…
П.С. Разве что если сделать шляпу из фольги =))
Меня в ИИ больше пугает, что его не смогут создать в ближайшем будущем. начать писать статьи на эту тему чтоли)
Главное не называть созданный человеком интеллект искусственным, а то может обидеться и убить всех за расизм)
Говорят, что когда-то на Земле жили боги, и где же они сейчас? Это я тем, кто считает себя «венцом творения»…
Чтобы ответить на Ваш вопрос, надо понять — как появились эти "боги" на нашей планете. С какой целью они пришли, с какой целью нас создали. И кстати, хорошо бы ответить на вопрос, кого мы считаем "богами, жившими на когда-то на Земле"? Напр., если рассмотреть ту самую пирамиду, можно ли сказать, что ее построили "боги"? Или нельзя? А если можно, не получилось ли так, что те технологии — безвозвратно утеряны и забыты, но все таки построили ее обычные человеки? Или же вообще пирамиду построили люди, но той техники уже нет? Или есть, но мы ее никак не найдем? :) Вы сами что вкладываете в понятие "богов, которые жили"?
А ещё говорят, что Атлантида правда-правда существовала.
Еще говорят что уровень мирового океана постоянно-постоянно растет.
Почитал комментарии. Такое ощущение, что для многих искусственный интеллект это волшебная палочка, которая «оно само как-то работает».

Настоящий искусственный интеллект это полный аналог естественного интеллекта, с возможностью влиять на отдельные процессы и параметры. Цель его создания — получить помощников. Помощников, которые смогут выполнять задачи аналогично человеку, но которых при этом можно полностью контролировать, и которым для функционирования не нужно ничего, кроме электричества.

«Полный аналог» означает, что в некоторой ситуации ИИ будет поступать так же, как поступил бы человек, будет анализировать данные по таким же принципам, как это делает человек, неважно эффективнее или нет. Это не математический алгоритм, который ищет корреляции в наборе чисел.

Для создания ИИ нужно знать принципы анализа данных, принципы взаимодействия нейронов. Поэтому если конкретный экземпляр ИИ начнет себя вести странно или непредсказуемо, можно взять отладчик, найти причину и исправить. В случае с биологическим интеллектом это сделать невозможно.

Для обучения ИИ человеческим ценностям можно специально ввести эмоции, любую эмоцию вполне можно эмулировать отдельным счетчиком уровня этой эмоции с положительной или отрицательной связью. Для выполнения конкретных задач часть эмоций можно отключить, установившиеся нейронные связи между понятиями никуда не исчезнут.

Поэтому ИИ это не волшебная палочка, у него есть свои законы функционирования. Также есть законы физики, которые никакой интеллект обойти не в состоянии, ни искусственный, ни естественный.
Sign up to leave a comment.