Pull to refresh

Comments 142

Для меня главный аргумент в сторону искусственного интеллекта:
человек — система с конечной сложностью
Для меня главный аргумент «против» — человек это система с бесконечной сложностью т.к. ее нельзя рассматривать отдельно от мира.
т.е. если его поместить в искусственную среду он перестанет быть разумным?
Да. Как мы помним, реальных «маугли» выращенных животными, особо разумными не назовешь.
А если убрать еще естественную среду обитания (еду, воздух, солнце, микроорганизмов) будет совсем плохо.
Человек — открытая система, непрерывно обменивающаяся с миром очень большим потоком информации.

Очень большим, но конечным.
На человека никак не влияет то, что находилось на момент его рождения на расстоянии больше 200 световых лет от Земли:)
Зато влияет то, что находилось на этом расстоянии на 200 лет раньше его рождения :)
Ну да, но влияние косвенное.
Шар с центром «места рождения человека» и радиусом 200 световых лет содержит конечную систему. А внешность этого шара никак на человека не влияет.
Я вот молекулярной биологией в последнее время занимаюсь. Чтоб смоделировать с большой долей упрощения поведение одного небольшого белка одного простейшего вируса в течении 20 наносекунд требуется неделя расчетов компьютера мощностью терафлоп (Tesla 2050).
Простирается ли жизнь глубже молекулярного уровня — мы не знаем. Но даже на этом уровне все слишком сложно, чтобы смоделировать.
Если взять классическое информационное определение души Фомы Аквинского (душа — форма тела т.е. информация о положении и взаимодействиях его частей) то объем этой души будет далеко не терабайты, а сильно больше, т.е. человека пересадить на другой носитель вряд ли получится.
Если же упростить в триллионы раз и отделить от окружающей среды — будет ли это человеком?

Наверное, люди смогут воспитать искусственный разум «по своему образу и подобию» пользуясь естественными носителями — получилось же довести в общем до разумного состояния человекообразных обезьян, научив их языку глухонемых. Но вот в разум в компьютере я не верю.
Так может просто Фон Неймановская архитектура не подходит, будут квантовые компьютеры — будет все ок?
Как программировать такой объем?
А стоит? Я полный профан в биологии и ИИ (собственно говоря, мой предыдущий комментарий был вопросом), но может получится воспроизвести эволюцию в ускоренном виде? Тот же простейший вирус был не всегда, это «продукт» фабрики эволюции.
Я про это и говорю. Тогда это воспитание получается естественной сложности системы в нужном направлении.
Может, проще детей воспитывать? :-)
Детей воспитывать тоже можно :-) Я к тому, что в качестве «сосуда разума» необязательно должно быть биологическое тело, со всеми вытекающими отсюда недостатками. ИМХО сгодится и компьютер не на Фон Неймановской архитектуре.
Может быть. Но воспитывать его придется все равно, как ребенка.
Лучше и вправду патчить днк. Да это очень опасный процесс — но это все равно будет безопаснее.
а ниче, что потом можно скопировать уже выращеного?
Безусловно, это всё очень сложно, и смоделировать 10^55 кубических метров на уровне квантовой физики — задача скорее всего неразрешимая в рамках нынешнего подхода.
Но всё же нужно отличать очень большую сложность от бесконечной:)
надо смоделировать только объем черепной коробки. а обучение пусть идет в реальном мире.
Маугли разумным назовешь со 100% уверенностью.
Введите критерий разумности — и вы увидите, что Маугли выбирал свои действия абсолютно разумно)
Любой сложный алгоритм или машина работают в рамках мира. Живые существа делят всё на две части — «Я» и «всё остальное». То есть алгоритм или физическая машина, каким бы он не был сложным — остаётся алгоритмом. В природе так действуют вирусы и клетки организма, каждая из которых по сути сложнейшее устройство, но самоосознание находится выше. Не могу нормально подобрать слова к тому что хочу выразить. Если бы мы были просто сложными машинами, то мы бы могли ходить, есть, пить, размножаться, но у нас бы не было «себя», вот где-то тут прячется что-то неразрешимое. На мой взгляд интеллектуальные системы однажды будут строить роботов вокруг живых существ типа крыс.
Не всё так просто, самый главный камень преткновения это всё-таки далеко не эмоции, которые всё-таки относительно понятны.
Попробуйте заставить ИИ сотворить что-то новое или совершить великое открытие или даже просто написать литературное произведение.
Но самое то сложное — попробуйте мне реализовать в ИИ сознание! Вот это самый самый непреодолимый барьер! После него уже можно будет говорить о новой форме разума и даже жизни.
ЗЫ
В Фальшивых зеркалах была самообучающаяся программа, которая сражалась с тысячами игроков, и в конце-концов она опустила оружие и задала один простой вопрос «Кто я?». Именно этот вопрос является первым вопросом настоящего Искусственного Интеллекта.
Согласен — главным индикатором интеллекта должно являться сознание. НО! Можно ли отличить реальное сознание от его имитации? Быть может, имитируемое программой сознание является настоящим сознанием? Возможно ли в принципе создать у программы реальное осознание собственного Я и своего существования? Вот тут ИИ упирается скорее в этические и философские вопросы, а не в технические.
Судя по тому, что люди спокойно общаются с ботами и не находят ничего странного в их поведении (именно поведении, а не словах), сложность в определении имитации сознания как раз имеет место быть.

А у вас есть надежный способ определить наличие сознания у сущности?

Может быть, у вас есть еще и определение сознания?

А, может быть, у вас есть список сущностей, которые сознанием обладают?
Проблемы тут скорее с терминологией, мне слов не хватит, чтобы описать эти сущности.
Но лично для себя мы легко можем различать те состояния, в которых у нас есть сознание от тех, когда его нет, так ведь?
В отсутствии сознания человек тоже способен на достаточно сложные вещи, между прочим.
Ну вот возьмем фазу медленного сна, когда сознания точно нет, на лунатизм человек вполне способен, но сознания у него в это время нет и он не помнит, что с ним было, хотя при регрессивном гипнозе можно всё это из него вытянуть, то есть в памяти это всё есть, но режим работы мозга другой. В состоянии без сознания восприятие времени тоже другое, а точнее его нет.
Чисто субьективно можно разделить состояние, когда у нас есть сознание от состояния, когда у нас его нет, но со стороны это иногда сделать куда сложнее. Многих если среди ночи что-то спросить на автомате ответят и без участия сознания.
Попробуйте заставить ИИ сотворить что-то новое или совершить великое открытие или даже просто написать литературное произведение.

Он может отложить шедевральный кренделек в унитазе… Такая себе креативная инсталляция, в пику этой наглой белесой безжизненной морде
Эх, никто не понял шутки юмора и комичности ситуации. Искусство часто обретает свои границы только благодаря личности. Любой, даже ребенок может нарисовать квадрат Малевича, но только один художник довел суть авангарда до абсолюта. Поэтому в вашем исполнении крендельки могут не пользоваться успехом у публики, но если это сделает та же Леди Гага или Мерелин Менсон, шума будет поднято неслабо. Какая разница между вами и ними? Всего лишь в количестве поклонников.
А как вы разделяете сознание и интеллект? По каким критериям?
Вопрос «Кто я?» далеко не показатель сознания, потому как даже не все люди его задают.
В случае с мозгом это можно заметить по более активной работе лобных доль мозга. И потом сознание тоже это понятие относительное.
Все это чудесно, но для меня искуственный интеллект — это не система, которая испытывает эмоции, а система, которая изменяет алгоритмы, по которым работает, в зависимости от того, насколько хорошо они помогают в решении поставленных задач.

Насколько возможно, по-вашему, создание такого ИИ?
На мой взгляд, вполне возможно изменить алгоритм A с помощью алгоритма B, а алгоритм B в свою очередь — с помощью алгоритма C, и т.д., но какой-то алгоритм должен оказаться последним (вполне реалистично, так как изменение наших собственных алгоритмов ограничено возможностями тела и упирается в гены) Это сложно реализовать, но ИИ никогда не казался простым :)
Да нет, зачем нужен последний. Алгоритм B будет меняться с помощью алгоритма A, алгоритм C с помощью алгоритма B, а алгоритм A с помощью алгоритма C.
Ну и таких алгоритмов будет конечно намного больше 3.
Возможно, вы правы, и меня попросту пугает перспектива создания программы, не имеющей ни одного неизменного, базового алгоритма.
А меня пугает ООП :) Но это же не повод?
UFO just landed and posted this here
А толку от настоящего ИИ, человеку он вряд ли будет подчиняться, много чести для тормознутых людишек, а так безвольный раб, о каком творчестве может быть речь
Прелесть искусственного интеллекта в том, что он искусственный. Если какой-либо аспект ИИ не позволяет ему выполнять поставленную задачу (к примеру, он попросту отказывается ее выполнять), логику поведения можно изменить. Человек научился подавлять/возбуждать те или иные особенности своего собственного разума, что уж говорить об искусственном?
Зачем ИИ эмоции? Да и эмулировать базовые не так и сложно.

Проблема больше в реакциях на что-то совершенно новое, а так же в создании чего-то совершенно нового.
Эмулировать несложно. Простейший вариант — менять числовые значения переменных в зависимости от определенных происходящих вокруг ИИ событий. Сложнее создать алгоритмы влияния эмоций на действия интеллекта, причем не только на действия, а вообще на все происходящие в нем процессы.
Потому что человек закрепляет информацию в большинстве случаев при обязательной привязке к эмоциональному всплеску. Вы не сможете вспомнить, что было 17 дней назад, только если в это время с вами не происходило ничего хорошего или плохого. В противном случае вы быстро восстановите контекст именно по эмоциональному фону. Это такой себе индекс. Опять же, закрепление долгосрочных поведенческих моделей идет в привязке к эмоциям. Повспоминайте самые приятные моменты, самые волнующие, самые неприятные. Попробуйте вспомнить теперь свой первый школьный стих.
У ИИ особых проблем с памятью быть не должно в принципе. А поведенческие подели закрепляются на основании успешности/не успешности, что является стандартной практикой при создании нейросетей.
Без эмоционального окраса, только на чистой логике, ИИ быстро придет к выводам, что человечество нужно уничтожить.
Потому что мы являемся прямой угрозой ИИ. Но, так как нет эмоциональной привязанности «ребенка» к «родителям», то мы не будем для него ничем важным, скорее наоборот.

Допустим, человеку подарили iPad 3. Для ИИ без эмоций это будет записано как обладание еще одной вещью, не более того. Для человека это приобщение к чему-то важному, это позитивные эмоции, это новые возможности. За iPad человек готов убить (были случаи). Если бы мы смотрели на гаджет как на предмет первой необходимости, то такое поведение было бы понятным, но от обладания девайсом у нас ничего особо не меняется, кроме как эмоционального фона. Но этот эмоциональный фон подвигает нас на свершения или добавляет социальную важность, что снова таки влияет на наши эмоции.
Для этого у ИИ должен быть инстинкт самосохранения, чтобы он считал нас чем-то опасным.
Инстинкт самосохранения как раз и приведет к плачевным для нас выводам. ИИ не имеет способов защиты от нас, мы можем в любой момент его выключить. А значит нужно сделать все, чтобы этого не произошло. Наиболее выгодный вариант — полное уничтожение человечества, или же его порабощение.

Сайлоны как раз пришли к первому выводу. Мы слишком для них опасны, сам факт нашего существования ставит под угрозу их жизнь.
Значит жизнь человека должна стоять выше в списке его приоритетов чем собственная, вот и все. На самом деле мало смысла обсуждать такие далекие проблемы, но, думаю, если у нас будет ИИ, программисты что-нибудь придумают с ограничениями.
Которые можно будет обойти — смотри комментарии выше об изменяемых алгоритмах.
Ну это если у него он есть, инстинкт самосохранения. Что совсем не обязательно. Людям как живым существам он нужен для сохранения вида в дикой природе, основная и первичная цель человечества выжить, перед ИИ будут стоять другие цели. И даже если есть, вы слишком мало параметров учли, возможно ИИ готов пойти на риск быть выключенным (он оценивает его достаточно низким) зато получить другие преимущества наверняка. Ну и вспоминаем о камикадзе и прочих шахидах, для них цель важнее жизни, если уж человеку умудрились так мозги промыть, то машине…
Эмоциональный окрас и есть чистая логика, когда применяется к ИИ. Как еще то? У компьютера гормонов нет.
Мозг — электрохимический котел. Без эмуляции химических процессов ИИ будет неполноценным.
Неполноценным чем, неполноценным человеком? А зачем?
Проще всего определять наличие ИИ
Я в соседней теме писал, что считаю, что алгоритмический ИИ невозможен и для реализации ИИ нужна другая архитектура)
Без эмоционального окраса, только на чистой логике, ИИ быстро придет к выводам, что человечество нужно уничтожить.


без эмоций он не способен чувствовать угрозу, он апатичен полностью и начнет убивать только если кто-то заложит это как безусловный рефлекс
Могу привести пример, когда человек, получая информацию, может логически вывести угрозу, без эмоций. Вы летите в самолете, вам приносят записку, что у него отказали двигатели. Вы знаете, что самолеты без двигателей падают и разбиваюся, количество выживших часто равно нулю. Значит вы тоже с высокой вероятностью умрете. Никаких эмоциональных всплесков, все выводы можно сделать исходя из накопленных знаний. Теперь, получив такой вывод, нужно сделать следующий вывод, что будет при смерти ИИ? Будет прекращено накопление знаний, что является негативным эволюционным развитием, значит нужно улучшить те алгоритмы, которые непременно приводят к успеху, а фактически — постараться выжить.

Да, здесь две вещи интересуют. Каким образом появляется новое и что движет(не берем в расчет биологические стимуляторы) в его поисках.

p.s. Природа человека постоянно заставляет прыгать выше головы. + к созданию ИИ. Тут без сомнений.
Помните старую хорошую фразу?
«Всё новое, это хорошо забытое старое».
Так вот механизм «креативности человека» в чем-то похож. Он создает новое комбинируя параметры старого, строя аналогии, проекции и т.п.
Второй момент это использовать уже знакомых закономерностей (даже из смежных областей), для построения/открытия аналогов в других областях. Соответственно эффективные модели становятся «открытиями». Немного об этом написано тут.
Вспомните как человек например «учился летать», пытался имитировать полет тех, кто уже летает.
Вполне банальный алгоритм, который можно реализовать в машине.
Единственное препятствие это аналогичный человеческому «классификатор» опыта по сенсорным и временным критериям. И тут у машины есть значительное преимущество, потому его спектр знаний при поиске нового может быть значительно шире (например восприятие ИК и магнитного излучения).
Я вот пока вижу всю эту теорию, что машины якобы круче, но пока ни одного серьезного открытия они самостоятельно не добились.
«Самостоятельно»?
Ну во-первых полноценные «самостоятельные машины» это пока еще фантастика. Во-вторых если всё же немного расширить понятие самостоятельности, то можно сказать что машины сделали немало открытий, например открытия «хаббла». Конечно их создали люди, и по сути открытия были сделаны людскими алгоритмами.
Но не вижу никакого препятствия в том, что по мере развития этих алгоритмов в один из моментов мы сможем сказать что машина сделала открытие «самостоятельно».
Тогда еще усложно задачу: не просто решить какую-то проблему, а в добавок её ещё и поставить!

Препятствия есть: фон Неймановская архитектура она последовательная, даже если имеется 100500 ядер, это все равно слабее в любой параллельной задаче, чем один мозг. Нужны как минимум квантовые компьютеры, причем мощные, а не на пару кубитов. А их пока нет и видимо не будет.
Для того чтобы поставить задачу, нужно сперва иметь нерешенную задачу, а для этого нужно иметь какую-то потребность. Ничего не мешает сделать программу, которая будет иметь определенные потребности, и соответственно которая должна заниматься поиском их удовлетворения. Например «Произвести оптимизацию процесса на 5%». Вполне себе нормальная задача.

Разница лишь в том, что все «задачи» человека связаны напрямую с его психикой, в частности с потребностью в выживании, или же например с амбициями. Аналогичное же может быть реализовано и в машине.

Касательно препятствия в последовательной архитектуре фон Неймана, то объясните пожалуйста в чем именно проблема. Желательно на примере. Где именно последовательные исчисления не способны реализовать те же алгоритмы, которые используются человеком?
Пока весь известный мне материал напрямую говорит о том, что человек также делает последовательные выводы.
Про вопросы быстродействия речь отдельная, в конце концов распределенные вычисления вполне себе реальная вещь.
Насчет параллельности, вы разве не слышали о том, что накладные расходы растут как квадрат от числа ядер и в какой-то миг просто оказывается, что увеличение числа ядер ведёт к замедлению выполнения задачи?
Про последовательные выводы скажу прямо, что это не нативный режим работы мозга и для мозга он крайне медленный.
Так и не увидел причину «препятствие». Что сложность возрастает — да, но это не делает задачу нерешаемо.
Насчет параллельных вычислений имелось ввиду не добавление числа ядер, а создание горизонтального масштабирования.
Не кажется ли вам, что сложность при которой это будет работать со скоростью к примеру 0.001 от обычного интеллекта это решение задачи?
Хочу еще заметить, что человеческий мозг в любой момент времени имеет полную модель всего мироздания и общается он именно с ней, а не с миром напрямую, а уже поступающие в реальном времени данные от органов чувств обновляют эту модель.
Но видим мы именно эту модель перед глазами! И у всех вместе взятых суперкомпьютеров не хватит производительности чтобы эту модель в реальном времени обсчитать. А мозг умудряется еще и сны видеть в реальном времени, когда органы чувств переведены в сторжевой режим и не обновляют эту самую модель.
А какая проблема в обработке сигналов, поступающих с камер, микрофонов, акселерометров и других «органов чувств»? Конечно, для имитации человеческого восприятия понадобятся огромные вычислительные мощности, но не такие недостижимые, как вы пишете. В скором времени, с появлением квантовых компьютеров, это станет доступно и рядовому потребителю
Без квантовых компьютеров это в принципе не достижимо. Фон Неймановская архитектура здесь не справится в виду своей последовательности
А с чего вы взяли что «человеческий мозг в любой момент времени имеет ПОЛНУЮ модель мироздания»? Человек в каждый конкретный момент времени концентрируется только на 1 (ну может нескольких) вещах, и видит его образ. Вы не рассматриваете каждый пиксель букв в этом сообщении, вы «осознаете» буквы или скорее целые слова. И в момент прочтения этого слова вы «не видите» другие (ну если вы не освоили скорочтение). То же самое в видео и аудио потоком данных, где то чирикают птички, но вы обрабатываете активно только речь собеседника, или не обрабатываете, а смотрите в код, в телевизор или просто думаете о своем. Если обрабатывать только нужные ИИ данные (например при управлении автомобилем ИИ нужно получать информацию только о параметрах дороги, и габаритах и скорости объектов на ней (ну и еще десяток-другой параметров, но не тысячи)), на цвет неба или особенности архитектуры зданий ему плевать.
Потому, что то, что ты в каждый момент времени видишь перед глазами это МОДЕЛЬ! Она целиком существует, и если мы не можем в определенный момент времени что-то из неё воспринять сознанием, то это не значит, что этой модели нет.
Т.е. вы всерьез уверены что «человеческий мозг в любой момент времени имеет ПОЛНУЮ модель ВСЕГО мироздания», т.е. все что человек когда либо видел (слышал, ощущал, придумал и т.д.) лежит у него в мозгу с максимальной детализацией (доступной глазу например) и доступно в любой момент времени, и проблема только в сознании которое не в состоянии охватить этот объем иформации?

Ну тогда попытайтесь вспомнить все стихи которые учили в школе, или наизусть повторить книгу которую недавно читали.

Или я вас неверно понял?
man регрессивный гипноз, в этом состоянии я тебе что угодно скажу из того, что знаю.
Но вы слишком узко эту модель понимаете, я лишь хочу сказать, что всё, что мы сейчас видим и слышим это не более, чем модель реального мира.
Вот вот, это главная причина на мой взгляд, отсутствие у ИИ доступа к реальному миру. В том объеме, в котором имеет его человек. Если представить робота, которого запустить в реальный мир, как ребенка, чтобы он собирал информацию из окружающего мира и выделял бы паттерны из опыта. Именно такие знания, адаптированность к реальной ситуации невозможно смоделировать, ибо кол-во ситуаций стремиться к бесконечности.
А с чего вы взяли что робот ДОЛЖЕН с рождения уметь понимать мир?
Это происходит в процессе обучения после создания.
А я что во втором предложении написал?
Хочется отметить, что эта единая модель мироздания человеком вычисляется «лениво», а это уже широко распространенная ныне технология.
Нет, она то как раз не ленивая, она как раз полная. Ленивая часть просто отводится под сознание.
Не знаю, откуда вы взяли, что она вот прямо полная, по моим ощущениям она вполне ленивая.
Попробуйте разок такую штуку, как осознанный сон, вызвать. Вы видимо совсем другое под моделью понимаете.
Я не умею, к сожалению, поделитесь годным маном, пожалуйста.
Вызываешь или фиксируешь сонный паралич, потом настойчиво мысленно пытаешься разделиться с телом, возникает ощущение, что ты это делаешь, а потом появляется зрение, слух и ощущение собственного тела. В этом режиме мозг не взаимодействует с реальным миром, а только с его моделью, поэтому можно мысленно свойства пространства вокруг изменять как угодно.
meditation-portal.com/tekhniki-vkhozhdeniya-v-sostoyanie-sonnogo-paralicha/
Эмоции это конечно важно, но мне кажется что камнем преткновения здесь будет организация памяти. Как хранить информацию? Поняв как хранится информация у нас в голове мы сможем куда то продвинуться. Мне кажется что она хранится каким то очень хитрым спосбом. Зрительная, слуховая, память ощущений, образов, опыта и при этом это все переплетено.

Ну и еще одна из киллер фич нашего мозга — абстрактное мышление.
Уж что с человека лучше не копировать — так это память. Забыл почему.
Контекст и случайность.
Почему-то мало рассматривают влияние случайного на почти все процессы в человеке. Люди находятся в мутной среде со сгустками мелких и крупных событий, некоторые из которых игнорируются, а некоторые чудесным образом вклиниваются, кросс-контекстно, и вот шум тормозов машины на улице подсказывает композитору неожиданную идею, а отвлекшись от кода программы на причудливый блик солнца на стене, технарь придумывает новое направление в живописи.
Может, ИИ нужно рассматривать в контексте его взаимодействия с окружением? Клеточные автоматы в рамках своей программы — вполне уже состоявшийся ИИ. То, к чему все стремятся, подразумевает ИИ в контексте нашего мира во всём его многообразии, видимо.
Отдельный, полностью изолированный от среды, человек — в камере сенсорной депривации, скажем — совсем не тот же интеллект, что за столом Что Где Когда во время съемок передачи, среди шума толпы и под давлением принятия решения в команде, за ограниченное время.
В целом вы правы, но не учитываете тот факт, что мы с вами живем в цифровую эру и ныне возможности создания аналогов цифрового восприятия очень широки. Сеть интернет обладает огромным количеством информации, не говоря уже про специально созданные индивидуальные «органы чувство», вроде камеры, микрофона и т.д.
Если человека нужно учить несколько лет читать и писать, то ИИ для этого достаточно программы. То же самое касается любого раздела знаний. Единственное что не получить такой загрузкой, это индивидуальный социальный опыт о котором я писал, копированный не есть индивидуальный. Это и есть одно из ограничений.
В остальном получение опыта вполне возможно.
Все что может в максимуме достичь ИИ это всего лишь создать еще 1 человека и стоит ли ради этого мучаться и изобретать роботов, если есть более приятный способ для появления еще 1 человека? :))
Человек имеет гораздо больше физических ограничений, чем ИИ. Это и органы восприятия (машина может делать новые открытия в медицине за счет поиска закономерностей в ИК излучении тела, анализировать биомагнетизм и т.п.), это и пропускная способность и скорость реакции на поступающую информацию. И время функционирования, и потребляемые ресурсы. Отличия очень существенны.
Люди тоже это умеют. Если говорить об автоматизации, то да, конечно это точно, удобно, вероятность ошибок минимальна и т.д.
И самое главное, особенно в наш век, — это значительно быстрее и имеет возможность расширения.
Интеллект хорошего «ученого», или хотя бы грамотного лаборанта-ассистента не расширишь/клонируешь.
UFO just landed and posted this here
Вы недооцениваете людей. Если они даже к собственному автомобилю или ноуту способны испытывать эмоции, то что говорить про компьютерного помощника, который способен понять вашу речь.
UFO just landed and posted this here
Люди, которые содержат свои сайты/блоги/странички/группы, и относятся к ним как к своим детищам, с вами будут несогласны )
UFO just landed and posted this here
Люди, самостоятельно собравшие свой первый чип, тоже с вами не согласятся по поводу отсутствия эмоций к железяке ))
UFO just landed and posted this here
Тогда давайте определимся, о чьих эмоция мы говорим. Еслим ы говорим о просто эмоции некоего абстрактного человека к абстрактному роботу ИИ из массового производства — то да, никаких эмоций (если, конечно, человек не из Сиона).
А вот если дело касается конкретно конечного пользователя этой модели, который служит тому секретарем, дворецким и т. д., то тут набор эмоций может быть весьма и весьма разнообразен.
Есть люди, которые переживают, когда у них телефоны глючат. Причем — переживают они не за свои упущенные возможности, а как раз за эти самые железки. А уж если эти железки смогут взаимодействовать с пользователем на человеческом уровне… В общем, эмоции будут.
UFO just landed and posted this here
Но ведь все равно в итоге ИИ будет частью устройства. Самое банальное применение ИИ, которое как раз и найдет отклик у потребителей — это та же самая Сири, только теперь уже полноценная. И девочке Маше будет однофигственно, где там в ее телефоне находится эта Сири — на конкретном чипе или везде сразу. Пока будет общение — будет и эмоциональное отношение, вне зависимости от формы.

А делать ИИ, который не будет способен на общение… тогда какой же это ИИ?
UFO just landed and posted this here
проще разобраться в строении днк и патчить людей
Почитал комментарии, забавно, многие хотят создания ИИ для творческих задач. Роботы будут не только автомобили собирать и дома строить, но и изобретать, разрабатывать, заниматься искусством, управлять? А чем человечество то заниматься будет? Ну поесть-попить и личную яхту каждому обеспечат роботы (вопрос скайнета не рассматриваем) а делать то что? Или уступим им место и исчезнем как вид, ну или в матрицу? Я не паникую, я просто не понимаю зачем нужен полноценный ИИ как точная копия человека, с тем же набором имоций, способностью к творчеству, сознанием. Разве что just for fun? Имхо, наиболее востребован будет ИИ способный просто максимально быстро и качественно адаптировать себя под ситуацию, то чем не могут похвастаться «статические» программы. Его можно и в космос запускать чтобы смог правильно отреагировать на непредусмотренную ситуацию, а не ждать когда программисты с земли смогут это сделать с пингом в часы, и в интернет (ну или в конкретные объемы данных) чтобы анализировал произвольную информацию и на многие другие задачи которые сейчас вынужден выполнять человек. Такому ИИ не нужны эмоции (тот набор который есть у человека), сознание (в полном объеме), восприятие внешней среды именно так как это делает человек (я о модели а не о наборе чувств) и многое другое, вообще многое из этого будет только мешать.

А творческие задачи давайте все же человечеству оставим, оно на это довольно хорошо заточено.
С вами можно не согласиться.
«ИИ заточенные под ситуацию» это просто элементы слабого ИИ. То же распознание речи и символов, эвристические системы антивирусов, программы автопилотирования и т.п. Со своими задачами они вполне справляются.
Речь же идет именно о сильном ИИ, которое будет способно решать именно задачи, требующие в большинстве случаев приложение специфических для человека навыков.
Ранее некоторые не верили в то, что машины могут заменить человека на конвейере, но сейчас это реальность. Существует множество профессий, которые при сильном ИИ могут могут быть вполне автоматизированы.
Та же веб-разработка (например верстка и простой код), сильным ИИ вполне может выполняться. Или же системы умного дома, личные ассистенты (их многим не хватает в банальных бытовых делах).
В замене людей машинами всегда есть ряд существенных компромисов (например потеря рабочих мест против уменьшения издержек на производство), однако в конечном счете человеческий ресурс более универсален.
Чтобы не копировать много текста — wiki раздел «Требования к созданию Сильного ИИ». Это то о чем я и говорил, да, разработка ИИ полностью идентичного человеку может быть интересна и даже полезна косвенно (будут получены знания которые можно применить в других областях или в этой же но частично), но все эти вещи для ИИ не нужны (если мы собираемся использовать ИИ для конкретных задач, а не создать новый вид жизни) и иногда даже будут мешать. В приведенных примерах я не вижу никакого применения эмоциям например (да простят меня верстальщики, ну я же о работе говорю :) ) ну разве что у личного помощника можно сделать их имитацию, но про имитацию много уже написано в комментариях. И то с ограничениями, личный дом который зол на своего хозяина — нафик, нафик.
Основная роль эмоций — разделять «полезное» от «вредного». Если брать личного ассистента то фактор создания эмоций может быть использован для превалирования поступков направленных на благо «хозяина» над общей логикой.
Потому как часто поступки людей нелогичны и убедить их в этом не всегда возможно. Люди избирают не тех, кто следует логике, а тех кто поступает также как и они сами. Именно с учетом этого фактора и рассматриваются эмоции машины.
И снова нафик, нафик, ассистент не должен решать что плохо или хорошо для хозяина. А то он может такого нарешать что действительно пристрелит его чтобы не мучился от занозы. Ассистент должен выполнять задачи которые диктует хозяин, решать хорошо это или плохо не его дело. Если же говорить про решения такого рода в рамках задачи то, если можно провести грубую аналогию, компьютеру не нужны эмоции чтобы играть в шахматы. Найти оптимальный вариант решения задачи можно и без эмоций. Фантазия (ассоциативное мышление) пригодится, мораль (как свод законов и предпочтений) тоже, эмоциям (как аналогу электрохимических реакций влияющих на поведение и решения) не вижу применения (опять же если ИИ должен решать задачу а не быть «лучшим другом человека»).

Но может мы по разному понимаем эмоции, в конце концов, у человека эмоции одна из основ влияющих на память, ассоциации, это часть системы обучения. Если речь об этом, то ок, хотя я бы не называл это эмоциями, все же обычно мы ими называем что-то иррациональное, влияющее на поступки и решения а не формирующее ассоциативные связи в мозге.
Ага, все, прочитал ниже, понятно что вы подразумеваете под эмоциями, именно оценку и инструмент формирование связей. Вопрос снят, дискуссия по эмоциям закрыта, такой механизм нужен для ассоциативного мышления, согласен. Я думал вы про что-то более привычное, тривиальное: страх, гнев, радость, любовь, любопытство и пр. Т.е. эмуляцию набора человеческих эмоций.
>Добавим «программу-паразита», которая сделает исходную программу не столь идеальной (стирать и блокировать участки памяти, вызывать замедления в работе, корректировать внешние факторы, органы восприятия и т.п.), чтобы более правдоподобно имитировать человека.

Вот совершенно ненужный момент. Если уж делать полноценный ИИ — то делать его более совершенным, чем создатель.

P.S.: да и вообще — зачем в принципе создавать ИИ с эмоциями? Гениальных истеричек и среди людей найти можно, поверьте ) А ИИ должен выполнять определенные функции и интеллектуальность ему нужна только как механизм реагирования при экстренных ситуациях, а уж ниак не для создания музыкальных шедевров.

P.P.S.: кстати, с учетом наличия информации о наиболее привлекательных для людей сочетаниях смузыки или, допустим, пропорций изображения (золотое сечение и т. д.), ИИ вполне может суметь создать шедевр. Не сразу, конечно, но это вопрос обучения.
UFO just landed and posted this here
А как без эмоций сделать самообучение нормальное?
На счет эмоций поддержу. Жутко коробит когда, говоря об ИИ, какую-то особую роль отводят эмоциям. Да ведь это просто социальный механизм, который, к тому же, очень консервативен в эволюционном смысле. У самых простейших животных имеются некие аналоги эмоций.

Я, в последнее время все больше прихожу к выводу, что главная задача мозга — это упрощение информации. Разложение ее в некоторый компактный базис, в котором решение любой задачи становится относительно простым.
Нет никакого искусственного интеллекта. Есть сколько угодно близкая, но симуляция. Симуляция мысли, симуляция чувств, симуляция жизни. Роботу все равно что симулировать, хоть даже оргазм. У него нет и не предвидится понимания того, что он делает. У него есть программа, которая пытается внушить, что она понимает. То, о чем говорите вы — как по возможности точнее симулировать, а forgotten говорил о действительном интеллекте, как у людей. Обмануть человека на счёт своих способностей — еще не значит их действительно иметь.
Такие комментарии опять могут породить долгий спор о том, что такое «понимание» и что значит «действительно иметь».
Возможно вы упускаете значимость слова «искусственный». С учетом вашего подхода можно сказать что не существует других органов человека, кроме как тех с которыми он вырос. Тем не менее существуют искусственные почки, сердце, печень и т.д. Речь идет о выполнении конкретных функций, и искусственный интеллект вполне с ними может справляться.
Не упомянули ассоциативное мышление. Мне оно куда сложнее эмоций видится.
Одно является следствие другого. В ассоциативном мышлении на уровне программы нет ничего экстраординарного.
Ну вообще на самом деле вопрос интересный. По каким критериям будет строиться ассоциативный ряд? Насколько динамичный должен быть набор критериев и насколько ограничен? Ведь человек при взгляде на красный автомобиль вполне может вспомнить о не оправленной вчера бандероли просто потому, что на ней наклеена тоже красная марка. Задавать такое программно… можно, то если задать машине все возможные критерии, то сеть ассоциаций будет настолько велика, что подвесит любой процессор, даже на несколько порядков более мощный, чем современные.
Именно для этого у человека существуют эмоции. Они по сути формируют иерархичность ассоциативных рядов. На этом основан старый прием «скажи первое что ты думаешь».
То есть сперва идут ассоциации, которые наиболее значимы для человека.
И этот механизм далеко не идеален. Например для человека с гидрофобией первой ассоиацией на слово «вода» будет химический комплекс страха. Даже если до воды сотни километров.

Точно также поисковая система выдает вам результаты по релевантности, что ближе — то имеет больший шанс оказаться в топе.

Если же брать ассоциации человека, то каждый человек тоже по разному классифицирует отдельные объекты. Кто-то выделяет цвет, кто-то формы, кто-то придает значение запахам. У каждого эти ассоциации свои, и эмоции свои.
Но общие законы существуют и вполне реализуемы.
Допустим, хотя тогда получается, что либо придется ассоциативные критерии всем ИИ одни прививать, либо… рандомно что ли?
А как быть с селективностью? Объект, служащий спусковым крючком для начала ассоциативного ряда у человека может быть любым. Для ИИ по умолчанию таким объектом будет каждый из воспринимаемых — что недопустимо. Как тогда ИИ выбирать, от чего начинать ассоциации строить?
Также как это делает человек — исходя из фокуса внимания и приоритетов возбуждаемых эмоциями. Человек тоже реагирует на всё сразу, но вот только сознательной частью не всё это фиксирует, мощности не хватает. Вспомните например влияние частот, которые не воспринимаются слухом, но человек на них реагирует.
А там уже как будет поставлена задача так и будет реагировать система.
Ассоциации на нейронных сетях на ура делаются. Да и простейшее самообучение тоже. Как по вашему нынешние антиспам алгоритмы работают?
А люди вообще определились в понятии ИИ? В какой момент обычный алгоритм можно уже назвать Искусственным Интеллектом? Есть ли единый стандарт? Если нет стандарта то и цели нет. Если нет цели то к чему вообще идти тогда?
UFO just landed and posted this here
Как раз имеют, испытывая положительные эмоции человек понимает, что он всё делает правильно. Отрицательные — наоборот. Вопрос является ли они необходимым элементом самообучения открыт.
Только благодаря эмоциям человек закрепляет успешность тех или иных поведенческих алгоритмов. Я могу легко вспомнить радость от железной дороги, но не вспомню кто ее производитель. Я помню сам факт обладания игрушкой, но смутно помню как она выглядела. Потому что индексом для поиска были определенные позитивные эмоции.
Эмоции и интеллект ортогональны, по-моему. И задача создания ИИ не является задачей эмуляции личности человека. Интеллект это лишь часть личности человека. Более того, ИИ не обязан эмулировать и эту часть, главное он должен решать те же задачи, желательно более эффективно. Грубо говоря, считать ИИ эмулятор человеческого интеллекта это как считать автомобиль эмулятором ног. Есть качественная разница в принципах работы, есть как положительная, так и отрицательная количественная разница в «потребительских» свойствах (автомобиль быстрее, но пройдёт не везде, где пройдёт человек, например), но основную задачу и автомобиль, и ноги решают одну — перемещение людей и грузов по поверхности.

Какое-то подобие эмоций, наверное, нужно для создания ИИ, но лишь в качестве положительной или отрицательной обратной связи, «удовлетворение» от оценки «разумно» (пряник), «неудовлетворение» от оценки «неразумно» (кнут).

P.S. очень хорошо бы было, если бы авторы топиков про ИИ в самом начале указывали что конкретно они имеют в виду под ИИ.
В топике прямо сказано что речь идет именно о сильном ИИ, детальное определение лучше смотреть в анг. вики.
В целом определение сильного ИИ как раз и подразумевает, что он справляется с интеллектуальными задачами настолько же хорошо, как и человек. Но собственно большинство задач именно интеллектуального характера машины уже решают лучше чем человек.

Однако в сам термин сильного ИИ также входят такие понятия как самоосознание, способность испытывать чувства и эмоции, разумность и т.п. То есть человек под ИИ подразумевает не просто «счетную машинку», а программу, способную эмулировать поведение человека, обладающего интеллектом. Именно по этому тест Тьюринга и отталкивается от беседы между машиной и человеком.

А касательно того, зачем же всё-таки для ИИ эмоции написал тут.
Что сильный ИИ имеется в виду это очевидно. Мне не очевидно, что в него входят самосознание, чувства и эмоции. Я подразумеваю под ИИ как раз «счётную машинку», ещё не превращающуюся в искусственную личность. Возможно это неотделимые понятия, возможно нет. Не знаю. Лучше бы были отделимые.
Для человека «делить на части» вполне привычно. Так что что бы мы не имели ввиду, свет увидят скорее всего самые различные реализации, «надо же попробовать, как оно на самом деле».
Тут мы пока все «голые теоретики», как оно будет лучше на самом деле еще предстоит выяснить.
Я к тому, что может оказаться невозможным реализовать сильный ИИ без того чтобы он не спросил «Кто я?». А такой вопрос, даже если забыть про скайнеты и матрицы неизбежно повлечет массу морвльных и юридических проблем, по-моему, которое общество в целом пока не готово решить.
Все задачи должны решаться по мере их появления. Так что в вашей фразе ключевое слово «пока». Когда возникнет такая необходимость, я уверен, решение будет найдено.
Кстати ещё есть одна мысль на тему того, почему на классической Фон Неймановской архитектуре невозможно в принципе создать сильный человекоподобный ИИ…
Есть идея, в принципе ничем не подкрепленная, но интересная, что наш человеческий разум за счет своей сложности ещё и за счет квантовых эффектов существует, влияние которых на мозг пока не изучено (если это вообще возможно изучить с современной техникой). В результате какие-то мелочи, которые мозг то умеет невозможно никак сэмулировать на компьютере.
Выходом было бы конечно попытка сделать ИИ на квантовом компьютере, но пока они тоже явно не ближняя перспектива.
Оперировать в качестве аргумента «интересной, но ничем не подкрепленной идеей» это несколько неправильно.
Может быть вы бы могли дать больше информации?
Автоматическая концептуализация действительности в соответствии с целевой функцией — вот чего не хватает ИИ.
А теперь, на русском языке?
Вы хотите сказать, что ИИ не хватает возможности доставать из памяти образы, которые он видит перед собой и выполнять действия согласно ощущаемым эмоциям?..

Действуя по такому алгоритму, мы можем сказать что ПК будет интеллектуален.
Проблема глубже — надо иметь способ формировать эти образы, выделять понятия, термины из поступающих извне сигналов, чтобы в дальнейшем ими каким-либо образом оперировать. Каким образом формировать тот, а не иной образ — задача целевой функции всей системы. То есть без этой целевой функции системе вероятно нецелесообразно будет вообще что-либо делать, либо наоборот — она будет анализировать все подряд.
Собственно возьмите в пример того же Watson'a. Он вполне себе умеет «концептуализировать» часто двусмысленные понятия и находить на них ответы, равно как и человек.
Выделение контекста это как раз часть классификации входного потока данных. И поисковые системы тем же постоянно занимаются. Так что задача не нова.
Watson, как и поисковые системы, работают не с чистыми сигналами, а с уже концептуализированными знаниями (наш язык, к примеру). Такие задачи имеют массу путей для решений. Если же вы попробуете написать алгоритм, понимающий (распознающий) совершенно любой сигнал (выделяющий в нем образы), то вы обнаружите, что вносите концепты в систему статическим, или фиксированным образом — учите распознавать те знания, которыми обладаете сами, как уравнение для регекспа пишете — само уравнение-то является предопределенным знанием. Эти концепты, или представления о действительности, будут предопределены вами, а не выработаны самой системой. В то же время люди познают (распознают, классифицируют, предсказывают) действительность самостоятельно.
Пример задачи — написать систему, способную во входящей визуальной информации распознать образы, причем возможные образы заранее неизвестны системе. Естественно, система, должна с уверенностью относить, к примеру, лужи на дороге к одному понятию, то есть уметь классифицировать эти образы. Кластеризация на высоком уровне? Интересно узнать этот уровень.
Задача может быть перенесена на любую область.
Sign up to leave a comment.

Articles