Comments 108
Давно надо было уже собраться и опубликовать стандарт уровней ИИ, от простого автокликера до сложного ИИ, способного к абстрактному мышлению.
После чего было бы проще «IBM разработала обновление к Ватсон, которое переведет его в категорию ИИ-12».
Давно надо было уже собраться и опубликовать стандарт уровней ИИ, от простого автокликера до сложного ИИ, способного к абстрактному мышлению.
И как это решит проблему? Позволит компаниям выпускать больше инфоповодов с ИИ теперь ещё и разных уровней?)
Типичный заголовок «Headhunter запустил систему рекомендаций вакансий на основе искусственного интеллекта».
Пожалуйста приведите ссылку на классификацию ИИ, которая была бы принята хотя бы несколькими странами, ведущими разработки ИИ.
Слова «слабый и сильный» ИИ не значат практически ничего вообще. Откуда я знаю, что вы подразумеваете под этими словами, может быть это одинаковые по разумности, один запущен на домашнем целероне, а другой на кластере из ксеонов. Или у одного память 1 гб, а у другого 100 терабайт. Или все-таки дело в алгоритмах?
А что такое компьютер, который можно поставить пилотом самолета (я вас удивлю, но такие были даже 50 лет назад), пилотом авто (я вас удивлю, но сейчас таких много), но вот президентом страны еще не ставили? Это сильный ИИ?
Другими словами, все что вы написали — никак не помогает классифицировать — где сильный, а где слабый ИИ, а также что именно это означает.
Программно-аппаратный комплекс, который без внесения в него изменений может выполнять любую работу выполняемую человеком.
я вас удивлю, но такие были даже 50 лет назад
Вы серьёзно, что-ли?
Тогда вытащите автопилот из самолёта, подключите его к автомобилю, и попытайтесь куда-нибудь доехать, не используя руль. Или притащите его на встречу с избирателями, и подождите пока он изложит свою программу.
Да, автопилот, который мог полностью самостоятельно поднять, провести и посадить самолет, был испытан 50 лет назад. Вы описали, что сильный ИИ это тот, который сможет это сделать.
Да, его нельзя было взять и поставить в машину, но в принципе только очень немного денег будет стоить взять автопилот самолета и автопилот от Теслы, поместить их в один ящик, и маленькое if/else будет и самолеты летать и машины рулить.
Уточните, что такое президент — изложить свою программу сможет любой бредогенератор. Еще и не каждый поймет что это такое.
Я вам пытаюсь сказать, что ваши критерии — никуда не годны для вменяемого определения уровня ИИ.
И вообще, достаточно сложно создать набор тестов таким образом, чтобы по нему мерять уровень ИИ, поскольку можно просто написать программу, которая рассчитана проходить именно эти тесты.
Ваши рассуждения имели бы смысл, если бы для создания сильного ИИ нам был бы нужен компьютер вручную запрограммированный, чтобы отличить сильный ИИ от слабого. Да, для программирования такого компьютера понадобилось бы строгое формально определение сильного ИИ.
Но нафига нам такой компьютер нужен? Нам нужен сильный ИИ, а не классификатор типов интеллектов. Различить бредогенератор и потенциального президента сможет большинство людей без всяких компьютеров. Чтобы проверить, что ИИ может выполнять любые задачи, доступные человеку, достаточно проверить это экспериментально, давая задачи, набор которых не был известен конструкторам ИИ.
Утверждать, что сильный ИИ — это не ИИ, потому что он формально не верифицирован на соответствие строгому формальному определению сильного ИИ, это примерно как утверждать, что люди не могут ходить, потому что нет строгих формальных определений понятий "нога", "ходить" и т.д.
Грудной ребенок тоже неспособен толкнуть речь президента, водить самолет и автомобиль. Да даже многие взрослые на это не способны, при этом все они обладают интеллектом.
Классификация нужна. Чтобы убрать спекуляции термином, потому что сейчас ИИ называют все подряд. И с какой стати нам нужен сильный ИИ? Нам нужен помощник, на которого можно сгрузить работу.
Нам не нужен ИИ, который решит что он в нас не нуждается, и возможно применит меры чтобы мы ему не мешали.
Нам не нужен ИИ, который будет умнее нас, и при этом будет брать за это деньги как за личность, а не только за электроэнергию. Иначе он будет богаче нас и намного. И в конечном счете придет к мнению выше.
И да, различить бредогенератор и потенциального президента не может подавляющее количество населения на планете.
Различить бредогенератор и потенциального президента сможет большинство людей без всяких компьютеров.
Вот тут вы ошибаетесь…
Все именно так. Громкими словами вроде «ИИ» — сейчас модно пиариться и привлекать инвестиции.
Не верно. Современные системы с обучением отличаются заметно от классических «просто программ». Суть в том, что даже их программисты не знают, как работают эти системы и какие будут давать ответы на конкретные вопросы.
Обычная программа — это белый ящик для программиста, он может посчитать результат алгоритма на бумажке. Так и делают, когда занимаются тестированием, кстати.
Обучаемая система — это чёрный ящик. Непредсказуемый и непонятный. Программист может вполне отвечать за поведение белого ящика, но кто будет отвечать за поведение чёрного? Особенно если этот чёрный ящик кого-нибудь задавит.
Вообще говоря, знаете. Потому что чтение исходников никто не отменял. Иначе любой софт можно назвать ИИ — ведь офисный пользователь тоже не знает, что там внутри творится.
Так и делают, когда занимаются тестированием, кстати.
Посчитайте мне на бумажке, пожалуйста, сортировку массива из 1 миллиона элементов на бумажке. Очень сомниваюсь, что при тестировании этого алгоритма Вы будете делать именно так.
«Обучаемая система» обычно просто сложнее необучаемой — хотя простые обучаемые алгоритмы вполне на бумажке рассчитать можно. Потому в данном случае черный ящик или белый определяется нашей способностью его осознать, а не принципиальной возможностью этого. В статье как раз и говорится, что у сегодняшних программ нет воли, эмоций и желаний, а есть детерминированный алгоритм, пусть и очень сложный).
Детерминированный алгоритм не исключает возможности существования воли, эмоций, желаний и даже субъективной свободы выбора. Точнее нет общепризнанных доказательств обратного.
Более того, такие простые вещи как сортировка массива, можно не только посчитать на бумажке для маленьких размеров, но и доказать на бумажке для произвольных входных данных.
> детерминированный алгоритм, пусть и очень сложный
В случае обучаемых систем есть ньюанс. Алгоритм оказывается зашит не в килобайты кода, а в гигабайты данных. И вторая штука человеком не познаваема. А значит он не может предсказать работу алгоритма и отвечать за его результаты.
Я вам посчитаю на бумажке сортировку из двадцати элементов.
…
Алгоритм оказывается зашит не в килобайты кода, а в гигабайты данных.
А я посчитаю вам на бумажке самообучающуюся нейронную сеть из 3х нейронов с байтами данных. Почему для «традиционного алгоритма» Вы считаете достаточным понимать его работу на маленьком объеме данных и смасштабировать на большой, а для нейронной сети нет?
Проект над которым я работаю содержит мегабайты кода — вполне детерминированного, но также не познаваемого человеком в силу его размеров и сложности. Почему за него я отвечаю, а за нейронную сеть отвечать не должен? Мое мнение — если хочется использовать нейронные сети в критических для жизней областях, то разработчик несет ответственность за корректность их работы. Значит, нужно развивать методы, которые позволят доказать корректность нейронной сети и предсказать результаты его работы.
Потому что перехода количества в качество не наблюдается. Плюс, смотрите второй пункт — сортировку можно доказать математически. То бишь, это задача «хорошая» и проверять её легко. А некорректные задачи — сложнее.
Опять же, как я указал — можно написать 4 разных алгоритма, проверить вручную на малых данных, проверить взаимным соответствием на больших. Проверить две разные нейронные сети на взаимное соответствие не возможно, они по определению выдают разные результаты.
> Проект над которым я работаю содержит мегабайты кода — вполне детерминированного, но также не познаваемого человеком в силу его размеров и сложности.
Большие проекты, действительно, не познаваемы в одиночку, но команда может в них разобраться. Особенно если код пишут так, чтобы в нём было удобно разбираться. Что происходит очень часто, а остальные случаи требуют рефакторинга. Как раз потому, что программист(ы) должны понимать, как работает программа, и почему она может не работать.
И вот тут ключевой момент в том, что не имеет значения — это нейронная сеть или любой другой алгоритм (кстати, нейронная сеть это тоже алгоритм). Имеет значение только то, учитываются ли для принятия решений внешние данные. Нейронная сеть, обученная заранее и не обучаемая в процессе эксплуатации, будет предсказуема так же как и алгоритм. Но если в алгоритме стоит рандом или принимаются неопределенные внешние результаты — его работа так же не предсказуема. Теперь вопрос к программисту — зачем он применил рандом или любые другие методы, работу которых он не может гарантировать? Значит должен нести ответственность, либо находить другие средства для решения задачи.
Формально — тоже алгоритм. Просто иногда, следуя формальностям, можно утерять здравый смысл. Формально всё это алгоритмы. Формально тьюринг полнота едина для всех. Никакой формальной разницы нет. Только практика отличается от формализмов, есть детали, легко усвояемые человеком, и трудно формализуемые.
Например, формально ассемблерный текст является исходным кодом. На практике, оказывается что от исходного кода ждут чего-то большего. Когда мы говорим «программа с открытым исходным кодом», мы имеем в виду не дизассемблированный бинарник, а доступный код на языках высокого уровня. Причём не обфусцированный, с оставленными комментариями и документацией.
А попробуйте формально задать отличие от обфусцированного исходного кода от необфусцированного. Не слишком-то у вас получится. А неформально — получается очень даже неплохо. Необходим некоторый уровень «качества» кода, под которым подразумевается способность стороннего человека понять этот код и модифицировать.
Нейронные сети, даже замороженные в некотором состоянии, невозможно никак понять. Да это код, алгоритм детерминировано задан, но он сверх-обфусцирован, в нём нельзя разобраться. Предугадать его поведение тоже.
А вот вручную написанный код другой, в нём подразумевается возможность чтения алгоритма в первую очередь человеком и только во вторую очередь машиной. Даже если там есть недетерминированность, её тщательно ограждают и исследуют.
Например, для алгоритмов вводится понятие производительности в худшем случае и в среднем. Функциональное программирование добавило сложностей, и они отразились в теории, добавив понятие амортизированной сложности.
Другой пример — это вычислительные алгоритмы. Почти все они дают приближённый ответ. Но при этом для каждого алгоритма считается остаточный член — возможное отклонение от истинного значения. Это стандартный элемент анализа алгоритмов.
Так во всём — человек стремится подчинить природу своему знанию. В том числе природу написанных им алгоритмов. А с нейронной сетью так не выходит. Нельзя сказать, что человек сдался — проводятся исследования о том, как построить нейронные сети, способные аргументировать свои решения, ищутся способы сворачивать сложные вычисления в понятные термины. Но пока безуспешно. Пока всей нейронные сети — это чёрный ящик.
Уже есть методики, которые позволяют заглянуть внутрь нейросети и увидеть что-то осмысленное. Например, я читал статью о том, что программист определил, какой конкретно нейрон сети активизируется, когда она видит человеческое лицо на фотографии.
Хорошо известен проект, когда нейросеть заставили на исходное изображение накладывать свои ассоциации относительно его элементов.
Были статьи о том, как нейросети, обученные для классификации изображений, заставляли генерить картинку, которая по её мнению максимально соответствует какому-то классу, и так можно было увидеть, какие признаки она выделила в качестве характерных для данного класса.
Я убеждён, что мы мало знаем о том, что происходит в нейросети только потому, что пока прагматическая ценность этого мала. Практикам в этой области мало интересно, как думает нейросеть, пока она выдаёт приемлимые результаты на тех задачах, где их применяют.
А те, кому этот вопрос интересен, почему-то более склонны беспредметно дискутировать в интернетах, вместо того, чтобы заниматься практическими исследованиями и разробатывать инструментарий для заглядывания внутрь НС.
Но как только возникнут задачи, где реально нужно понимать и контролировать ход мыслей ИИ, начнёт развиваться и инструментарий.
Я вообще считаю, что в критических задачах (где на кону стоят жизни) должна быть ответственность. Нельзя возложить ответственность на алгоритм, то есть ответственность должен нести его разработчик или хозяин. Если вдруг мы придём к тому, что нейросеть совершенно абсолютно невозможно контролировать, то остается 2 варианта:
— найти методы, которы позволят утверждать, что риск её применения допустим (это звучит цинично, но люди уже гибнут на дорогах, и еслу будут гибнуть мньше — то уже хорошо).
— не использовать нейросети вообще.
А говорить «оно вроде работает, но отвечать я не могу и не буду» — это не вариант.
В большинстве случаев системы, заявленные, как ИИ, не осознают себя, не разумны, не обладают волей и не могут удивлять. Это просто программы.
А есть меньшинство случаев, в которых системы это умеют? :)
А то в дискуссиях об ИИ постоянно всплывают слова «самосознание», «свободная воля», «индивидуальность», «личность» и тп, но при попытке прояснить термины выясняется, что каждый вкладывает в эти слова что-то своё. И в разных интерпретациях смысл может отличаться кардинально.
Обладает ли самосознанием интеллектуальный агент, имеющий информацию о том, что если возможное состояние мира включает повреждение или отключение вот этой вот коробки с электроникой, то в этом состоянии невозможно выполнить никаких действий?
Или самосознанием обладают только интеллекты, ведущие себя как люди в состоянии бодрствования?
Только увидев статью, подумал как раз об этом.
За третий день он вырос до профессора МТИ
Пятый день принес множество уникальных открытий. в том числе защиту для ИИ от саморазвития
На вторую неделю общение прекратилось… нет он не перестал с нами разговаривать… просто мы перестали его понимать
Это очень исковерканная фраза про ИИ из какого-то кино. Но для меня это стало определением ИИ
нет он не перестал с нами разговаривать… просто мы перестали его понимать
Стал таким умным, что потерял способность объяснить чем занимается. По-моему, противоречие.
Объяснить свои мыслительные процессы он может быть и не сможет, но уж использовать свой гигантский интеллект, чтобы подготовить хорошо понятный синопсис того, зачем он вставляет деталь А в отверстие Б, не должно представлять для него проблемы.
Может ли быть так, что ИИ начал к тому времени оперировать столь сложными терминами, что на объяснение смысла каждого человеческим языком ушли бы месяцы, а то и годы?
Если этот ИИ занимается чем-то, имеющим отношение к физической реальности, то он будет вынужден выполнять некоторые последовательности действий (эксперименты), для проверки своих предположений.
Он вполне сможет сказать что-то вроде: "я проверяю такие-то гипотезы, для этого я делаю то-то, если гипотеза А верна, то результат такой-то, ..." и т.п. Гипотезы с высокой колмогоровской сложностью маловероятны, поэтому врядли ему придётся объяснять их месяцами.
Оперирование очень сложными терминами относится скорее к мыслительным процессам ИИ, о которых я написал, что их он может и не сможет объяснить.
Солярис — это конструкт, созданный Лемом, чтобы показать — а вот может быть такая здоровая и сложная штука, которую мы не сможем понять (собственно непознаваемость преподносится как факт: исследовали, исследовали, но ничего не выисследовали, были такие-то технические трудности, преодолеть не смогли, почему — неизвестно).
Здесь речь идёт о ИИ, который создан людьми для решения человеческих задач.
а для него это уже были элементарные вещи и он их объяснял своим языком, считая а че тут непонятного?
В отличии от IBM Watson, хотя тот и рак определяет лучше человека, и на викторинах участвует и много чего еще.
Наверное в словосочетании "искусственный интеллект" деалется упор на второе слово.
Но часто ли встречается в жизни естественный интеллект.
Поэтому не следует ожидать от программ ИИ уровня Эйнштейна
Они, как люди, в массе простоваты, туповаты, недалеки и даже ошибаются
Опять каша с англификацией. В советской НТ-терминологии всегда было чёткое разделение на ИИ и ИР. Которое при заимствованиях потерялось к 2000-м годам. Сейчас пришло второе присшествие тех же терминов уже в виде неуклюжих «слабый ИИ» и «сильный ИИ».
Если бы продолжали пользоваться старой, устоявшейся в русском языке терминологией, поводов для спора было бы намного меньше.
С человеческим разумом ведь аналогичная операция проходила неоднократно:
— умеет читать — умный. Вычеркнуто
— умеет умножать — очень умный. Вычеркнуто.
— игра в шахматы — занятие для умных. Вычеркнуто (как вследствие того, что стали проигрывать компам, так и вследствие того, что повышение уровня информированности показало, что чемпион мира по шахматам вовсе не обязательно умён).
… и так далее, список того, что когда-то служило явным признаком ума, а сейчас перестало быть таковым, весьма широк.
У меня собака способна аккуратно открыть пластиковую баночку с остатками мясного соуса. Она знает, что внутри невкусной баночки есть что-то вкусное и его надо открыть.
Это не интеллект. Но если мы научим робота каким-то волшебным образом:
— понимать, что ему что-то протягивают
— опознать, что внутри этого есть искомое
— захватить и перенести это в другое место
— открыть его
— извлечь содержимое
— прийти за добавкой к тому же человеку, что и дал это в первый раз, даже если человек в другой комнате
… то газеты будут будут говорить про Сильный Интеллект.
А это всего лишь собака.
При этом задача взаимодействия с окружающим миром не решена до сих пор, хотя есть какие-то робкие подвижки.
Но решение этой задачи — это же не задача интеллекта.
Как такая задача называется?
Это не интеллект
Да ну?
А как ты определяешь "близость к уровню"? Собака, вон, даже речь в некоторых пределах способна понимать.
Так что важна интонация, а не слова.
А близость к уровню я объясняю на способности объяснить что-то. Если мы начнём разбираться что такое «объяснить» и и что такое «знание», то мы быстро попадём эпистемиологическую трясину.
А по поводу интеллекта животных — чем дальше, тем больше подтверждений, что он есть. Просто у них приоритеты другие, интересны им другие вещи и еще и эволюционно приспособлены они к разным вещам. Как тут недавно про гиббонов было, что ставили эксперименты по использованию приматами инструментов в качестве показателя ума. И выяснили, что гиббоны тупы непроходимо. Потом выяснилось, что это экспериментаторы, оказывается, не совсем умны — гиббоны, оказывается, живут в «подвешенном на ветку» положении. И все, что не подвешено на ветку просто игнорируют.
С помощью мата и громкости нельзя объяснить новую идею.
Расскажите это майору, который у нас занятия на военной кафедре вёл.
Опять же, как показывает опыт общения человека с собаками, даже без формального понимания человеческой речи, собаки осваивают весьма нетривиальные модели поведения. Элементарный пример — собаки поводыри. Они умеют удивительнейшие вещи. Включая способность на пешеходном переходе оценить опасность ситуации и принять решение, идти или не идти.
Кстати, как-то однажды, лет тому уже много назад, ехал я по серой ветке от каховки на север. И вот на Нахимовском Проспекте заходит в вагон собака дворняга. Проходит к двери напротив, устраивается там и типа спит. На Менделеевской встала, подошла к двери посмотрела на станцию, так же на Савеловской. Потом на Дмитровской уже прям ждала, когда двери откроются, тут же рысью на эскалатор. И, что еще интересно, на Нахимовском проспекте собака зашла ровно в ближайшую к эскалатору дверь поезда…
Проявления разумности, очевидно, достижение, доступное большинству (если не всем) млекопитающим и птицам (а, может, и динозаврам как предшественникам птиц). Показывается это как раз приведённые Вами примеры и множество и множество прочих.
Дальше вступает в силу классический переход количества в качество. Число разумных эпизодов, их длительность и связность растёт и растёт, пока у человека (и, возможно, у его предков и вымерших родственников) не сливается в единый процесс. В какой именно точке произошло это слияние aka появление разумного существа — думаю, установить невозможно.
А ещё я научил камень падать вниз, если у него нет опоры. Это интеллект?
Если мы говорим об «искуственном интеллекте» уровня собаки, то я уверен, что его можно написать без каких-то прорывных достижений. Просто очень обширный и сложный алгоритм, поддерживающий множество состояний и условий.
Если мы говорим об «искуственном интеллекте» уровня собаки, то я уверен, что его можно написать без каких-то прорывных достижений.
Как показывает практика — пока нет. Роботизированный автомобиль пока не умеет с достаточной степенью уверенности распознать опасность и не выезжать на перекресток при наличии опасности. А собака-поводырь — это делать может. Стабильно. Многократно. Обеспечивает выживание «пассажира». Вообще, собака-поводырь — это очень сложная и умная штука. Умеет кучу вещей, которые пока недоступны «роботам», включая поиск маршрута и ориентирование на местности при отсуствии карты и связи со спутниками GPS/ГЛОНАСС.
Специфичные навыки животных не являются чем-то невероятным к реализации. Локальные оптимизации могут долго удивлять, но происходящее в процессе не такое уж «невероятное» и «непонятное».
2. Где Вы нашли камень, который до обучения не падал, потеряв опору? Если есть ещё один — не портите, это же даже не нобелевка, покруче будет.
3. Иногда собаки в конкретных ситуациях ведут себя умнее людей, так что ваша уверенность, что можно такое написать без прорывных достижений, мне кажется необоснованной.
У людей просто нет четкого понятия. Сильный\слабый ИИ — довольно кривые определения, разделение по "самосознанию" еще более кривое.
Если глянуть в вики, то там такие
- Принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности;
- Представление знаний, включая общее представление о реальности;
- Планирование;
- Обучение;
- Общение на естественном языке;
- И объединение всех этих способностей для достижения общих целей.
А так же дополнительные:
- Сознание: Быть восприимчивым к окружению;
- Самосознание: Осознавать себя как отдельную личность, в частности, понимать собственные мысли;
- Сопереживание: Способность «чувствовать»;
- Мудрость.
Возможно, все сорта ИИ можно классифицировать так:
То, что у нас есть — это слева на оси абсцисс.
Некий гипотетический супер-ии, которого многие опасаются, включая Хоккинга, Маска и прочих, описанный таким образом:
Первый день нам было интересно с ним как с младенцем, но к концу дня это уже был подросток
За третий день он вырос до профессора МТИ
Пятый день принес множество уникальных открытий. в том числе защиту для ИИ от саморазвития
На вторую неделю общение прекратилось… нет он не перестал с нами разговаривать… просто мы перестали его понимать
это самый правый верхний угол диаграммы, высокие интеллектуальные способности + самосознание.
Но, ИМХО, возможно существует ИИ, который обладает высоким интеллектуальным потенциалом без самосознания. Именно такой ИИ нужен цивилизации (из мечтаний о технологической сингулярности). Но остается открытым вопрос — что такое (само)сознание и возможен ли такой тип ИИ, или он автоматически приводит к зарождению (само)сознания?
А есть ли самосознание у человека? Почитаешь различные современные теории от психологии и задумаешься...
Мышление, демонстрируемое обычным человеком в повседневной жизни (как говорил Марвин Минский, тот уровень интеллекта, который нужен для понимания, почему можно потянуть что-то за веревочку, но нельзя ей что-либо толкнуть) — уже предполагает рефлексию, самоконтроль, чтобы отследить, когда вы заходите в тупик и нужно сменить подход. И часто для этого приходится всерьез размышлять как над ошибками в своих действиях, так и над ошибками в своем мышлении. Что это, как не самосознание? Оно не зарождается автоматически благодаря высокому интеллектуальному потенциалу. Оно его реализует.
уровень интеллекта, который нужен для понимания, почему можно потянуть что-то за веревочку, но нельзя ей что-либо толкнуть) — уже предполагает рефлексию, самоконтрольСовершенно не очевидно.
Для решения таких задач робот может знать о своих исполнительных механизмах, но не о процессоре.
Сильно упрощая, рассмотрим программу, решающую уровни в Sokoban. Она может получить новое знание — вывести теорему, что если ящик загнать в угол, то уровень провален. И оптимизировать решения, используя это знание, искать разные подходы и стратегии. Совершенно не обязательно понимать, что за пределами этого виртуального поля с ящиками есть что-то ещё, осознавать себя, как разум, существующий над этой игровой доской.
Человеку для его исключительной гибкости, адаптивности понадобились рефлексия и самосознание. Лишенные же этих свойств животные такой приспособляемости не проявили — как и созданные до сих пор машины. Поэтому как раз сомнительно, что без них она возможна.
> Совершенно не обязательно понимать, что за пределами этого виртуального поля с ящиками есть что-то ещё
Пионеры ИИ создали программы, успешно манипулирующие кубиками в виртуальном и реальном пространстве, около полувека назад. Кубиками успех этих программ и ограничился.
Лишенные же этих свойств животные такой приспособляемости не проявили — как и созданные до сих пор машиныЛогика на уровне:
— Птицы летают, у птиц есть перья. Значит, летающую машину надо делать с перьями.
Или
— Математики решают квадратные уравнения, но ежедневно принимают органическую пищу. Значит, создание машины, решающей уравнения, начать надо с конструкции желудка.
Пионеры ИИ создали программы, успешно манипулирующие кубиками в виртуальном и реальном пространстве, около полувека назад. Кубиками успех этих программ и ограничилсяА потом они создали ещё 100500 систем, успех которых был выше, но при этом им не пришлось программировать самосознание.
Я не спорю, что самосознание ценная вещь. Вопрос в том, какие должны быть интеллектуальные задачи, которым было бы оно необходимо. Я считаю, это только задачи уровня самостоятельной постановки целей для себя, когда машина должна существовать и развиваться без внешнего управления. А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».
Правильный ответ — стоящий в углу ящик невозможно толкнуть. Сможем ли мы его получить, или получим что-то вроде «когда ящик оказывался в углу, игра всякий раз была проиграна»?Разумеется, нет. В системе даже нет такого понятия — толкать. Зато там будут другие понятия, которых нет у людей. Например, логический вывод из 16 посылок как одна единица смысла. Человек его сможет разобрать за полдня умственного труда, но скажет — это не логика, это перебор вариантов. А для ИИ такой вывод будет элементарным, как для человека «Если А, то Б. Имеется А. Значит — Б».
Просто такая позиция — как у плохого экзаменатора. Вот я ожидаю ровно такой ответ, как в учебнике, если объяснение другое (хотя и не лишённое практического смысла) — двойка.
Если бы мы хотели, чтобы компьютеры хотя бы считали, как люди, мы бы сделали их десятичными, а не двоичными. Но зачем, если для наших задач и так хорошо.
А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».
:-))) Вам всё никак не удаётся прочесть до конца комментарий, на который вы отвечаете. Попробую еще раз: «В приведенной цитате речь идет не о решении механической задачи путем проб и ошибок, а об ответе на вопрос «почему?»». Собака на вопросы не отвечает.
Я не спорю, что самосознание ценная вещь. Вопрос в том, какие должны быть интеллектуальные задачи, которым было бы оно необходимо. Я считаю, это только задачи уровня самостоятельной постановки целей для себя, когда машина должна существовать и развиваться без внешнего управления.
Любая поставленная задача требует самостоятельного разбиения на подзадачи (по крайней мере если вы не хотите сами его выполнять — а именно от этого мы хотим уйти). Для этого машина должна иметь представление о своих возможностях. Также для успеха нужно уметь оценить время, за которое она сможет задачи выполнить.
Если успешное выполнение задачи оказывается невозможным, машине нужно уметь найти проблему в своих рассуждениях, которые к этому привели, и попробовать другой подход.
Всё это не требует самосознания. Это и есть самосознание. Просто не нужно видеть в нем нечто магическое.
Если бы мы хотели, чтобы компьютеры хотя бы считали, как люди, мы бы сделали их десятичными, а не двоичными. Но зачем, если для наших задач и так хорошо.
Ирония в том, что для наших задач так не хорошо, поэтому когда вы работаете с числами в областях, любящих точность (например, финансовой), вы должны помнить, что в Java и C# следует просто использовать тип decimal, а в JavaScript идти на дополнительные ухищрения с пересчетом сумм в самую мелкую единицу и хранением как целые числа.
Для решения таких задач робот может знать о своих исполнительных механизмах, но не о процессоре.
Ему, вероятно, и не требуется знать, как регистры процессора выполняют элементарные операции.
Мы ведь можем существовать, не зная, как работают клетки нашего тела. Более того, и большая часть работы мозга от нас скрыта. Даже механизмы, мотивы принятия важнейших решений — выбор спутника жизни, пристрастия в работе, в еде — часто остаются неизвестными.
«А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».»
Напишете на коленке ИИ, который выполняет хотя бы это — чтобы ваш робот мог тянуть или толкать?
Потом посмотрим, как он отреагирует, если я предложу потолкать, потянуть
веревку, кусок мяса, щенка, деревяшку, железку, кактус, солнечный зайчик
на ровном месте, над лужей, на лестнице, на льду
Потом решим, размышляет собака или нет.
P.S. У всех животных есть интеллект. Они еще не дошли до создания абстрактного словаря (и то, у дельфинов и китов что-то намечается), чтобы общаться чем-то большим, чем выражение примитивных эмоций. Но по сравнению с компьютерными программами — они — реально разумны.
Но по сравнению с компьютерными программами — они — реально разумны.
Очень точно подмечено.
Когда я слышу про небывалые успехи в области ИИ, робототехники, у меня возникает вопрос: а где же домашние робопитомцы — аналогичные котятам и щенкам, кошкам и собакам по поведению, отношению к людям, доступные по цене? Как сможет ИИ полностью заменить человека в ближайшем будущем, если он до сих пор не смог заменить даже животных?
А реально людям нужны логические автоматы с высокой скоростью принятия точных решения на основе точных знаний и качественного анализа. Не нужен нам никакой искусственный разум, секс-куклы с сознанием 10-летней развратной девочки или искрометно шутящие кибер-таксисты.
Людям нужны искусственные рабы, на которых можно взвалить обеспечение жизнедеятельности для высвобождения времени в пользу чистого творчества и праздности
Гораздо проще использовать для этого людей. Половина населения планеты всё ещё пальцем подтирается и читать-писать не умеет. Есть низшие расы, есть бесполезные нации, все они могут быть использованы для этих нужд и предварительно стерилизованы. И в бога поиграть и пожрать вкусно.
Думаю ИИ в первую очередь нужен для создания какого-то совершенно нового вида оружия, которое изменит баланс сил на планете.
Гораздо проще использовать для этого людей.Проще — да. Но дороже.
Кормить, обеспечивать сном и гигиеническими процедурами. Долго обучать каждый экземпляр, чтобы получить более полезные функции. Прогнозировать необходимую численность на много лет вперёд.
Намного дешевле использовать программы, которые легко копировать и запускать ровно столько экземпляров, сколько сейчас нужно.
Проще — да. Но дороже.
С чего бы? На данный момент в Африке и ЮВА есть больше десятка стран, где за цену средненького двухпроцессорного сервера можно получить 100-500 человеко-лет рабочей силы. Самовозобновляющейся, (от части) самообучающейся, самостоятельно обеспечивающей себе условия для жизни и пропитание.
Более того, такая рабочая сила активно используется не очень легальными организациями, например, в качестве самообучающегося суперкомпьютера по разгадыванию каптч. И это очень даже окупается!
Но задача оптимизации не является задачей какого-либо интеллекта, потому что любая оптимизация — это всего лишь поиск экстремумов функции. Задача невероятно сложная, но она сложна и для компьютеров, и для людей, так что считать её признаком интеллекта — ошибочно (а если вы думаете, что люди хороши в задачах оптимизации… Удачи с составлением школьного расписания).
система первого уровня — база данных — тексты, ключевые слова, в миру поисковые системы.
второго уровня — база знаний — из текстов выделяются «знания», далее — смыслы, и хранятся уже они, поиск тоже по смыслам, в миру экспертные системы.
третий — манипуляция смыслами — смешивание, разделение.
четвертый — «верификация» смыслов — проверка на согласованность
пятый — создание новых смыслов.
ИИ как раз начинается с пятого уровня.
Сломались (тогда) на экспертных системах — высокая трудоемкость ручного выделения смысла из текста, ну или набивание его с нуля человеком, понятное дело пытались статистически, прогоняя кучи текстов, но низкое качество результата не позволило взлететь. Были только очень узкоспециализированные системы.
Сложившаяся терминология такова, что ИИ — это
1 алгоритм и/или устройство, который может действовать «разумно» в рамках задачи. Напр. бот для игры, или ocr.
2 совокупность методов создания таких алгоритмов. Напр. поиск в дереве игры, нейросеть, svm, байесовский классификатор.
3 направление науки, которое занимается разработкой и использованием таких методов.
Не надо выдумывать всякие ВИ из массэфекта и роботов, которые «сознают себя как люди», и обзывать их истинным ИИ. Есть устоявшаяся терминология, и согласно ей ИИ не обязан быть разумным. Он просто должен работать на данной задаче, и чтобы он делал это хорошо, приходится использовать какой-либо из методов ИИ.
Не надо выдумывать всякие ВИ из массэфекта и роботов, которые «сознают себя как люди», и обзывать их истинным ИИ. Есть устоявшаяся терминология, и согласно ей ИИ не обязан быть разумным. Он просто должен работать на данной задаче, и чтобы он делал это хорошо, приходится использовать какой-либо из методов ИИ.
Проблема в том, что маркетологи (того же Watson например) закладывают смысл системы с самосознанием, имитируют осознанные диалоги и т.п. Экспертность системы ассоциирующаяся с разумной машиной эксплуатируется среди технически неподготовленных масс населения.
Это не отменяет того факта, что нейросети эффективно выполняют свои задачи в определенных прикладных областях.
С другой стороны, журналисты/другие маркетологи используют распиаренный образ ИИ для своих решений «поилки для канареек с ИИ
Выходит что одни люди делают систему похожей на сильный ИИ когда он таковым не является, а другие люди просто эксплуатируют образ ИИ для создания инфоповодов/продвижения своей продукции. Первые развивают систему, чтобы она была похожа на сильный ИИ, а вторые заменяют слово «нейросеть» на фразу«ИИ».
Таким образом образ сильного ИИ является идеалом, который поддерживается в обществе. В связи с этим появляются завышенные ожидания, а на самом деле существуют в лучшем случае похожие по поведению системы (есть некоторый смысл социального взаимодействия с человеком), а в худшем случае ВеликийЗамечательныйПрограммныйПродукт(с ИИ), к которому прикрутили нейросеть для выбора оптимального голубого цвета кнопки «Рассказать друзьям».
Термин ИИ неизбежно несет разочарование в несоответствии ожиданиям, поэтому поднимается вопрос о различных оговорках как сильный-слабый ИИ и т.п.
"… трактовки идеальной концепции интеллектуальности, которую авторы настоящей
книги предпочитают называть рациональностью. Система является
рациональной, если она «все действия выполняет правильно», при условии, что система
обладает знаниями о том, что является правильным."
т.е. искусственный интеллект рассматривается в качестве рационального интеллекта. И по мнением авторов интеллектуальность определяется способностью планировать будущее.
А пендосском есть 2 похожих слова: intellect и intelligence.
Первое — это умение (способность) управлять своим разумом и эмоциями. То о чем писали в статье: непредсказуемость, самоосознание и т.д.
Второе — умение использовать накопленную информацию и решать задачи.
Термин AI как раз содержит второе понятие. Современные программы как раз это хорошо умеют делать, они собирают информацию из БД, датчиков или как-то еще и могут применять их в новых ситуациях. Это artificial intellegence в чистом виде.
А вот говорить об artificial intellect, если по Поперу, то не научно. Мы никогда не поймем что такое ЕСТЕСТВЕННЫЙ ИНТЕЛЛЕКТ, чтобы оценить получилась ли его искусственная копия (см. «философский зомби», «китайская комната» и т.д.).
То есть пока распознавание изображений было на слабом уровне его называли AI, и так действительно было, задача зрения и распознавания считалась отличным примером потому что являлась сложной для машины но очень простой для человека. Отсюда возникли все эти капчи. Но стоило области развиться и стать «рутинной» и оно уже не AI а просто алгоритмы. Хотя сложность систем распознавания изображений не уменьшилась а очень даже увеличилась, и научно и алгоритмически и по потребляемым мощностям. Но это уже не «магия» а «рутина» и все, уже не интеллект. Когда разспознавание речи или автоуправляемые автомобили станут рутиной они тоже потеряют статус AI. Где логика? ее нет. Вернее логика в том что все что мы пока не можем но очень хотим и что может человек — это AI, как только сможем и станет обыденностью — уже обычная программа. AI (и ИИ) не научный термин а психологический и социальный, как это не абсурдно.
Я согласен с статьей, от термина надо отказываться, но не потому что мы не можем четко классифицировать то что мы называем ИИ и определить критерии уровней и в принципе границы ИИ. А потому что это не нужно. Просто не нужно и даже мешает. Загоняет в рамки, в шаблоны мышления.
Интеллект сугубо человеческое понятие, придуманное человеком и для человека. Теоретически нет ничего что мешало бы существованию развитой цивилизации не обладающей созданием. Не говоря уже о том что сознание это вообще узкая внутренняя фишка человека и нет его четких критериев, и не будет. Внутренний диалог? ну тогда система из нескольких подсистем общающаяся по API между собой обладает сознанием. И я не утрирую. Диалог есть и он внутренний.
Все остальные свойства иннтеллекта тоже при желании можно натянуть на любые сложные системы, но не нужно.
Мы любим очеловечивать не человеческое, ругаемся на глючные программы, разговариваем с компьютером или автомобилем, одеваем собачек в одежду и тапочки. Делаем то что совершенно не нужно этим системам и животным. Для большинства людей ИИ это веселый андроид который ведет себя как человек.
Но нам не нужны веселые андроиды, вернее они очень нишевой продукт. Нам не особо нужен и всемогущий универсальный интеллект который может сделать все что может человек и еще лучше. Нам нужны системы распознавания изображений, анализа речи и данных, самоуправляемые автомобили, роботы способные действовать в нужных условиях но адаптироваться под ситуации и обучаться на них и многое другое. Это РАЗНЫЕ продукты, не нужно из загонять в рамки классификаций придуманных для людей и очеловечивать их. Как делают это «эксперны по ИИ» и остальные люди. Их просто нужно делать, и их делают. Это инструменты а не дети.
Даже если случиться такая беда и мы случайно или намеренно создадим то что мы сейчас назваем сильным ИИ, с чего мы взяли что он будет похож на человека по способу мышления, решению задач и «сознанию»? Скорее всего не будет, если конечно не создавать специально еще одного «человека». Задача создания сильного ИИ имеет только одно прикладное значене — изучение человеческого интеллекта и расширение наших знаний о возможных вариантах устройства «интеллекта» (ну нет другого термина вот и использую). Хорошая задача, но пока рановато и не имеет ничего общего с ожиданием многих людей о всемогущем боге который поведет человечество к процветанию и сингулярности.
"«антропные вычисления» – это программы, которые должны вести себя, как люди, или взаимодействовать с ними" — в принципе хорошо, четко отделяем веселых андроидов и электронных ассистентов в эту категорию, все остальные программы с обучением занимаются своим делом и не машут флагом ИИ, «сильный ИИ» называем «проектами по изучению мышления» а термин ИИ (сильный и слабый) вообще забываем оставляя в фантастике чтобы не пудрить себе и другим мозги. Ну маркетологам можно еще оставить, им можно, надо же что-то загадочное и трендовое писать в рекламе и прессе.
Но нам не нужны веселые андроиды, вернее они очень нишевой продукт. Нам не особо нужен и всемогущий универсальный интеллект который может сделать все что может человек и еще лучше. Нам нужны системы распознавания изображений, анализа речи и данных, самоуправляемые автомобили, роботы способные действовать в нужных условиях но адаптироваться под ситуации и обучаться на них и многое другое. Это РАЗНЫЕ продукты, не нужно из загонять в рамки классификаций придуманных для людей и очеловечивать их.
О, это напоминает былинные рассуждения боссов из IBM конца 70-х: «Кто может захотеть купить домашний компьютер? Едва ли он кому-то понадобится!» :-)))
Термин «интеллект» давно не имеет такой ясности даже в приложении к человеку, в отрыве от искусственных систем. Есть множество родственных терминов, границы между которыми размыты, зависят от субъективной трактовки: эрудиция, осознание, сознание, разум, мудрость.
Интеллект подразумевает лишь одно из качеств психики. Спорным является вопрос отнесения исключительно к интеллекту способности к оперированию абстракциям, способности к обучению, способности к постановке целей и планированию действий для изменения условий.
Появление AI, частично решающих отдельные задачи, не размывает термин, напротив — позволяет задуматься над его уточнением и приближает к пониманию того, как функционируют головы людей.
Термин «искусственный интеллект» потерял всякий смысл