Pull to refresh
14
0
Алексей Градовцев @agradov

Робототехника

Send message

Ну, если речь о моем личном мнении, то вот: http://www.robotexnik.info/index/vocabulary/0-26

Как раз на удешевление-то рассчитывать не стоит. Если посмотреть в каталоги производителей, то «кобот» (не люблю это слово :) ) будет всегда дороже обычного манипулятора с теми же параметрами грузоподъемности. Хорошие датчики момента — забава недешевая.

Облегчение — да, но об этом, скорее, речь была в первой части — раздел про LWR. Облегчение было исходным посылом при его создании. Облегчение приводит к гибкости звеньев, гибкость — к погрешностям и повышенной колебательности, и все это — к необходимости активного гашения вибраций и компенсации прогибов. С этим работают в подходах SEA (series elastic actuator) и VSA (variable stiffness actuator). Все это тоже есть, но это не impedance control.

А impedance control — это управление коэффициентами жёсткости и демпфирования виртуальной пружины, в которую мы как бы превращаем манипулятор. Это можно сделать и для тяжелого, жесткого манипулятора, ничто не мешает.

Какие бонусы? Например, «обтекание» обрабатываемых форм, если они изготовлены с погрешностями, о которых манипулятор не знает — обычный манипулятор эти неровности снесет нафик и даже не заметит микроскопических изменений токов. Выполнение операций обработки, требующих поддержания заданного усилия при движении по траектории. Соединение деталей, разъемов и пр., когда неизбежны отклонения по положению (см. опыт с штырем в отверстие). И т.п. Это не только на пром. производстве, но и в других применениях.

Т.е. такая роборука будет как человеческая — сильная, но мягкая и нежная :)
Видите ли, красавица, глупость, повторенная 4-жды, не заиграет новыми красками от ее повторения. Я уже устал объяснять (кажется, вы читаете только себя), что ваше объяснение содержит ровно 0 целых 0 десятых полезной информации, потому что оно не доказывает в вопросе ИИ ровным счетом ничего. В частности, оно не доказывает, что я путаю нереализуемость со сложностью.

Но раз уж вы настаиваете на глупостях… По поводу лорда Кельвина. Его утверждение: «Летательные аппараты тяжелее воздуха невозможны», — конечно, ошибочно. Теперь это может сказать любой школьник, просто потому что ему повезло родиться в эпоху самолетов и вертолетов.

Более того, иногда слабообразованная школота начинает считать себя умнее лорда Кельвина, физика, механика и инженера, члена и президента Лондонского королевского общества, иностранного члена Парижской академии наук, иностранного члена-корреспондента и почётного члена Петербургской академии наук.

Возможно, кое-кто даже назовет его тупым, а его глаза наглыми.

Но я думаю, что все иначе. Лорд Кельвин со всеми своими достижениями и заблуждениями XiX-го в. остался в истории, а уровень интеллекта глупой школоты как был, так и останется на уровне пускания пузырей в лужу. И еще не факт, что он стал выше уровня школоты XIX-го в.

Гуманитарные науки к делу не относятся ровно так же, как и все остальные ваши слова. Кого интересуют лингвистические тонкости прочтения слова «искусственный»? Просто люди договорились называть «искусственным» «созданное человеком», вот и все. Хотите говорить по-русски — пользуйтесь словарем. Не хотите по-русски — говорите хоть на языке Папуа-Новая Гвинея, но все равно придется со словарем, иначе оценить глубину ваших изречений сможете только вы сами (оно, похоже, и сейчас так).

А по поводу исправить статью… М-да, вы и правда читаете только себя.
Вы неправы. Недостаточно любого какого попало примера в природе, чтобы доказать что попало другое (как в случае с ЛА). Вот так было бы точнее: для опровержения отрицания достаточно хотя бы одного достоверного утверждения, которое то отрицание отрицало. :)

Ну, и где таковое утверждение? ЛА никаким образом не связаны с ИИ, поэтому их надо либо стыдливо замять (как про киборгов и про неуместность на хабре), либо пояснить, на каком основании они являются доказательством (ох, и трудно это будет).

Почитайте, почитайте про научный подход и про доказательства.

Что до бревна, то вот ведь какая незадача. Это же вы пытаетесь меня поймать на ненаучном подходе. Ну, так и покажите нам пример научного подхода, иначе чего стоят ваши разоблачения? :)

А цитировать себя — это уже даже не вера. Это мессианство какое-то :))

Да, и еще. В части критики статьи самым справедливым я считаю упрек к слову «никогда» в фразе «у роботов никогда не будет чувств и интеллекта». Что ж, считайте это литературным приемом. Я уже упоминал про случаи, когда попытки решения научной / технической проблемы приводили к полному перевороту представлений о явлении. Когда ученые / инженеры даже не представляют, в каком направлении копать, они не знают, имеет ли проблема решение хотя бы теоретически. В этих случаях, возможно, что решение не будет найдено именно никогда. Так вот с искусственным разумом может быть именно так (мое мнение!).

Подытожим. К сожалению, ваши реплики не содержали чего-то нового, что здесь еще не говорилось. А ведь я правда интересуюсь темой, и аргументы и ссылки из данного спора просматриваю. На данный момент, по совокупности, я, скорее, утверждаюсь в высказанном в статье мнении. Реальных доказательных аргументов против высказано не было.

Ваше мнение мне понятно. Принимаю к сведению.

Будут факты, доказательства — приходите еще, с удовольствием выслушаю.
Конечно же, не доказывают.

«Задача Д. — исчерпывающе утвердить истинность тезиса. Этим оно отличается от др. мыслительных процедур, призванных только частично поддержать тезис, придать ему большую или меньшую убедительность.»

Если вы считаете, что из аргумента: «кое-кто раньше считал, что ЛА невозможны, но теперь-то мы знаем, что возможны» — следует тезис: «значит, искусственный разум тоже возможен», — то вынужден оспорить эту вашу уверенность. :)

Аналогичным образом, я могу привести примеры (и в науке, и в технике), когда решение проблемы казалось делом почти сделанным, а в итоге не только не состоялось вплоть до сего момента, но и попытки решения привели к полному перевороту представлений о явлении. Докажет ли это что-либо в вопросе ИИ? Нет. Как и у вас.

О чем моя статья, я тоже уже говорил. Если бы я писал статью в рецензируемый научный журнал, вы были бы правы. Но я писал ее в научно-популярном жанре, который дает больше свободы, в частности, в выражении собственного мнения.

Вы считаете это неуместным на Хабре? Покажите мне ссылку на правила Хабра (или хоть на что-то), в которых написано, что это неуместно. Иначе это опять ваше личное мнение. А рейтинг статьи +83 говорит о том, что вы в подавляющем меньшинстве :)

Да, я считаю искусственное создание разума невозможным. Вы считаете это ошибкой? Докажите. Одним из способов доказательства (не единственным) я считаю экспериментальный. Предъявите мне искусственный разум. Не можете? Значит, пока не опровергли и значит, у меня не ошибка, а дискуссионный вопрос.

Если говорить о моем мнении, то я вообще считаю, что мы с современным ИИ, как слепые котята, тычемся не в ту сторону. Но это если говорить о создании искусственного аналога разуму; я-то считаю, что ИИ нужен совсем для другого, а значит, все оукей. Но если все же первое, то нужно что-то вообще принципиально другое. Вот и этот умудренный опытом человек высказывает схожую мысль: habr.com/ru/company/itelma/blog/497116 — из подкинутых в треде ссылок

image
(«Если же уровень человеческого эквивалента находится на отметке L3, то вряд ли какая-либо из существующих технологий сделает этот скачок… С моей точки зрения, наиболее вероятной линией уровня человеческого вождения является L3...»)

Ну, и почитайте что-нибудь про научный подход и про доказательства. Потому что я-то как раз постоянно говорю, что выражаю свое личное мнение. А вы почему-то считаете свое не доказанное мнение истинным. А это признак веры. :)

Да, раньше верили в Бога. Теперь многие верят в хайтек или во что еще угодно. Пусть нас не вводят в заблуждение новомодные слова «отреверсили», «пруф» и «artificial intelligence» — это тоже такой вариант веры :)
Ну, что ж, если вы на новом витке опять повторяете все те же аргументы, которые уже здесь звучали, то и я в N-ный раз повторю то, что говорил и я, и не только я. :)

Что примеры про летательные аппараты и Марс — это, конечно, интересно, но они, с точки зрения научного подхода, ровным счетом ничего не доказывают. Просто отвлеченные рассуждения.

Что существование интеллекта, работающего по не понятым принципам — это не доказательство того, что на текущем витке развития технологий его может искусственно создать человек. А хоть сколько-нибудь успешных попыток его создания мне неизвестно.

Самое интересное, что это только ИТшники полностью понимают, как работает мозг и что такое чувства. А от биологов я пока такого не слышал. (От биологов же, например, я слышал, когда показывал им принятую в ИНС модель нейрона, что это всего лишь один вариант из десятков реально известных, да еще и сильно упрощенный, да и поведение реальных нейронов далеко не полностью изучено.)

И это тоже наводит на определенные мысли :)

По факту, мы имеем вашу веру в то, что «нет причин не сделать для AI». Доказать ее вы не можете. Но на чем она основывается, я спрашивать не буду, т.к. понимаю. Нормальное мнение, основания для него тоже есть. У меня оно другое, но я же не против, чтобы вы имели свое :)
Видите ли, то что описали вы (роботизированным телом управляет человеческий мозг) — это не робот. Это киборг. Про киборгов я не спорю. Это было бы все равно что утверждать, что чувств нет у инвалидов с механическими протезами.

А вот с тем, что чувства могут быть у искусственного интеллекта, я не согласен. Как показала даже дискуссия под данной статьей, «нет причин, почему нельзя сделать для AI» и «сделать для AI» — это разные вещи. Сторонники возможности чувств для ИИ так и не смогли привести значимых аргументов в пользу своего мнения. Приводились в пример AlphaGo и Deep Blue, хотя это, по сути, «числодробилки». Приводился в пример алгоритм, который обучился ходить, хотя без человека, который задал ему все критерии для направленного поиска, ничего бы этого не было.

Напротив, оппоненты указывали на то, что в условиях, когда никто даже не может точно сформулировать, что такое чувства, говорить о возможности их реализации для ИИ преждевременно. Но и строгих доказательств невозможности чувств для ИИ мне тоже неизвестно. Посему это остается моим мнением.

А ответ на то, с чего я это взял — из опыта. Своего и не только.
Благодаря вашему замечанию, понял, что надо вообще переписать этот раздел (да, я все еще занудно колупал это). Потому что заметил не то что даже неточности, а небрежности со своей стороны.

Теперь, надеюсь, стало точнее и понятнее: habr.com/ru/post/507530/#header4-1. Лучше бы, конечно, 32к просмотров были после этого, но лучше поздно, чем никогда. Так что благодарю за замечание.

Строгой классификации методов управления по критерию «научности» не вывести (да и не надо), но два подхода к управлению я отчетливо замечал, причем не только по своим наблюдениям сужу, а и по литературе и общению с сообществом. И как раз группировка (пусть и условная, но имеющая место) может помочь в освоении темы. Запутывает же всегда огромный вал альтернативных методов, когда непонятно в какую сторону бежать. Ну, вот здесь уже по себе сужу.

И информация по некоторым алгоритмам тоже приведена. Ссылки [1 — 5, 9] и ссылки на сайт Leg lab — это оно и есть. Не перепечатывать же эти статьи и диссертации. Кому интересно — пройдет по ссылкам и найдет. Кому неинтересно, хотя бы будет понимать, о чем там в первом приближении.

Жанр научпоп как раз дает возможность заинтересовать предметом. И прочитают статью не 3,2 чел., а 32 килочел. Ну, а когда предмет заинтересовал, тогда и в сложном разбираться веселее.

А статья как раз о популяризации. Лучше Boston Dynamics для этого найти сложно. Мне кажется, если бы на лекциях по теории управления критерии устойчивости по Ляпунову чередовались с видеороликами об «идущих вразнос» системах управления каких-нибудь роботов, теория и запоминалась бы прочнее. :)
Ну, по поводу «интеллекта» я согласен. Я и сам-то этот термин употребляю в таком смысле, как описал здесь: «Раз уж в русском языке не придумать термина лучше, чем искусственный интеллект, ничего не поделаешь, будем пользоваться тем, что есть. Главное — правильно его понимать».

По поводу остального… Если, конечно, еще интересно… Вы затронули целую гроздь вопросов, которые в робототехнике решать все же пытаются, и иногда даже получается не так плохо. Но начать с того, что и человекоэкипаж машины не всегда может выполнить перечисленные вами задачи, в зависимости от сложности обстановки.

По подходам. Действительно, в промышленной робототехнике специально стараются делать роботы как можно жестче, т.к. на заводах это реально нужно. И управлять проще. И объекты манипулирования там тоже твердые.

Но и подходы к управлению устройствами с гибкими механическими звеньями известны достаточно давно. В статье Series Elastic Actuators (выше уже кидал эту ссылку) и целом ряде подобных описывается так называемое управление механическим импедансом (impedance control), тж. можно найти и другие публикации на тему. Т.е. управление соотношением силы и смещения (ну, и соответствующими манипуляторами). В простейшем линейном случае механический импеданс соответствует константной жесткости пружины.

А вот в RMC DLR impedance control реализовали по-другому, а именно, за счет приводов и обратной связи по усилию/моменту. Т.е. жесткий манипулятор ведет себя как пружина с заданным законом изменения жесткости, отрабатывая внешние нагрузки приводами. Выглядит красиво.

Возврат в исходную точку — это тж. известная в робототехнике задача, принципиально решаемая даже в условиях глушения связи (пример условия: «пропала связь — автономно бежим домой»). Другое дело, что и одометрия, и инерциальные датчики, как вы понимаете, имеют свою накопительную погрешность. Хотя в принципе даже можно детектировать и как-то оценивать проскальзывание по поверхности (см. в свежем обзоре Spot на канале PRO роботов с 8:51 по 9:00). Зато если возможен возврат путем обратного повторения маршрута, то это делают по сохраненной карте, построенной стереозрением / лидаром / пр. (см. того же Spot).

Да даже и советские роботы-луноходы / марсоходы были рассчитаны на движение по разным неблагоприятным типам грунта и местности.

Но, конечно, надо понимать, что задачу сам себе робот не поставит (да и слава богу). Как минимум, указать изначально: «двигаться из точки A в точку B» — все равно придется.

И надо понимать, что для хотя бы перечисленных возможностей робот придется напичкать электроникой, и как она будет работать при -50 или при +50…

И еще — что бОльшая часть современной электроники — это импорт…

И еще… Ну, пока хватит, пожалуй :)
Решил все же для смеху добавить про вашего робоцыпа :)
Еще раз спасибо за подсказку!
Ну, скажем, скорая реализация «Манипуляций любыми объектами» / «Мобильности роботов для эффективной работы в нестандартных условиях» («Преодоление препятствий и пересечённой местности») — это то, с чем лично я склонен согласиться. См. ролики с тем же Spot'ом. А еще я хочу набросать материал про центр робототехники RMC DLR, включая его робота Justin'а — там про манипуляции и первых известных мне коботов, которые тогда еще так не назывались. Существующие многопальцевые схваты с тактильными датчиками и датчиками сил (моментов) в шарнирах / алгоритмы навигации шагающих и колесных роботов позволяют надеяться, что эти задачи вполне реализуемы путем оптимизации компонентов и алгоритмов (тем более, что не указаны сроки «краткосрочности»).

Но это в обзоре справедливо отнесено к «слабому ИИ» — «решение конкретных отдельных задач». Это как раз и есть то самое «intelligence != intellect», о чем я говорил. Да и, думаю, в этих задачах не для всего и слабый-то ИИ нужен.

А вот про «сильный ИИ», опять же, справедливо указано: «Не реализован, есть сомнения в возможности построения».

Ну, а про приведенные в этом же обзоре размышления (года так от 2008-го) тов. Моравека, футуролога и просто, наверняка, отличного человека — пожалуй, без комментариев :))
2) Что происходит в современной робототехнике с более высокими уровнями управления, когда речь идет не об отдельных движениях, а об автономном выполнении миссии, хотя бы уровня «найти и принести заданный предмет». Применяется ли что-то кроме жестких алгоритмов? Кстати, те же насекомые с такой задачей справляются прекрасно. :)

А вот другое дело немного переиначить вашу задачу, примерно так:

Предположим, ребенок забыл взять в школу портфель, но у него есть персональный робот-помощник, который должен принести забытые книжки. Для этого роботу нужно составить план действий: сложить книги в портфель, взять его с собой и принести в школу.

postnauka.ru/talks/83416

Ну, так такая задача в современной робототехнике никак и не решается.
Насчет обзоров вопрос интересный. Хороший современный обзор — это всегда находка, учитывая, что не каждый день есть время его и искать. Ну, вот могу подкинуть ссылку на обзор от Сбербанка (не удивляйтесь, просто туда ушел работать небезызвестный г-н из Сколково Альберт Ефимов): вот от 2019 г., а тут можно найти прошлый, от 2018 г. В том, который за 2019 г., есть, возможно, именно то, о чем вы спросили (см. раздел 05), но насколько он хороший, пока судить не могу, еще сам не дочитал. Судя по срокам, скоро они могут выпустить обзор и от 2020 г.

На второй вопрос. Робототехника дисциплина комплексная. Непосредственно своего в ней не так чтоб много, разве что мат. описание движения манипуляторов. Да и то, в части динамики это чистый теормех, только свой частный случай. Остальное — ну, сами видите, спи… списано: в части управления — из методов ТАУ, ИИ и т.д.; разработчики подводных роботов должны быть кораблестроителями; летающих — должны знать теорию ЛА… и т.д.

Говоря о вашей задаче «найти и принести». Это конкретная задача, какие ж здесь мягкие алгоритмы придумать, даже для верхнего уровня? :) Найти — это техническое зрение, распознавание образов (уже обсуждали здесь). Дойти — это методы навигации (в BigDog это был A*, сейчас популярен SLAM). Схватить — это манипуляции, см. выше. Переключаться между этими состояниями можно и с помощью ваших конечных автоматов, например.

Мб, под нежестким понимать нечеткую логику? Но имхо, это much noise of nothing. Может, я просто темный в этом, но накойхер (фамилие такое) заморочки с переводом чисел в понятия «мало» — «много», «плохо» — «хорошо», если на выходе все равно стоит дефаззификатор, который переводит их обратно в понятные компьютеру числа? :)

Нейросети? Обучение с подкреплением? Так это, в конечном итоге, всего лишь направленный поиск оптимальных (по выбранным критериям) параметров для все тех же САУ.

И т.д. Как ни крути, но все перечисленное не имеет отношения к интеллекту.

А на нижнем, приводном уровне довершают всё те самые, любимые регуляторы: будь они хоть ПИД, хоть нечеткологические, хоть нейросетевые, все равно это обычные регуляторы :)
Я сначала отвечу коротко, а ниже подробнее :)

Есть ли? — Нет.
(Озираясь по сторонам) Мне таковые неизвестны. :)

Вот здесь я пытался кратко описать ход движения кибернетической мысли. Хоть коллега Arastas мне и попенял за неточность, но я хотел сказать, как исторически применялись в робототехнике разные подходы к управлению. Теперь думаю, как это выразить точнее.

Упрощенно, я это видел так.

Была ТАУ, которая занималась вопросами построения САУ вообще, а не только систем управления (СУ) роботов. Кстати, пока я рыскал по просторам сети, нашел интересный труд, в котором можно в непринужденной форме познакомиться с категориями ТАУ — если интересно, рекомендую, сейчас сам полистываю.

ТАУ хорошо описывает линейные системы, наработан большой мат. аппарат. Одна проблема: в реальности линейных систем не бывает. Все системы нелинейны. Не существует ничего без трения, люфтов и других нелинейных гадостей. Вот тут начинаются серьезные проблемы. Пытались линеаризовать нелинейные системы, но получалось приближение, сделанное на уже ранее сделанное приближение… И ничего толком не считалось.

Нет, в общих чертах все так, как говорит ТАУ. Только кому в технике нужны «общие черты»? Нужен расчет, точное обоснование.

Дальше больше. Системы усложнялись. Теперь это уже не 2 квазинезависимые степени наведения орудий, а 6-степенные манипуляторы с существенным взаимовлиянием динамики звеньев. Но и тут все еще можно как-то работать, т.к. промышленные манипуляторы принципиально делаются жесткими и тяжелыми. Известный подход “the stiffer the better”. Потому и уравнения динамики все еще неплохо описывают движение, а значит, и СУ можно рассчитать (например, классические адаптивные САУ на эталонных моделях манипулятора неплохо справляются), а недорассчитанное — допинать ногами (это про различие терминов «точность» и «повторяемость» у манипуляторов).

Но ведь все и дальше усложнялось. И совсем беда получилась с многошарнирными, гибкими всякими там андроидами, робопауками и прочей робонечистью. Но одновременно же развивалась и вычислительная техника, а значит, стали доступны новые методы управления, например, на основе численного решения диффуров (а не только аналитического). А кроме того, все время витала мысль: природные жучки-паучки ведь не делают вычислений, не решают в уме диффуров, чтобы ходить. Они просто ходят и летают — и все.

Вот до сих пор было не про ваш вопрос. А теперь пойдет про него.

В этот момент и стал популярен подход: давайте-ка не будем высчитывать динамические модели механизмов, строить регуляторы, которые все равно не работают как рассчитано. Пусть робот будет «черным ящиком» и сам учится собой управлять. Т.е. стали применять к робототехнике появившиеся методики ИИ и иже с ними. Обучение, самообучение и т.д. То, что здесь почти все время и обсуждали.

Да, и, конечно, это не значит, что в этих «новых» (теперь уже не новых) методах нет математики или ее меньше, чем в ТАУ.

Грубо говоря, это и все, что есть из подходов к управлению роботами. Так что по вашему вопросу вы ничего здесь не найдете.
Здесь важно то, что люди принципиально способны решать новые (часто нестандартные) задачи, а главное, ставить их. Это может быть ядерный реактор, или новый сорт помидоров, или ремонт (пусть плохой, хотя бывает и хороший), или мытье туалета, или же имитация мытья туалета — такая, чтоб менеджер не заметил халтуру, или угон машины. У всех людей разный потенциал и склонности, но все люди ставят и решают новые для себя задачи.

И, как вы сами остроумно заметили, сделать ИИ на уровне «легких» задач, решаемых обычным человеком (вымыть туалет) иногда сложнее, чем на уровне «сложных» (обыграть Каспарова).

Просто «сложность» задач с точки зрения человека слабо связана со сложностью для компьютера. Для компьютера сложны плохо формализуемые задачи, какими бы «легкими» для человека они ни казались.

Поэтому когда я говорю «Роботы никогда не смогут делать всё, как человек», я имею в виду именно никогда, а не через N лет. Да, это мое мнение, строго доказать его нельзя. И это мнение основано на еще одном моем мнении о том, что все имеющиеся сегодня алгоритмы, понимаемые под термином artificial intelligence, — это движение в сторону автоматизации типовых операций, но ни разу не в сторону интеллекта.

Все же мое образование непосредственно связано с САУ. Всю трудовую деятельность я вижу (читаю про) разные АСУ, САУ, адаптивные системы. И когда в очередной раз я слышу от молодых-горячих: «вот, скоро допилят ИИ, еще чуть-чуть, еще лет 5… 10… сколько-то — то вот тогда-то ого-го!..» — и начинаю разбираться, то опять и опять вижу очередную… АСУ, или САУ, или адаптивную САУ. Same old thing, но новыми, более современными средствами, в более красивой упаковке.

Нет, я не против энтузиазма, ведь именно он и двигает прогресс. Просто мне кажется, что они (молодые-горячие) немного путают направления движения. Так куда же надо двигаться? — спросят. А сюда и надо, думаю, — в сторону автоматизации. Artificial intellect не нужен, а вот от artificial intelligence польза есть.

Так что лично я от робота не жду ничего. Ни сложного, ни легкого. Только того, на что он запрограммирован.

Это по поводу «никогда». Думаю, я имею право на свое мнение. В статье его и изложил.
Это не проблема, это задача. Придумать хорошую, полезную модель и реализовать ИИ, достигающую результата в рамках этой модели.


Задача хорошая и полезная, но оставляющая ИИ на уровне intelligence, а не intellect. Это и было сказано в статье. А о чем там был весь спор?.. :)

Человек тоже не сможет. У человека есть внутренняя модель, которая постоянно сбоит на самых тривиальных задачах.


У Азимова был такой рассказ (лень искать название). Разработчик роботов, сделавший их супер-пупер умными и умелыми, но безрезультатно бившийся над тем, чтобы сделать их «как люди», в конце концов нашел решение: он их сломал. Сделал так, что они стали постоянно ошибаться. Типа, вот теперь они как люди. Это сходно с тем, что вы написали.

Но мне кажется, здесь Азимов неправ. «Как люди» — это не постоянно ошибаться, а в конечном итоге находить решение. Например, люди способны построить ядерный реактор, при том, что, да, те же самые люди могут постоянно сбоить на самых тривиальных задачах, например, на простых арифметических вычислениях.

В любом случае, пока не пытаются сделать замену человеку в целом. Только в рамках модели, всё более сложной. Потому что работу 90% людей можно описать не очень сложной моделью и, в результате, сделать в сто раз дешевле и надёжнее.


Вот мы и пришли к тому, что я сказал в статье. Характерно, что теперь это сказали и вы. :)

Сравните:

«Роботы Boston Dynamics (как и все другие) не могут и никогда не смогут делать всё, как человек.»

«Назначение систем искусственного интеллекта такое же, как и у остальных систем управления и средств робототехники: ускорение и повышение качества выполнения однообразной, типовой работы, с которой автоматы могут справиться лучше человека. А не подмена человека в его интеллектуальной деятельности.» — тут.

(Не обращайте внимание на слово «никогда» — статья была для обычных людей, а не для математиков :) )
Росатом и есть впереди с технологической точки зрения. И тому были, в т.ч., и объективные причины — см. все ту же приведенную ссылку на Марцинкевича.

Почему остальные не могут… Разные причины были. И не то чтобы они вообще ничего не могут. Это не так. Но строительство современных АЭС — сложнейшего комплекса — это огромная кооперация, и любой проваленный элемент означает проблемы на выходе.

В любом случае, есть факт: Росатом с его портфелем зарубежных заказов в 36 реакторов + свои, российские проекты. И остальные, на уровне почти статистической погрешности.
А это не я сравниваю проституток с секс-роботами, а мои оппоненты. Я-то как раз говорю, что они совсем разные.

Например, проститутка может во время секса захотеть апельсинов с солеными огурцами, или ей не понравится клиент, и она откажется от секса, или, наоборот, попросит свечей и романтики. Да мало ли, все может «пойти не так».

А с банкоматами секс-роботы схожи с тем, что оба выполняют программу.
Проблема-то как раз не в том, чтобы придумать конкретную модель и годами упорно добиваться, чтобы робот (ИИ) в рамках этой модели сдал экзамен на человечность. Как в случае с тестом Тьюринга, который тоже модель.

Любая модель означает упрощение роботу задачи быть «полностью неотличимым от человека», и рано или поздно такая задача может быть решена (в рамках модели, ведь так было задано). И любая модель ограничивает человека в вопросах тестирования робота (нельзя нюхать, нельзя смотреть на скорость ответа, нельзя бросаться табуреткой и т.п.)

По сути, это подмена понятий: «полностью» подменяется «полностью в границах модели», а это совсем не одно и то же.

Потому я и говорю, что фраза «полностью неотличимо от человека» — это чисто умозрительная абстракция. Когда доходит до конкретики («а что конкретно неотличимо?»), тогда и появляются модели. А появляются они потому, что человек и сам толком не знает, что он может, пока оно не потребуется.

В любой модели чего-то нельзя, и именно это «нельзя» можно использовать: сделать что-то не допустимое моделью. Вот этого робот и не сможет.

Так как, будут ссылки про «не единственный доступный способ» ?


А то я уже скоро дочитаю то, что накидали в прошлую итерацию :)

Information

Rating
Does not participate
Registered
Activity