У меня не было бы квалии зелёного, если бы я был слепым. Притом с рождения.
К теме "квалиа" и к связанной с ней теме "филозомби" у меня двойственное отношение. С одной стороны, лучше так, чем совсем ничего. С другой стороны, качество получившейся времяночки так себе.
Нет никакой проблемы в том, чтобы ИИ тоже было без разницы.
Отбросить каждую конкретную «фишку» — действительно без разницы. Но если отбросить две, то уже не так без разницы. Я бы предпочёл, чтобы котята и щенята остались, лишь бы тупость и алчность ушли.
Научите собаку решать дифференциальные уравнения.
Для того, чтобы поймать в прыжке фрисби, собаке фактически нужно решить не хилую систему дифуров. Так что не клевещите на собаченек. Всё в порядке у них с дифурами.
Сравнивают конкретные характеристики в конкретных задачах.
Это верно для «слабого ИИ». Именно он про конкретные задачи. Сильный — про все задачи.
Например, перевод текста. Плюс одна задача
Задача с подковыркой. «Strong AI only». Потому до сих пор и не решена. И, по ходу дела, не будет решена.
В общем, нравится вам верить в необъяснимые вещи, дело ваше.
Как раз всё строго наоборот. Никаких необъяснимых вещей, всё рацонально и прагматично. А то, что слегка причудливо и отличается от популярных мемов — ну извините.
… и вместо «волшебной субстанции 'интеллект'» получается еще более волшебная субстанция 'душа'. Которая, значится у человека есть, потому что он по образу и подобию божьему
Бога, конечно, нет, но понятие «душа», если им аккуратно пользоваться, оказывается очень полезным. Как способ обозначить одним словом весь комплект нематериальных активов человека.
А если даем архитектору инструмент «бригада строителей», которые строят здание вместо него, то это что?
У архитектора с бригадой строителей в лучшем случае симбиоз, а в худшем — паразитизм. А это всё уже совсем другая сказка.
Если искусственный интеллект будет полным аналогом естественного, он сможет действовать аналогично ему в любых задачах.
Что значит «полный аналог»? Если это полный аналог, то он тоже должен любить котят и щенят, испытывать безотчётную ненависть к тараканам, тупить над простыми задачами, прокрастинировать, попадаться на финансовые пирамиды, верить рекламе и иногда уходить к кришнаитам?
Мы где-то в глубине своего понимания считаем, что ум — это что-то вроде магической субстанции, которой бывает больше или меньше. Вот у козявки её совсем мало, у голубя побольше, у собаки ещё больше, а у нас, человеков — ваще капец много. Царь природы, как-никак. Компьютеры пока ещё глупые, но мы работаем над тем, чтобы магической субстанции в них стало содержаться больше. Когда её станет столько же, сколько у человека, он сможет «действовать аналогично ему в любых задачах». Дело ведь в количестве магической субстанции, разве нет?
Конечно, нет. Интеллект невозможно выразить скалярной величиной, следовательно операции сравнения «больше/меньше», «хуже/лучше», «выше/ниже» к нему вообще неприменимы. Операции сравнения неприменимы даже к векторам (длины векторов, выражаемые скалярными величинами, сравнивать можно, а сами векторы — нет). Никакой магической субстанции не существует, и подсчитывать и сравнивать её количества не нужно.
Вся концепция «сильный ИИ» построена на том, что дело всего лишь в количестве ума. Про магическую субстанцию никто, конечно, не говорит, но само сравнение «сильнее/слабее» подразумевает, что есть штука, количество которой мы имеем для простого скалярного сравнения. Но магической субстанции «ум» не существует. То есть совсем не существует. Соответственно все рассуждения, начинающиеся с «когда интеллект компьютеров превзойдёт...» — несусветная глупость.
А вы предлагаете исключить участие человека полностью, причем того человека, которому это надо. Который вам, как автоматизатору, платит деньги
Мне платят деньги за решение задачи. Если задача не может быть решена без того, чтобы вправить клиенту мозги, приходится вправлять мозги. На выходе должна получиться работающая система, а не смутные воспоминания о том, как было приятно общаться с приятным человеком.
… Система «нечеловеческая»? Да. Применима к решению человеческих задач? Да. Вывод — ваше высказывание неверно.
В данном случае система — инструмент. Она становится механистическим продолжением мозга бухгалтера. Точно так же, как топор становится продолжением руки плотника. Инструментальный подход. Мы не заменяем человека, но даём ему артефакты, при помощи которых он действует эффективнее. Не рабов механических даём, которые работают вместо человека. Работает по-прежнему человек, но с инструментами ему это делать удобнее, производительнее, эффективнее, точнее.
сделать аналог естественного интеллекта, который сможет его заменить в некоторых или в любых задачах
«В некоторых» — done.
«В любых»… дичь какая-то.
Ах, как мне, автоматизатору, знаком зуд «исключить человеческий фактор». Когда меня окончательно этим достают, я обычно предлагаю говорящему в первую очередь исключить из процесса его собственный фактор. Почему-то пациенты начинаю дёргаться и беситься. Почему-то никто не хочет исключать собственный фактор. Всем хочется царствовать. Милостиво повелевать соизволять. И чтобы вокруг на идеально ровном брезентовом поле ровными рядами росли вкусные алюминиевые огурцы.
Откуда такая ненависть ко всему живому — для меня загадка. Ладно бы ещё если бы эта дурь давала клиенту эгоистическую выгоду, так ведь нет же. Исключение человеческого фактора делает систему нечеловеческой. То есть такой, которая неприменима к решению человеческих задач. Алюминиевые огурцы оказываются несъедобными. И каждый раз одно и то же, снова и снова. Господи, вразуми этих идиотов, ибо не ведают они, чего хотят.
Это что за абсурд, простите? Если уж собрались что-то подобное писать, ну хотя бы раскрыли бы определения, а то мало того что абсурд, так еще и перемешаный с нераскрытыми определенями.
Какие определения нужно раскрыть? Может быть, «машина», или «Тьюринг»? Не валяйте пожалуйста дурака. Если вдруг Вы не знакомы с темой «может ли компьютер мыслить», могу посоветовать неплохой научпоп.
Под способностью подразумевается потенциальная способность мозга, а не вопрос «мне лень», «это займет много времени», «мне нужна бумажка» и прочее.
Я реально не могу перемножить в уме два десятизначных числа. Вне зависимости от лени и времени.
То что компьютер может эмулировать мозг — это вообще без сомнений ответ «да».
Есть разные мнения на этот счёт. Аргументы в пользу «нет» выглядят очень убедительно.
Или по вашему симулировать законы физики важные для функционирования клеток при наличии хорошего RNG невозможно?
Симулировать поведение одной частицы в каком-нибудь простом окружении на небольшом интервале времени — решаемая задача. Но если частиц квинтильоны, и они между собой причудливо взаимодействуют, плюс внешнее окружение неопределённых размеров, плюс всё это продолжительностью дни, месяцы, недели, годы… Не, это ненаучная фантастика. К тому же, есть некоторые физические нюансы, которые могут сделать предприятие безнадёжным даже при наличии бесконечного количества ресурсов и времени.
«Модель есть абстрактное представление реальности в какой-либо форме»
Представление кому?
Технически возможно сделать систему, в которой будет модель окружающего мира.
С какой-то интересующей (опять же, кого?) степенью раскрытия отдельных аспектов — да, но так, чтобы глобально всё-всё-всё — безусловно нет. Разбабахивание далеко вширь утыкается в ограничения СТО, запрещающей говорить об одновременности разнесённых в пространстве событий, а заковыривание далеко вглубь утыкается в ограничения КМ, запрещающей копировать квантовые состояния объектов. Приходится довольствоваться частичными моделями, функциональность которых определяется, как Вы, наверно, уже догадались, потребностями юзера. То есть от юзера модели при моделировании никуда не деться.
Неизвестны детали реализации
Плевать на детали. Работа мозга — информационный процесс, а суть информационного процесса параллельна подробностям его реализации. Сложение что в столбик на бумажке, что на деревянных счётах, что на АЛУ Core i7 — одно и то же сложение. На одних и тех же исходных данных обязан получиться один и тот же результат. Детали реализации безусловно важны, но для начала очень не помешало бы разобраться с тем, что там вообще происходит. Научиться обо всём этом говорить так, чтобы не натыкаться на каждом шаге на абсурд и самопротиверечия.
Если рецептов еще нет, это не значит, что задача в принципе нерешаема
Есть ещё вероятность того, что сама задача сформулирована криво. Или решение есть, но оно совсем не похожее на то, о чём мечталось. Например, алхимики веками бились над задачей трансмутации, и вот наконец она решена. Получить золото из других веществ — не проблема. Нужен лишь ускоритель частиц, и будет вам золото. В количестве нескольких атомов в секунду :))
Придут. Даже не сомневайтесь. Технически задача решаемая и, не исключено, что даже не очень прожорливая по части требований к аппаратуре. Я убеждён (вполне возможно, что зря), что имеющихся уже сейчас мощностей даже дешёвого ноутбука достаточно для того, чтобы замутить что-то интересное на основе принципа самоорганизации. Но проблема в том, что мы пока что даже не научились рассуждать о самоорганизации. Нет даже адекватного понятийного аппарата. Теоретические исследования этого явления не продвинулись дальше описания простейших диссипативных структур типа ячеек Беннара и реакций Белоусова-Жаботинского.
Невозможно изготовить артефакт, для которого нет даже языка, на котором может быть сформулирована постановка задачи.
Что то, что использует модель, само является частью модели.
Технически мы можем накрутить что угодно, но если модель является частью юзера модели (или наоборот), то это уже противоречит тому, что мы считаем моделированием во всех остальных случаях. Терминологическая путаница, сразу уводящая рассуждения в ложном направлении. Слово «модель» в данном случае использовать нельзя. Словосочетание «картина мира», кстати, тоже, потому что картина предполагает зрителя, а это опять мерзкий внутримозговой гомункл.
Всё нормально объясняется и без них.
Во-первых, не объясняется. Если Вы вдруг забыли, то я напомню, что загадка мышления — это сейчас один из самых гнусных нерешённых вопросов. Редко кому даже из серьёзных профессиональных исследователей удаётся обсуждать эту тему, не сваливаясь в конце концов в «тонкие материи», боженьку и прочую галимую мистику.
Во-вторых, не в объяснениях дело. Объяснять можно что угодно чем угодно. Самые объясняющие объяснения всему на свете есть в Библии, Коране и прочих священных книгах, не счесть им числа. Но что толку? Нам, технарям, проку от этих объяснений — строго ноль. Нам нужны работающие рецепты. Чтобы собрал, включил, работает. Пока же мы имеем, что даже хвалёный google translate выдаёт откровенную хрень.
Вот, например, предыдущий абзац, пропущенный туда-обратно через гуглоперевод на английский:
Во-вторых, независимо от объяснения. Объясните все возможно все. Большинство объяснений объяснить все в мире находится в Библии, Корана и других священных книг, они не находят число. Но что толку? Мы, технари, много хорошего эти объяснения — строго равен нулю. Нам нужно работать рецепты. Для того, чтобы собрать, и бег. В то же время, у нас есть, что даже хваленая Google Translate дает прямую дерьмо.
Дело, подозреваю, даже не в масштабе и скорострельности, а в том, что ИНС и мозг реализуют в корне разные принципы функционирования. ИНС реализует оптимизацию методом градиентного спуска в пространстве решений, а в мозгу эксплуатируется принцип самоорганизации. Это не просто другое, а совсем другое. Разница в подходах как между плановой и рыночной экономиками.
Мозг — это такой же компьютер, просто биологический
Осень — это такое же небо. Плачущее небо под ногами. Извините за ехидство.
Я в курсе развернувшегося во второй половине 20-го века дискурса про то, может ли мышление быть воспроизведено машиной Тьюринга. До сих пор народ ломает по этому поводу копья. Отношусь к этому всему снисходительно, и в первую очередь потому, что машиной Тьюринга можно воспроизводить только функционирование закрытой системы. Как только система становится хоть капельку открытой, её воспроизводимость вычислением становится невозможной. Наше мышление — настежь открытый процесс, и поэтому весь этот дискурс можно аккуратно отнести на свалку глупых курьёзов.
Но если хотите — можно попробовать дать одно из возможных определений сознания как внутреннего неотъемлемого свойства любой системы способной решить произвольную алгоритмически разрешимую задачу.
Я не способен решить любую алгоритмически решаемую задачу. Даже не способен перемножить два десятизначных числа без внешнего костылика в виде бумажки и ручки. У меня нет сознания?
Модель есть абстрактное представление реальности в какой-либо форме (например, в математической, физической, символической, графической или дескриптивной), предназначенное для представления определённых аспектов этой реальности и позволяющее получить ответы на изучаемые вопросы.
Самое главное выделил жирным. По-любому должен быть кто-то, (или на худой конец что-то) кто использует модель для получения ответов на изучаемые вопросы. При этом сам с этой моделью совпадать не должен.
Говорю же, мерзкий гомункл при такой постановке вопроса неизбежен.
без внутренних моделей вы ни одну систему не построите
Вот потому и безальтернативный мэйнстрим. Для того, чтобы избавиться от внутриголовных моделей (и выгнать наконец внутриголовных гомунклов), нужно так перевернуть всё наше мировоззрение, что нужно трижды подумать, прежде чем пускаться в такие приключения.
Есть субъект. У него на основе входной информации складывается некоторая модель мира. Он же ей и пользуется. Где тут петля?
Сама идея моделирования (можете взять любое определение этого вида деятельности) предполагает, что берётся некая штучка, свойства которой совпадают с изучаемыми свойствами моделируемой системы. И познающий субъект вместо того, чтобы лазить за инфой в моделируемую систему (это может быть долго, дорого, геморно и не всегда возможно), играет с моделью.
Ключевое в этой истории то, что субъект получается отдельно от модели. Модель для субъекта — часть внешнего мира. Прокси к менее доступным явлениям остальной реальности.
Если мы принимаем, что в голове есть модель, то где субъект? Стоя на твёрдых естественнонаучных позициях, мы его тоже помещаем в свою голову. Итого, у нас в голове образовались две логически разные подсистемы: модель и субъект. Дальше мы или полагаем, что внутримозговой субъект — полный болван и ничего не понимает, или соглашаемся с тем, что у него самого внутри есть модель мира. Но только его внешний мир теперь в значительной мере состоит из ставшей внешней по отношению к нему модели (активно юзает прокси). Итак, у нас получилась модель второго порядка в голове субъекта второго порядка. Но где же субъект, юзающий модель второго порядка? Правильный ответ: это субъект третьего порядка в «голове» субъекта второго порядка. Логическая петля.
Вся эта бредятина известна в среде мозговедов как «теория гомункла». Об неё, понятное дело, вытерли ноги все, кому не лень. Ибо действительно полный шлак. Но юмор в том, что существование внутримозгового гомункла является неизбежным следствием концепции «модель мира». А концепция эта сейчас по сути является безальтернативным мэйнстримом. В общем, такая печалька.
На вопрос «Может ли компьютер превзойти человеческий разум?» я обычно отвечаю «конечно да». Даже мощь простой деревянной логарифмической линейки превосходит мощь моего разума по части перемножения чисел :))
На вопрос «Может ли компьютер смоделировать сознание?» отвечаю «я не понимаю, о чём вы говорите». Воспользуюсь аналогией. Допустим, мы решили заняться авиамоделированием и построить модель Боинга-747. Вырезали детальки из дерева, покрасили. Красиво. Прикольно. Можно пойти дальше, мощно развить свои скилзы и построить летающую модельку. С игрушечными сиденьицами внутри и прелестными куколками-стюардессами. Можем даже построить модель в натуральную величину. Даже действующую. Но всё равно получившееся изделие не станет самолётом, а останется его моделью. Потому что самолёт — это не только набор деталек, соединённых определённым образом, но и ещё куча всего, включая репутацию производителя, комплект сертификатов, гарантийное/послегарантийное обслуживание, перспективный план модернизации, тренинги подготовки персонала и так далее. Между «быть» и «быть моделью» лежит непреодолимая сущностная пропасть.
Каждый раз, когда техническое изделие начинает в чём-то превосходить человека, всегда случается ажиотаж. Подозреваю, когда наши древние предки изобрели тележку на колёсиках, и тогда народ занервничал, что эта штука превзошла человека по части переноски предметов, и люди теперь не нужны. Теперь повторяется та же самая ситуация, но только по поводу того, что тех.средства научились решать задачу аппроксимации функций большого количества переменных.
Когда в начале 90-х я вскользь столкнулся с темой «аппроксимация», уже тогда был понятен термоядерный потенциал этой штуки. В конце концов, классическое «научиться отличать на картинке котика от собачки» (в начале 90-х это звучало как недостижимая мечта) является именно задачей аппроксимации. Но существовавшие тогда мат.методы, включая генетические алгоритмы и нейросети первой волны, не обладали требуемыми ТТХ. Прорыв случился, когда придумали глубинное обучение. Именно тогда появилась возможность аппроксимировать нетривиальные функции тысяч переменных. Соответственно, начал раскрываться тот самый термоядерный потенциал.
Но какое отношение имеет задача аппроксимации к тому, что мы по жизни называем интеллектом? Да примерно такое же, как и умение выигрывать в шахматы, выполнять арифметические арифметические операции и запоминать наизусть тексты. То есть почти никакого. Если посмотреть в целом на то, чем занимается наш мозг, то… в общем, не существует той самой глобальной длиной в жизнь функции многих переменных, которую требовалось бы аппроксимировать. Ровно по той же самой причине, по которой жизнь не является шахматной партией.
Так что есть смысл с иронией относиться к тому, что глубинное обучение назвали искусственным интеллектом. Ошиблись товарищи. Бывает. Ничего страшного. Не в первый и не в последний раз.
Что в вашем понимании «логически несостоятельна»? Я не знаю ни одной такой концепции.
Это очень большая (и интересная) тема. Я не уверен, что есть смысл раскрывать её здесь и сейчас.
Под логической несостоятельностью я имею в виду наличие внутренних противоречий и/или логических петель. Например, концепция «модель мира» содержит в себе контрпродуктивную логическую петлю, заключающуюся в том, что когда мы говорим о любых моделях, мы неявно подразумеваем, что есть субъект, пользующийся этой моделью. Субъект, у которого в его «голове» тоже складывается модель мира, которой пользуется… и так далее в дурной логической петле.
Отсюда принципиальный момент, упускаемый примерно всеми энтузиастами ИИ: нужно как-то так исхитриться, чтобы «изделие» обходилось без моделей внутри себя. Просто потому, что когда в основу положена логически несостоятельная концепция, результатом проектирования будет технически несостоятельное устройство.
Если же убрать концепцию моделирования мира, то неизбежно приходим к тому, что ИИ сам должен стать плотью от плоти той предметной области, в которой он работает. В случае с пониманием естественного языка он должен сам стать существом, наравне со всеми остальными обитающем в языковой среде. То есть, фактически, человеком. То есть не программой на жёстком диске. Это и есть та неустранимая часть цены, которую нужно заплатить за удовольствие.
«Окружающий мир» — понятие очень неконкретное. Сильно зависит от субъекта и от ситуации. У меня один окружающий мир, у моей собаки другой, у почтового клиента третий, у SQL-сервера четвёртый. Атомы, конечно, одни и те же, но смыслы, означаемые этими атомами, все разные. Перевод текста, как и любой другой вид работы с информацией — это именно работа со смыслами, и поэтому очень важно, чтобы для переводчика зелёный цвет был тем же самым зелёным цветом, что и для автора текста. И чтобы тем же самым были любовь, ненависть, благородство, предательство, боль, надежда на будущее, отчаяние и т.п. вещи. Просто дотянуть видеосигнал от камеры и аудиопоток с микрофона вовнутрь коробочки — это ни о чём.
И это опять же не доказывает технической невозможности перевода.
Я обещал рассказать, почему задача не имеет технического решения, но я не обещал дать корректное со всех точек зрения доказательство. Если говорить в терминах «возможно / невозможно», то конечно возможно. Просто цена слишком высока, и эта цена имеет внутри себя гадскую компоненту, которая не снижается технологическим развитием.
И ещё мировоззренческая. Никто не знает, что это за шняга такая, эта самая наша хвалёная модель мира.
А это неважно, как оно там с философской точки зрения. Главное найти технический способ сделать такую программу.
Раньше люди верили в божественные чудеса и силу молитвы. Соответственно, если ставилась ранее не решённая задача, то первой мыслью было «надо найти такую молитву, которая донесёт до Всевышнего нашу просьбу». Сейчас мы очарованы чудесами техники и нам кажется, что поможет «технический способ сделать такую программу». Соответственно, лихорадочно думаем над тем, как в программе формализовать модель мира так, чтобы эта модель верно отражала окружающий мир. В общем, конечно, правильно. Не надо задумываться над тем, что у нас добрая половина базовых концепций логически несостоятельна. Надо кодить.
У меня не было бы квалии зелёного, если бы я был слепым. Притом с рождения.
К теме "квалиа" и к связанной с ней теме "филозомби" у меня двойственное отношение. С одной стороны, лучше так, чем совсем ничего. С другой стороны, качество получившейся времяночки так себе.
Для того, чтобы поймать в прыжке фрисби, собаке фактически нужно решить не хилую систему дифуров. Так что не клевещите на собаченек. Всё в порядке у них с дифурами.
Это верно для «слабого ИИ». Именно он про конкретные задачи. Сильный — про все задачи.
Задача с подковыркой. «Strong AI only». Потому до сих пор и не решена. И, по ходу дела, не будет решена.
Как раз всё строго наоборот. Никаких необъяснимых вещей, всё рацонально и прагматично. А то, что слегка причудливо и отличается от популярных мемов — ну извините.
У архитектора с бригадой строителей в лучшем случае симбиоз, а в худшем — паразитизм. А это всё уже совсем другая сказка.
"Философский зомби" был придуман для пояснения понятия "квалиа". Соответственно, в отрыве от квалии говорить о нём особого смысла нет.
Мы где-то в глубине своего понимания считаем, что ум — это что-то вроде магической субстанции, которой бывает больше или меньше. Вот у козявки её совсем мало, у голубя побольше, у собаки ещё больше, а у нас, человеков — ваще капец много. Царь природы, как-никак. Компьютеры пока ещё глупые, но мы работаем над тем, чтобы магической субстанции в них стало содержаться больше. Когда её станет столько же, сколько у человека, он сможет «действовать аналогично ему в любых задачах». Дело ведь в количестве магической субстанции, разве нет?
Конечно, нет. Интеллект невозможно выразить скалярной величиной, следовательно операции сравнения «больше/меньше», «хуже/лучше», «выше/ниже» к нему вообще неприменимы. Операции сравнения неприменимы даже к векторам (длины векторов, выражаемые скалярными величинами, сравнивать можно, а сами векторы — нет). Никакой магической субстанции не существует, и подсчитывать и сравнивать её количества не нужно.
Вся концепция «сильный ИИ» построена на том, что дело всего лишь в количестве ума. Про магическую субстанцию никто, конечно, не говорит, но само сравнение «сильнее/слабее» подразумевает, что есть штука, количество которой мы имеем для простого скалярного сравнения. Но магической субстанции «ум» не существует. То есть совсем не существует. Соответственно все рассуждения, начинающиеся с «когда интеллект компьютеров превзойдёт...» — несусветная глупость.
Мне платят деньги за решение задачи. Если задача не может быть решена без того, чтобы вправить клиенту мозги, приходится вправлять мозги. На выходе должна получиться работающая система, а не смутные воспоминания о том, как было приятно общаться с приятным человеком.
В данном случае система — инструмент. Она становится механистическим продолжением мозга бухгалтера. Точно так же, как топор становится продолжением руки плотника. Инструментальный подход. Мы не заменяем человека, но даём ему артефакты, при помощи которых он действует эффективнее. Не рабов механических даём, которые работают вместо человека. Работает по-прежнему человек, но с инструментами ему это делать удобнее, производительнее, эффективнее, точнее.
«В любых»… дичь какая-то.
Ах, как мне, автоматизатору, знаком зуд «исключить человеческий фактор». Когда меня окончательно этим достают, я обычно предлагаю говорящему в первую очередь исключить из процесса его собственный фактор. Почему-то пациенты начинаю дёргаться и беситься. Почему-то никто не хочет исключать собственный фактор. Всем хочется царствовать. Милостиво повелевать соизволять. И чтобы вокруг на идеально ровном брезентовом поле ровными рядами росли вкусные алюминиевые огурцы.
Откуда такая ненависть ко всему живому — для меня загадка. Ладно бы ещё если бы эта дурь давала клиенту эгоистическую выгоду, так ведь нет же. Исключение человеческого фактора делает систему нечеловеческой. То есть такой, которая неприменима к решению человеческих задач. Алюминиевые огурцы оказываются несъедобными. И каждый раз одно и то же, снова и снова. Господи, вразуми этих идиотов, ибо не ведают они, чего хотят.
Впрочем, иногда бывает лучше пожертвовать виртуальной кармой ради кармы реальной ;)
Я реально не могу перемножить в уме два десятизначных числа. Вне зависимости от лени и времени.
Есть разные мнения на этот счёт. Аргументы в пользу «нет» выглядят очень убедительно.
Симулировать поведение одной частицы в каком-нибудь простом окружении на небольшом интервале времени — решаемая задача. Но если частиц квинтильоны, и они между собой причудливо взаимодействуют, плюс внешнее окружение неопределённых размеров, плюс всё это продолжительностью дни, месяцы, недели, годы… Не, это ненаучная фантастика. К тому же, есть некоторые физические нюансы, которые могут сделать предприятие безнадёжным даже при наличии бесконечного количества ресурсов и времени.
С какой-то интересующей (опять же, кого?) степенью раскрытия отдельных аспектов — да, но так, чтобы глобально всё-всё-всё — безусловно нет. Разбабахивание далеко вширь утыкается в ограничения СТО, запрещающей говорить об одновременности разнесённых в пространстве событий, а заковыривание далеко вглубь утыкается в ограничения КМ, запрещающей копировать квантовые состояния объектов. Приходится довольствоваться частичными моделями, функциональность которых определяется, как Вы, наверно, уже догадались, потребностями юзера. То есть от юзера модели при моделировании никуда не деться.
Плевать на детали. Работа мозга — информационный процесс, а суть информационного процесса параллельна подробностям его реализации. Сложение что в столбик на бумажке, что на деревянных счётах, что на АЛУ Core i7 — одно и то же сложение. На одних и тех же исходных данных обязан получиться один и тот же результат. Детали реализации безусловно важны, но для начала очень не помешало бы разобраться с тем, что там вообще происходит. Научиться обо всём этом говорить так, чтобы не натыкаться на каждом шаге на абсурд и самопротиверечия.
Есть ещё вероятность того, что сама задача сформулирована криво. Или решение есть, но оно совсем не похожее на то, о чём мечталось. Например, алхимики веками бились над задачей трансмутации, и вот наконец она решена. Получить золото из других веществ — не проблема. Нужен лишь ускоритель частиц, и будет вам золото. В количестве нескольких атомов в секунду :))
Невозможно изготовить артефакт, для которого нет даже языка, на котором может быть сформулирована постановка задачи.
Во-первых, не объясняется. Если Вы вдруг забыли, то я напомню, что загадка мышления — это сейчас один из самых гнусных нерешённых вопросов. Редко кому даже из серьёзных профессиональных исследователей удаётся обсуждать эту тему, не сваливаясь в конце концов в «тонкие материи», боженьку и прочую галимую мистику.
Во-вторых, не в объяснениях дело. Объяснять можно что угодно чем угодно. Самые объясняющие объяснения всему на свете есть в Библии, Коране и прочих священных книгах, не счесть им числа. Но что толку? Нам, технарям, проку от этих объяснений — строго ноль. Нам нужны работающие рецепты. Чтобы собрал, включил, работает. Пока же мы имеем, что даже хвалёный google translate выдаёт откровенную хрень.
Вот, например, предыдущий абзац, пропущенный туда-обратно через гуглоперевод на английский:
Самосознание — способность системы продуктивно оперировать понятием собственной идентичности.
Я в курсе развернувшегося во второй половине 20-го века дискурса про то, может ли мышление быть воспроизведено машиной Тьюринга. До сих пор народ ломает по этому поводу копья. Отношусь к этому всему снисходительно, и в первую очередь потому, что машиной Тьюринга можно воспроизводить только функционирование закрытой системы. Как только система становится хоть капельку открытой, её воспроизводимость вычислением становится невозможной. Наше мышление — настежь открытый процесс, и поэтому весь этот дискурс можно аккуратно отнести на свалку глупых курьёзов.
Я не способен решить любую алгоритмически решаемую задачу. Даже не способен перемножить два десятизначных числа без внешнего костылика в виде бумажки и ручки. У меня нет сознания?
Говорю же, мерзкий гомункл при такой постановке вопроса неизбежен.
Вот потому и безальтернативный мэйнстрим. Для того, чтобы избавиться от внутриголовных моделей (и выгнать наконец внутриголовных гомунклов), нужно так перевернуть всё наше мировоззрение, что нужно трижды подумать, прежде чем пускаться в такие приключения.
Ключевое в этой истории то, что субъект получается отдельно от модели. Модель для субъекта — часть внешнего мира. Прокси к менее доступным явлениям остальной реальности.
Если мы принимаем, что в голове есть модель, то где субъект? Стоя на твёрдых естественнонаучных позициях, мы его тоже помещаем в свою голову. Итого, у нас в голове образовались две логически разные подсистемы: модель и субъект. Дальше мы или полагаем, что внутримозговой субъект — полный болван и ничего не понимает, или соглашаемся с тем, что у него самого внутри есть модель мира. Но только его внешний мир теперь в значительной мере состоит из ставшей внешней по отношению к нему модели (активно юзает прокси). Итак, у нас получилась модель второго порядка в голове субъекта второго порядка. Но где же субъект, юзающий модель второго порядка? Правильный ответ: это субъект третьего порядка в «голове» субъекта второго порядка. Логическая петля.
Вся эта бредятина известна в среде мозговедов как «теория гомункла». Об неё, понятное дело, вытерли ноги все, кому не лень. Ибо действительно полный шлак. Но юмор в том, что существование внутримозгового гомункла является неизбежным следствием концепции «модель мира». А концепция эта сейчас по сути является безальтернативным мэйнстримом. В общем, такая печалька.
На вопрос «Может ли компьютер превзойти человеческий разум?» я обычно отвечаю «конечно да». Даже мощь простой деревянной логарифмической линейки превосходит мощь моего разума по части перемножения чисел :))
На вопрос «Может ли компьютер смоделировать сознание?» отвечаю «я не понимаю, о чём вы говорите». Воспользуюсь аналогией. Допустим, мы решили заняться авиамоделированием и построить модель Боинга-747. Вырезали детальки из дерева, покрасили. Красиво. Прикольно. Можно пойти дальше, мощно развить свои скилзы и построить летающую модельку. С игрушечными сиденьицами внутри и прелестными куколками-стюардессами. Можем даже построить модель в натуральную величину. Даже действующую. Но всё равно получившееся изделие не станет самолётом, а останется его моделью. Потому что самолёт — это не только набор деталек, соединённых определённым образом, но и ещё куча всего, включая репутацию производителя, комплект сертификатов, гарантийное/послегарантийное обслуживание, перспективный план модернизации, тренинги подготовки персонала и так далее. Между «быть» и «быть моделью» лежит непреодолимая сущностная пропасть.
Каждый раз, когда техническое изделие начинает в чём-то превосходить человека, всегда случается ажиотаж. Подозреваю, когда наши древние предки изобрели тележку на колёсиках, и тогда народ занервничал, что эта штука превзошла человека по части переноски предметов, и люди теперь не нужны. Теперь повторяется та же самая ситуация, но только по поводу того, что тех.средства научились решать задачу аппроксимации функций большого количества переменных.
Когда в начале 90-х я вскользь столкнулся с темой «аппроксимация», уже тогда был понятен термоядерный потенциал этой штуки. В конце концов, классическое «научиться отличать на картинке котика от собачки» (в начале 90-х это звучало как недостижимая мечта) является именно задачей аппроксимации. Но существовавшие тогда мат.методы, включая генетические алгоритмы и нейросети первой волны, не обладали требуемыми ТТХ. Прорыв случился, когда придумали глубинное обучение. Именно тогда появилась возможность аппроксимировать нетривиальные функции тысяч переменных. Соответственно, начал раскрываться тот самый термоядерный потенциал.
Но какое отношение имеет задача аппроксимации к тому, что мы по жизни называем интеллектом? Да примерно такое же, как и умение выигрывать в шахматы, выполнять арифметические арифметические операции и запоминать наизусть тексты. То есть почти никакого. Если посмотреть в целом на то, чем занимается наш мозг, то… в общем, не существует той самой глобальной длиной в жизнь функции многих переменных, которую требовалось бы аппроксимировать. Ровно по той же самой причине, по которой жизнь не является шахматной партией.
Так что есть смысл с иронией относиться к тому, что глубинное обучение назвали искусственным интеллектом. Ошиблись товарищи. Бывает. Ничего страшного. Не в первый и не в последний раз.
Под логической несостоятельностью я имею в виду наличие внутренних противоречий и/или логических петель. Например, концепция «модель мира» содержит в себе контрпродуктивную логическую петлю, заключающуюся в том, что когда мы говорим о любых моделях, мы неявно подразумеваем, что есть субъект, пользующийся этой моделью. Субъект, у которого в его «голове» тоже складывается модель мира, которой пользуется… и так далее в дурной логической петле.
Отсюда принципиальный момент, упускаемый примерно всеми энтузиастами ИИ: нужно как-то так исхитриться, чтобы «изделие» обходилось без моделей внутри себя. Просто потому, что когда в основу положена логически несостоятельная концепция, результатом проектирования будет технически несостоятельное устройство.
Если же убрать концепцию моделирования мира, то неизбежно приходим к тому, что ИИ сам должен стать плотью от плоти той предметной области, в которой он работает. В случае с пониманием естественного языка он должен сам стать существом, наравне со всеми остальными обитающем в языковой среде. То есть, фактически, человеком. То есть не программой на жёстком диске. Это и есть та неустранимая часть цены, которую нужно заплатить за удовольствие.
Я обещал рассказать, почему задача не имеет технического решения, но я не обещал дать корректное со всех точек зрения доказательство. Если говорить в терминах «возможно / невозможно», то конечно возможно. Просто цена слишком высока, и эта цена имеет внутри себя гадскую компоненту, которая не снижается технологическим развитием.
Раньше люди верили в божественные чудеса и силу молитвы. Соответственно, если ставилась ранее не решённая задача, то первой мыслью было «надо найти такую молитву, которая донесёт до Всевышнего нашу просьбу». Сейчас мы очарованы чудесами техники и нам кажется, что поможет «технический способ сделать такую программу». Соответственно, лихорадочно думаем над тем, как в программе формализовать модель мира так, чтобы эта модель верно отражала окружающий мир. В общем, конечно, правильно. Не надо задумываться над тем, что у нас добрая половина базовых концепций логически несостоятельна. Надо кодить.