С псевдонаучным не соглашусь, но в остальном да, единой теории на данный момент нет, поэтому и приходится оглядываться на биологию, других идей потому что нет
Игра в го по сложности мягко говоря уступает реальному миру. Но тем не менее стоит конечно признать, что за последние годы в этой области, в частности в глубоком обучении, был сделан огромный прорыв
Любой вид жизни по сути представляет собой самоподдерживающийся динамический процесс, пытающийся избежать того что мы называем смертью. Интересные идеи были предложены в теории хаотических систем, о том что простейшие живые системы могут быть развитием процессов вроде Белоусова-Жаботинского и др.
Граница между сознательным и бессознательным очень размыта, до сих пор нет чёткого понимания разницы, если она вообще есть, вполне возможно это две стороны проявления одного и того же
В 60х те же специалисты прогнозировали появление сильного ИИ в 80х, в 80х прогнозировали появление в нулевых, сейчас сложно сказать реализуемо ли это вообще
Без вещей подобных самосознанию ИИ врятли превзойдёт человека в качестве принятия решений, поэтому либо останется все тот же самым узкоспециализированным слабым ИИ, либо станет чем то вроде обезьяны с шашкой
Мне кажется важнейшей проблемой сильного ИИ является отсутствие внятного определения мотивации интеллекта. В статье это упоминалось в контексте обучения с подкреплением, что непонятно откуда брать вознаграждение, функцию ценности или приспособленности как в генетических и эволюционных алгоритмах. По сути все современные методы ИИ сводятся к градиентной или безградиентной оптимизации, для которой необходимо формализовать целевую функцию. В таких простых узкоспециализированных задачах, которые решают нейронки и подобные алгоритмы это сделать не трудно эмпирически, но когда дело доходит до универсального интеллекта это становится непосильной задачей, т. к. упирается в сложные философские вопросы о смысле какой либо деятельности и жизни в целом, относительной ценности различных мотиваций и что вообще такое интеллектуальное поведение. Тест Тьюринга здесь не поможет, т. к. он предполагает наличие некоторого эталонного интеллектуального агента. Если же оценивать сильный ИИ чисто по приспособленности и выживаемости, то это чревато появления у ИИ целей противоречащих человеческим, т. к. в природе всё завязано на конкуренции, и Скайнет в этом случае вполне может стать реальностью. Как говорится, выживает сильнейший.
Капитализм... Он не только в IT
С псевдонаучным не соглашусь, но в остальном да, единой теории на данный момент нет, поэтому и приходится оглядываться на биологию, других идей потому что нет
Существует он или нет, текущим ориентиром для сильного ИИ является человеческий интеллект
Оптимальность понятие относительное
Игра в го по сложности мягко говоря уступает реальному миру. Но тем не менее стоит конечно признать, что за последние годы в этой области, в частности в глубоком обучении, был сделан огромный прорыв
А как работает тест Тьюринга по вашему?
Если агент не сможет определять себя во времени и пространстве, его не сложно будет обмануть, а это не назовешь интеллектуальным поведением.
Любой вид жизни по сути представляет собой самоподдерживающийся динамический процесс, пытающийся избежать того что мы называем смертью. Интересные идеи были предложены в теории хаотических систем, о том что простейшие живые системы могут быть развитием процессов вроде Белоусова-Жаботинского и др.
Граница между сознательным и бессознательным очень размыта, до сих пор нет чёткого понимания разницы, если она вообще есть, вполне возможно это две стороны проявления одного и того же
В 60х те же специалисты прогнозировали появление сильного ИИ в 80х, в 80х прогнозировали появление в нулевых, сейчас сложно сказать реализуемо ли это вообще
А мышление нельзя рассматривать как вычисления?..
Без вещей подобных самосознанию ИИ врятли превзойдёт человека в качестве принятия решений, поэтому либо останется все тот же самым узкоспециализированным слабым ИИ, либо станет чем то вроде обезьяны с шашкой
Мне кажется важнейшей проблемой сильного ИИ является отсутствие внятного определения мотивации интеллекта. В статье это упоминалось в контексте обучения с подкреплением, что непонятно откуда брать вознаграждение, функцию ценности или приспособленности как в генетических и эволюционных алгоритмах. По сути все современные методы ИИ сводятся к градиентной или безградиентной оптимизации, для которой необходимо формализовать целевую функцию. В таких простых узкоспециализированных задачах, которые решают нейронки и подобные алгоритмы это сделать не трудно эмпирически, но когда дело доходит до универсального интеллекта это становится непосильной задачей, т. к. упирается в сложные философские вопросы о смысле какой либо деятельности и жизни в целом, относительной ценности различных мотиваций и что вообще такое интеллектуальное поведение. Тест Тьюринга здесь не поможет, т. к. он предполагает наличие некоторого эталонного интеллектуального агента. Если же оценивать сильный ИИ чисто по приспособленности и выживаемости, то это чревато появления у ИИ целей противоречащих человеческим, т. к. в природе всё завязано на конкуренции, и Скайнет в этом случае вполне может стать реальностью. Как говорится, выживает сильнейший.