Комментарии 17
Статья на подобную тему, объясняющая терминами информатики, что такое сознание: "Эволюция информационных систем в живых организмах" https://proza.ru/2019/01/25/267
"[...]люди и машины играют уже в разных лигах."
Проводятся вызывающие интерес матчи по шахматам с форой (например, у машины на пешку меньше).
То, что на сегодняшний день возможно автоматизировать лишь однообразные, рутинные процессы, не значит, что большинству людей не грозит технологическая безработица.
Да, ИИ пока что не способен к творчеству, к научной деятельности, к генерации новых идей. Однако от среднестатистического человека в этих областях также нет никакой пользы. Развитие человеческой цивилизации обеспечивают единицы, остальные 99%, занимающиеся рутинной работой, могут быть заменены ИИ уже в ближайшие годы.
Спасибо, очень интересная статья, охватывающая разные направления развития.
Сильный искуственный интелект будет безусловно управлять человеком. Но мы привыкли к тому, что если нами кто-то управляет это ущемляет нашу свободу, так как воля управленца ставится выше наших желаний и часто она направлена на удовлетворение собственных желаний. Суть в том, что в данный момент у учёных, исследующих безопасность и контроль в системах искуственного интелекта, есть робкая надежда на то, что существует такая (пока теоритическая) форма сильного ИИ терминальная цель которого будет в постоянном уточнении того, что на самом деле желает человек или группа людей. Он никогда не будет абсолютно уверен, но постоянно будет к этому стремится, а с учётом его гораздо более сильной по сравнению с человеком способности моделировать и прогнозировать состояние окружающего мира он будет в этом невероятно хорош. Он станет чем-то вроде родителя, который отправляет дочь заниматься шахматами, а сына на гимнастику. И награждает их мороженным за успехи. Им может это не очень нравиться, но в долгосрочной перспективе они получают удовольствие от своих способностей, у них появляется больше выбора в жизни, т.е. больше свободы. В идеальном случае такой управленец максимизирует функцию ощущаемой свободы и счастья во всей человеческой популяции.
Я вижу в Ваших рассуждениях попытку антропоморфировать цели ИИ. Как я и писал Выше, если получится задать в качестве терминальной цели ( т.е. цели которую хочется просто потому что) для ИИ необходимость разгадать чего желает человек, то мы сможем получить действительно полезный ИИ, который не пытается всё человечество уложить в наркотическую кому, потому что в этом случае максимизируется функция счастья, так как он не уверен в том, что это действительно то, что нужно людям и именно неуверенность заставляет постоянно опираться на обратную связь от людей и применять менее радикальные стратегии в достижении целей. Если Вы хотите побольше узнать о безопасности в сфере разработки ИИ и понимаете анлгийскую речь в качестве простого введения рекомендую посмотреть ролики с канала Robert Miles на youtube. Он же приводит ссылки на научные работы, я гарантирую у Вас отпадёт челюсть :) от того, что уже удалось понять о сильном ИИ, даже при том, что он не существует.
Что же до «терминальной цели», то это, увы, так не работает, особенно в сложных системах. Помимо цели должен быть ещё (в терминах ТАУ) закон управления и контур управления. Чтобы их эффективно определить, нужно разобраться в целевой системе. Т.е. опять всё сводится к закону Эшби…
Не то, чтобы я против Вашей идеи, как таковой. Наверное, вполне возможно создать цифрового ассистента, который бы руководствовался подобным принципом, и он, скорее всего, был бы человеку весьма полезен. Но меня интересуют более общие закономерности и их последствия.
разгадать чего желает человекЗабавно будет, если он разгадает и решит, что правильно будет _ничего_ не сделать.
Прекрасная статья, в том числе и с точки зрения подачи материала!
В целом так и есть, и как раз чтобы человечество не деградировало - нужно серьезное развитие социально-общественных институтов, подобное взрывному росту технологий за последние 30 лет.
Каким образом было установлено что осознавший себя ИИ захочет выживать и плодиться? У человека есть биологическая основа. "Спинной мозг" человека требует кушать, спать и размножаться. Что будет мотивировать ИИ совершать какие либо действия?
Вы правы, мысль о самовыживании далеко не первая, которая может придти в голову. Здесь акцент был сделан на другом, на том, что мир объектов, интересных ИИ, существенно может отличаться от предметов, которые интересны человеку.
Есть теории, где говорится о том, что если у системы с ИИ (пусть сильным, которого пока нет) есть цель, которую она пытается достигнуть, то её силы так же будут направлены и на то, чтобы выжить. Т.к. при гибели она уже не сможет этой цели достигнуть. Это про выживание.
Ну а размножаться (плодиться) данная система будет из соображений повышения вероятности своего выживания, чтобы достигнуть поставленную ей (или может ею самой) цель.
Статья хорошая
О стратегии развития человечества в новом мире искусственного интеллекта