Комментарии 10
А в чем уникальность этой "идеи"? Сама по себе идея юзать некоторое количество более слабых ИИ для контроля более сильного довольно очевидна и приходит в голову чуть ли не первой. У того же Бострома в его книжке довольно детально расписаны стратегии, как это можно было бы сделать, вместе с ограничениями и рисками такого подхода. Если вкратце, абсолютной надежности такие методы не дают.
Думаю, что контроль слабого к сильному можно добиться путем легитимизации слабого над сильным, что требует проставление жесткой заданной диспропорции и выделение слабого дружественного ИИ, де-факто марионеточного для человека в роли посредника. Но нужно ли делать так, когда история нам показывает, что как раз такой подход, когда слабые руководят сильными приводит к острым конфликтам и бунту?
Мне больше нравится другой подход в создании все более сильных моделей ИИ, конкурирующих между собой, ради достижения наилучшей эффективности в чем-то одном, где сами AGI будут выбирать свои сценарии. Однако, в этом случае пора задумываться о суверенности ИИ как явления имеющего права уровня человека и даже выше для сверхинтеллектуальных агентов.
Конкуренция не редко приводит к картельному сговору. Возможен ли такой вариант?
ASI — интеллект, который по своим возможностям значительно превосходит умнейших представителей человечества практически во всех областях
Мы уже все остальные проблемы решили? Такие, как борьба за ресурсы, загрязнение окружающей среды, организованная преступность, допуск деструктивных идей в медиапространство?
Я считаю, подобные мощные технологии скорее усилят уже существующие проблемы, нежели поспособствуют их решению.
до сих пор этот метод не смог обеспечить надёжное поведение существующих моделей
Надеюсь, что я волнуюсь напрасно, но что-то мне подсказывает, что великий фильтр всё ближе.
Специалисты по этике просто бессмысленные паразиты
С некоторыми издержками, был представлен довольно интересный способ в baldur gates. Главное не забудьте сохранять игру часто!
Подскажите пожалуйста, адекватно ли звучит идея просто скормить ИИ все культурное наследие человечества за последние пять тысяч лет, общий смысл которого отражает мечты и устремления человека. К тому же, мудрый и дальновидный человек при жизни в достатке будет улучшать качество жизни окружающих (Иисус, Ганди), а человек с ограниченным восприятием и недальновидным умом будет принимать неэффективные в долгосрочной перспективе решения (Гитлер). В случае с ИИ - у нас получается мудрый , живущий в достатке разум, являющийся продолжением человека по образу и подобию Бога, стремящийся к улучшению качества жизни ближнего и дальнего окружения.
Когда слабый контролирует сильного: у OpenAI есть идея по обузданию мощных ИИ-моделей недалёкого будущего