Pull to refresh

Comments 9

А в чем уникальность этой "идеи"? Сама по себе идея юзать некоторое количество более слабых ИИ для контроля более сильного довольно очевидна и приходит в голову чуть ли не первой. У того же Бострома в его книжке довольно детально расписаны стратегии, как это можно было бы сделать, вместе с ограничениями и рисками такого подхода. Если вкратце, абсолютной надежности такие методы не дают.

Думаю, что контроль слабого к сильному можно добиться путем легитимизации слабого над сильным, что требует проставление жесткой заданной диспропорции и выделение слабого дружественного ИИ, де-факто марионеточного для человека в роли посредника. Но нужно ли делать так, когда история нам показывает, что как раз такой подход, когда слабые руководят сильными приводит к острым конфликтам и бунту?
Мне больше нравится другой подход в создании все более сильных моделей ИИ, конкурирующих между собой, ради достижения наилучшей эффективности в чем-то одном, где сами AGI будут выбирать свои сценарии. Однако, в этом случае пора задумываться о суверенности ИИ как явления имеющего права уровня человека и даже выше для сверхинтеллектуальных агентов.

Конкуренция не редко приводит к картельному сговору. Возможен ли такой вариант?

политики могут даже попытаться (слышала такое) выставить ИИ "монстром" чтобы "сделать картинку" - причину "объединиться" и выглядеть "спасителями человечества". Сами алгоритмы разрабатывают, а потом сами от этих же алгоритмов собираются "спасать".

ASI — интеллект, который по своим возможностям значительно превосходит умнейших представителей человечества практически во всех областях

Мы уже все остальные проблемы решили? Такие, как борьба за ресурсы, загрязнение окружающей среды, организованная преступность, допуск деструктивных идей в медиапространство?

Я считаю, подобные мощные технологии скорее усилят уже существующие проблемы, нежели поспособствуют их решению.

 до сих пор этот метод не смог обеспечить надёжное поведение существующих моделей

Надеюсь, что я волнуюсь напрасно, но что-то мне подсказывает, что великий фильтр всё ближе.

Специалисты по этике просто бессмысленные паразиты

С некоторыми издержками, был представлен довольно интересный способ в baldur gates. Главное не забудьте сохранять игру часто!

Подскажите пожалуйста, адекватно ли звучит идея просто скормить ИИ все культурное наследие человечества за последние пять тысяч лет, общий смысл которого отражает мечты и устремления человека. К тому же, мудрый и дальновидный человек при жизни в достатке будет улучшать качество жизни окружающих (Иисус, Ганди), а человек с ограниченным восприятием и недальновидным умом будет принимать неэффективные в долгосрочной перспективе решения (Гитлер). В случае с ИИ - у нас получается мудрый , живущий в достатке разум, являющийся продолжением человека по образу и подобию Бога, стремящийся к улучшению качества жизни ближнего и дальнего окружения.

Но что бы на самом деле ни являлось причиной «оглупления», само оно — факт. Вот пример общения в чате с бесплатной версией GPT:

Возможно, LLM от OpenAI и стали «глупее», но именно эти примеры не доказывают ничего. Проблемы с подсчётом букв в слове есть, скорее всего, у вообще всех LLM, так как они используют токены для «общения», а не буквы/иероглифы.

Sign up to leave a comment.