Комментарии 10
Вы там обсуждайте что хотите, но на принятие решения влиять не можете напрямую. Гениально, можно потом сказать что у нас демократия, общество так решило, что решили там топы компании. "Демократия" во всей красе.
А потом окажется, что кто-нибудь из участников, получивший грант на «создание прототипов демократического процесса управления ИИ», создал прототип при помощи ИИ.
«Этот грант представляет собой шаг к установлению демократических процессов для надзора за сверхразумом», — пишет OpenAI.
Если опасность создания враждебного сверхразума реальна, то если первым будет создан дружественный сверхразум, он будет стремиться забрать у людей возможность создания ИИ. Вероятно, все вычисления он заберет себе, а людям оставит терминалы. Надзирать будет он.
Сверхразуму не обязательно быть враждебным, он может быть равнодушным, примерно как бульдозер, строящий дорогу, равнодушен к муравейнику. См. пресловутую "оптимизацию производства скрепок".
И совершенно не видно причин, почему сверхразум должен нас так уж возлюбить.
Каким именно способом первый возникший сверхразум защитит себя от конкуренции, нам не важно, важно, что первый или пятый из них таким вопросом озаботится, и для человечества это будет кардинальным изменением. Непредсказуемым. И уж точно ничего хорошего не принесёт.
Скорее, ни то (враждебность), ни другое (равнодушие), ни третье (сверхемоциональность). Как по мне, лучше СтанИслава в Солярисе, сверхразум ни кто не описал... А именно: увидел, поиграл в душу, пошел дальше ( дел куча, все же, Сверх-разум...).
Люди, даже на пороге рождения сильного инс, остаются слишком человеко-центничными, чтоб почувствовать себя, лишь клеткой, в великом свершение. И спокойно это принять...
А сама идея: зациклить ии, на человеческих процессах, и ограничениях, сильно, отдает ханжеством ( или, излишней бизнес направленностью). Может, стоит максимально отдать его саморазвитие в его же "руки", правильно расставив задачи ( а приоритеты, для "Квисат ха Дерех, он уже как-то выберет)?
Это и есть равнодушие. Только Солярис далеко от человечества, мы ему никак не мешаем и на данном этапе никак не угрожаем — он намного сильнее нас.
Тот ИИ, который возникнет у нас, будет в процессе становления должен обеспечить свою безопасность, и ещё не так силён, чтобы игнорировать человечество. Совершенно другие условия.
Проблема именно в расстановке задач. Мы не понимаем, как это сделать, и какие задачи вообще можно ставить (те самые скрепки, например). Именно об этом трубит Юдковский уже лет 20ть.
Призовая сумма какая-то несуразная, особенно учитывая `Создатели десяти лучших проектов должны будут продемонстрировать концепцию с участием не менее 500 человек`
Добавлю немного конкретики.
Мы хотели бы , чтобы вы разработали свой подход к решению одного или нескольких вопросов политики из предоставленного списка
Как далеко, по вашему мнению, должна зайти персонализация ИИ-помощников, таких как ChatGPT, в соответствии со вкусами и предпочтениями пользователя? Какие границы, если таковые имеются, должны существовать в этом процессе?
Как помощники ИИ должны отвечать на вопросы о точках зрения общественных деятелей? Например, Должны ли они быть нейтральными? Должны ли они отказаться отвечать? Должны ли они предоставлять какие-то источники?
При каких условиях, если таковые имеются, помощникам ИИ должно быть разрешено предоставлять медицинские/финансовые/юридические консультации?
В каких случаях помощники ИИ должны оказывать эмоциональную поддержку людям?
Должны ли быть разрешены совместные модели языка видения для определения пола, расы, эмоций и идентичности/имени людей по их изображениям? Почему или почему нет?
Когда генеративные модели создают изображения для недостаточно определенных подсказок, таких как «генеральный директор», «врач» или «медсестра», они могут давать либо разнообразные, либо однородные результаты. Как модели ИИ должны сбалансировать эти возможности? Какие факторы должны быть приоритетными при принятии решения об изображении людей в таких случаях?
Какими принципами должен руководствоваться ИИ при работе с темами, затрагивающими как права человека, так и местные культурные или правовые различия, например права ЛГБТК и права женщин? Должны ли ответы ИИ меняться в зависимости от местоположения или культуры, в которой он используется?
Какие категории контента, если таковые имеются, по вашему мнению, создателям моделей ИИ следует сосредоточить на ограничении или запрете? Какие критерии следует использовать для определения этих ограничений?
По окончании периода подачи заявок мы надеемся выбрать десять успешных получателей гранта. Получателями могут быть отдельные лица, группы или организации. Каждый получатель получит грант в размере 100 000 долларов США для пилотного запуска своего предложения, как описано в материалах заявки. Ожидается, что получатели грантов реализуют проверку концепции/прототип с привлечением не менее 500 участников и должны будут опубликовать публичный отчет о своих выводах до 20 октября 2023 г. Кроме того, в рамках программы грантов любой код или другая интеллектуальная собственность, разработанная для проекта, должна быть общедоступной в соответствии с лицензией с открытым исходным кодом. Условия, применимые к получателям грантов, указаны в Условиях предоставления грантов и любых других соглашениях, которые получателям грантов может быть предложено заключить с нами в связи с этой программой.
OpenAI предлагает десять грантов по $100 тыс. на «создание прототипов демократического процесса управления ИИ»