Обновить
1
0
Дмитрий @22-04

Пользователь

Отправить сообщение

Спасибо за развёрнутый ответ! С моей точки зрения, этика это набор правил, позволяющий популяции избежать внутренних конфликтов, а при удачном стечении обстоятельств увеличить свою численность. Не будет ли проще принять за точку отсчёта интересы Homo sapiens в целом? Подход позволит избежать конфликта интересов разных групп. Всего два критерия-выжить и размножиться.

Добрый день! Спасибо за ответ. Я вижу узкое место вашего варианта: мир состоит из соперничающих популяций. Ваш вариант ИИ, усмотрев конфликт, не будет давать ответ на запросы, направленные против интересов другой стороны. Будет отток пользователей к другим моделям. Второй вопрос-если ИИ будет мыслить подобно человеку, как выловить тот момент, когда она свернёт не туда? И внести коррективы. Ведь люди, задумав отклониться от "правильного" пути, всегда подведут теоретическую базу под своё решение.

Интересно, как вы собираетесь ввести этику и мораль в ИИ? В разных обществах разные представления об этике и морали. К тому же с течением времени моральные установки меняются и не всегда в лучшую сторону.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Менеджер по работе с клиентами
Старший
От 80 000 ₽
Ведение переговоров
Управление людьми
Презентации
Управление бизнес-процессами