Comments 33
Моралфаги для науки нынче делают то же самое, что клерикалы в средневековье.
"обучить алгоритмы, которые будут предсказывать моральные суждения человека в таких областях, как медицина, юриспруденция и бизнес."
А это возможно - обучить ИИ идеальной морали (или нравственности)?
Спрашиваю потому что сам-то человек далеко не идеален (нравственно), чему доказательством вся наша история вплоть до последнего часа.
То есть, если сам человек не идеален, как он может создать идеальный (совершенный) ИИ?
На мой взгляд, ИИ будет подвержен тем же ошибкам, что и его создатель.
сам-то человек далеко не идеален
Человеки разные и очевидно, что обучать нужно не на той морали, которую можно увидеть в тюрьмах для серийных убийц и педофилов.
100% идеальная мораль скорее всего невозможна, как в проблеме вагонетки. Там будут некоторые тонкости, которые будет сложно разрешить. Но даже 95% приближение к идеалу может быть очень неплохим вариантом.
ИИ будет подвержен тем же ошибкам, что и его создатель
Поэтому можно только порадоваться, что какой-нибудь Талибан не способен обогнать OpenAi и создать более мощный ИИ.
"Поэтому можно только порадоваться, что какой-нибудь Талибан не способен обогнать OpenAi и создать более мощный ИИ."
Это как сейчас с ядерным оружием: ровно до тех пор, пока ИИ не окажется в руках какого-нибудь неадекватного человека. А это случится, рано или поздно.
Вот тот же Китай, к примеру, уверены, что он белый и пушистый? Я, например, не уверена - это тот еще дракон. Пока спящий.
А мощности для создания ИИ у него хватает уже сейчас.
Проблема-то не в ИИ, как в таковом. Проблема в человеке. Это как с ножом: поди, угадай, кто возьмет этот нож в руки и с какой целью. Даже невинной сковородкой иногда людей убивают.
Нет никакой проблемы вагонетки.
Люди не озвучивают свой выбор, а тупо пытаются угадать, какой ответ больше соответствует морали. В реальности некоторые в ситуации 6 человек с одной стороны и ноль с другой, выберут 6.
-- Суперзлодей: стреляет из РПГ в Супергероя
-- Зрители: замирают
-- Супергерой: уворачивается, ракета попадает в школьный автобус
-- Зрители: выдыхают
Вчера пересмотрел Обливион с Томом Крузом. Все так и есть , в качестве школьного автобуса база инопланетян с тысячами человеков -клонов в автоклавах. Все счастливы.
Справедливости ради в клонах вероятно еще не было сознания, так что они ничем от условной коровы не отличались. А даже если было - эта база успешно изничтожала остатки человечества, и их (остатков) явно было сильно больше (на территории одного ГГ выживали десятки). Других вариантов противостоять полному уничтожению у них не было. А "база" полетела бы дальше другие миры убивать.
Если в клонах было сознание ГГ - и каждого их них спросили бы, объяснив ситуацию - они бы сами настаивали на таком варианте. ГГ являясь их копией имел моральное и формальное право решить этот вопрос за всех.
Против исходного тезиса не возражаю. Бесит когда "герой" жалеет главгада, по пути убившего сотню фоновых персонажей... Поэтому просто перечитываю ГПМРМ :)
ну как бы 2 клона - Главный герой ( а он не факт что оригинал) и номер 52 явно говорят, что в клонах все нормально с сознанием. Да и по ДНК это 100% люди. Так что "Морфеус", не думая ни про какие вагонетки, уничтожил кучу HOMO SAPIENS, фьють-ха!
А вот тезис что "А давайте его убьем, он все равно был бы не против" это прям для ИИ такая соломинка для убийства человеков. OMG )
ЗЫ СПС за книжку
он не факт что оригинал
Он точно не оригинал, он — Сорок Девятый.
уничтожил кучу HOMO SAPIENS
Нет, он совершил целую кучу самоубийств (ибо до того, как их "активировали", то есть пока они висят в капсулах — это его точные копии).
если меня замочит моя точная копия,я не соглашусь что это самоубийство ))
Во-первых, Вы не почувствуете — Вы ещё не "проснулись". Техники совершенно не в курсе, что есть какой-то там "Тет" и инкубаторы.
Во-вторых, Вас убьют при любом раскладе — техники "улетают на станцию", а на самом деле "в переработку".
Точная копия невозможна. Нельзя полностью синхронизировать все атомы и элементарные частицы между собой, законы квантовой механики это запрещают.
Люди не озвучивают свой выбор, а тупо пытаются угадать, какой ответ больше соответствует морали.
Конечно же это неправда, в большинстве случаев люди не пытаются угадать. Люди - это живые организмы и все живые организмы подчиняются законам эволюции. Основная задача эволюции - каждый ген должен сделать больше своих копий. Поэтому существует расизм. Поэтому когда люди будут выбирать убить или сохранить жизнь, они будут смотреть на то, похожи ли жертвы на них визуально. Визуально - потому что зрение - основной орган получения информации. Это значит, что в среднем белые будут больше поддерживать белых, а чёрные будут больше поддерживать чёрных, рыжие рыжих и так далее. Можно погуглить такую тему как "Ген зелёной бороды". Самое главное понять, что жизнь - это не люди и не белковые организмы, а гены и ДНК, то есть репликаторы.
Думаю так. ИИ будет иметь некую формулу, вес морали в той или иной ситуации. Оценивать мораль по шкале. И соответственно обходить неприятные ситуации, более грамотно. Идеально думаю не будет.
Да, но что хорошо и что плохо в разных регионах планеты разные. Может речь идёт о попытке конструирования человека будущего воспитанного машиной? Например, концепция нового человека в СССР рассматривалась как обязательное условие создания коммунизма. Надеюсь, что и у OpenAI этот эксперимент провалится.
То есть, если сам человек не идеален, как он может создать идеальный (совершенный) ИИ?
Возможно, в этом и идея - создать ИИ с "правильной" моралью, который поможет людям приблизиться к идеал, давая им советы и рекомендации. Эдакий ИИ - моральный камертон.
Разумеется нет. Но пока достаточно и неидеальной морали у ИИ.
Вообще-то и человеков в массе не получилось сделать морально осознанными за много тыщ лет. Придумали только пару костылей в виде уголовного кодекса и сопутствующих ему наказаний + религиозные сказки.
Фанатик: ИИ, разработай план, как убить всех кто не мы.
ИИ: разрабатывает. Потом страдает.
Создать ии с моральным компасом это все равно что создать ядерную бомбу в кнопкой включения.
Оно может кажется надежнее, но лучше все-таки без новшеств.
В смысле, человеческая мораль не лишена противоречий. А раз так, вопрос в том, кто именно будет указывать моделям, что им думать
Гибкости человеческой морали может позавидовать любая змея. Ещё недавно считалось сжигать людей живьём вполне нормально и в духе нацполитики. Внедрят то что актуально на этом отрезке времени, то что лет через 50 могут считать абсолютно неприемлемым.
Всё так. Но хотя бы некие общие современные идеи приемлемости/гуманизма внедрять логично. Однако же, не думаю, что большой бизнес заботится этим. Скорее заботится отсутствием многомиллионных исков за плохие решения моделей и о способах более эффективной моредации «мнения» модели так, чтобы это нужное мнение распространять.
Если никто не обгонит в развитии, то американское правительство будет указывать. Ясное дело, что моральные правила будут их.
OpenAI финансирует проект по исследованию морали в системах ИИ