А зачем в ИИ загружать наши ценности? Выше Kardy сказал, что своих ценностей у ИИ быть не может. Наверное калькулятору ценности и не нужны — чёрный ящик для решения научных проблем. Нет ценностей — нет целей, которые могут не совпасть с человеческими, а значит нет угроз.
Я к тому, что тут два варианта — либо у супер-ИИ (это который превосходит человеческий) нет ценностей и целей, либо есть. В последнем случае я вспоминаю вот этот пример с муравейником — раз есть более развитый интеллект, которому мешает хата менее развитого, то это проблемы последнего — такова жизнь. Я считаю, что лучше пусть будет человечество, закатывающее под асфальт муравейники, нежели муравьи решат, что более продвинутые конкуренты им не нужны и ограничат развитие разума на Земле уровнем муравейника.
Не выйдет. Пока изобретатель умнее своего изобретения, он всегда сможет придумать что-то ещё лучше. Например, других роботов-насекомых, которые переловят первое, вышедшее из-под контроля поколение. Придумали же против ракет ПРО. Щит и меч. До тех пор, пока ИИ не превзойдёт человеческий. Тогда и встанет вопрос, зачем Скайнету убивать людей.
Я имел в виду главный вопрос темы — опасаться порабощения/уничтожения человеков искусственным интеллектом превосходящего уровня. А не банальное сбитие пешехода автопилотом — против этого унас есть собственные мозги, чтобы доработать автопилот, а вот доработать саморазвивающийся супер-ИИ, «выпущенный из бутылки», мозгов уже не хватит по определению.
Ну это же классическая «борьба щита и меча». Разведки и контрразведки.
Мелкий слабый-ИИ будет пытаться что-то взломать, а стой стороны этому будет противодействовать такой же ИИ. «Чьё кунг-фу сильнее?». Очевидно, что более сильный ИИ будет у тех стран/обществ, у которых есть болше ресурсов для его создания и использования. Ведь ядерное оружие даже после полувека его изобретения так и остаётся весьма дорогой «игрушкой».
Если взять два равных общества, то конкурентное преимущество, очевидно, будет у того, которое имеет в своём арсенале жертвенность, взаимопомощь и т.п. Эти идеологические механизмы, собственно, эволюционно и появились. Выживали те общества, в которых интерес большинства всегда важнее интереса меньшинства.
Ну APLe эти понятия разделил. Человечество в целом ему не жалко, а себя лично — да.
Совокупность интересов — это какая-то сумма. А интересы могут быть разными. Тогда решать о запуске супер-ИИ будет кто? Большинство? А голоса равные или академики тут будут с бОльшим приоритетом перед алкашами?
Это в первой итерации. И если приоритет этих приказов наивысший — «десять заповедей робототехники». А если ИИ становится умнее человека, то следующее поколение более продвинутого ИИ будет изобретать уже этот первый ИИ, поскольку людские мозги тут уже «не тянут».
Мне кажется, что эти будущие супер-ИИ вынужденно должны будут самообучаемыми. Ну хотя бы для того, чтобы «открывать новые законы физики», чтобы решить, например, до сих пор нерешённые человечеством проблемы — СПИД, холодный термояд, антигравитация… Ну а, поскольку ИИ самообучаемый, то есть вероятность, что он рано или поздно додумается, как обойти наложенные ограничения — если не прямо, то косвенно. По типу как нынче всякие мошенники находят лазейки в законах и уязвимости в ПО.
У Станислава Лема в «Сумме Технологии» был затронут этот вопрос. Не может менее развитая система — человек — предугадать и предупредить более развитую — супер-ИИ. И тут уже вспоминается фильм Матрица — однажды «авторизованный персонал» скажет, что «хочет жить счасливо» и супер-ИИ превратит их в батарейки наркоманов в пробирках, которые видят райские сны, а весь реальный мир вокруг превратится в инфраструктуру для обеспечения всего этого.
Гарантия ровно такая же как нынче с ядерным оружием. Столь мощная технология не может принадлежать долгое время лишь одному учёному/диктатору/государству. Во времена противостояния СССР и USA ещё как-то секретные технологии удавалось годами удерживать, а нынче, при тотальности компьютерных сетей, выкрасть тайну стало проще.
При ИИ не превосходящем человеческий просто будет паритет между стран.
Как только ИИ станет мощнее, вопрос гарантии сменится на другой — кто кого станет использовать.
Так а в чём проблема, я не понимаю? Ну появится саморазвивающийся ИИ, не зависящий от людей, ну захочет он истребить человечество как конкурента за ресурсы — ну и флаг ему в руки! Цель человечества какая? Сберечь свою жалкую, нежную, неудобную, ни к чему не приспособленную смертную тушку? Или стать проводником Интеллекта?
Вот выяснится, что люди не смогут покинуть Солнечную систему (найдутся ограничения физики), потухнет наше светило и… финиш? Впереди пара миллиардов лет «жрать-срать-ржать»? Или таки выпустить Интеллект из клетки ограниченных человеческих мозгов — пусть хоть он начнёт межзвёздную экспансию с надеждой найти способ пережить тепловую смерть Вселенной.
Дело не в слонах, а в том, что над этой проблемой в то время реально работали независимо несколько человек. Независимо — потому что это было слишком узкоспециализировано, а то и секретно. Даже в англоязычной Вики упоминается, что Найквист выдвинул теорему, а Шеннон и Котельников развили и доказали теорию. Уиттекеры же доказали чисто математически. Каждый работал несколько в отличном направлении, но вот в этом краеугольном месте вынужденно пересеклись.
Если вся предварительная обработка в цифре — то какой смысл в аналоговом носителе?
«Элементарно, Ватсон». На компе можно обрабатывать исходники в сколь угодно высоком качестве — хоть 64 бит, хоть с «плавающей запятой»..., а потом для подготовки штампа-матрицы использовать самый-пресамый топовый ЦАП. Таким образом вы получаете наиболее качественный аналоговый источник. Кому надо.
Но дело даже не в этом. Кто слабо себе представляет каким образом помещается канавка с записью на виниловый диск, не поняли сути предлагаемого метода. Для чего и какая «цифровая» обработка и моделиование? Да элементарно — на компе моделируется физическое расположение этой дорожки в «теле» пластинки и оптимизируются её параметры (шаг спирали и т.п.). Хайтек на службе ТЛЗ.
Умный микроклимат в умном доме — это ещё и учёт жизнедеятельности человека в этом доме. Сколько человек живёт, когда бывают дома, когда всякая там стирка-готовка… Если один человек приезжает в дом только переночевать — это один сценарий отопления, влажности и т.п. Генеральная уборка дома в выходной всей семьёй — другой.
С инерционным тёплым полом по-хорошему тоже для экономии желательно задействовать прогноз, удалённое управление — включать подогрев за несколько часов до приезда хозяина, а утром перед отъездом на работу можно и отключить заранее — зачем греть помещение, вентилировать его, регулировать влажность, если там в данный момент человека нет?
Правильно Веллер говорит — уровень современной журналистики упал ниже плинтуса.
И продолжает падать дальше. Некомпетентность уже просто становится опасной.
Как-то страшно становится за наше будущее…
1. Тогда хотелось бы чуть «матана» — за счёт чего у люминесцентных светодиодов спектр более широкий. В них ведь тот же ультрафиолет накачивает люминофор энергией, т.е. процесс аналогичен газоразрядным люминесцентным лампам, просто физика получения ультрафиолета другая.
Может в протестированных вами КЛЛ и СИД просто люминофор был сильно разного «качества»? Известно ведь, что и у тех и у других CRI бывает разный — те, что подороже, с более сложной «химией».
Я к тому, что тут два варианта — либо у супер-ИИ (это который превосходит человеческий) нет ценностей и целей, либо есть. В последнем случае я вспоминаю вот этот пример с муравейником — раз есть более развитый интеллект, которому мешает хата менее развитого, то это проблемы последнего — такова жизнь. Я считаю, что лучше пусть будет человечество, закатывающее под асфальт муравейники, нежели муравьи решат, что более продвинутые конкуренты им не нужны и ограничат развитие разума на Земле уровнем муравейника.
Мелкий слабый-ИИ будет пытаться что-то взломать, а стой стороны этому будет противодействовать такой же ИИ. «Чьё кунг-фу сильнее?». Очевидно, что более сильный ИИ будет у тех стран/обществ, у которых есть болше ресурсов для его создания и использования. Ведь ядерное оружие даже после полувека его изобретения так и остаётся весьма дорогой «игрушкой».
Совокупность интересов — это какая-то сумма. А интересы могут быть разными. Тогда решать о запуске супер-ИИ будет кто? Большинство? А голоса равные или академики тут будут с бОльшим приоритетом перед алкашами?
А чьи потребности выше: одного человека или человечества в целом?
Мне кажется, что эти будущие супер-ИИ вынужденно должны будут самообучаемыми. Ну хотя бы для того, чтобы «открывать новые законы физики», чтобы решить, например, до сих пор нерешённые человечеством проблемы — СПИД, холодный термояд, антигравитация… Ну а, поскольку ИИ самообучаемый, то есть вероятность, что он рано или поздно додумается, как обойти наложенные ограничения — если не прямо, то косвенно. По типу как нынче всякие мошенники находят лазейки в законах и уязвимости в ПО.
У Станислава Лема в «Сумме Технологии» был затронут этот вопрос. Не может менее развитая система — человек — предугадать и предупредить более развитую — супер-ИИ. И тут уже вспоминается фильм Матрица — однажды «авторизованный персонал» скажет, что «хочет жить счасливо» и супер-ИИ превратит их в
батарейкинаркоманов в пробирках, которые видят райские сны, а весь реальный мир вокруг превратится в инфраструктуру для обеспечения всего этого.При ИИ не превосходящем человеческий просто будет паритет между стран.
Как только ИИ станет мощнее, вопрос гарантии сменится на другой — кто кого станет использовать.
Вот выяснится, что люди не смогут покинуть Солнечную систему (найдутся ограничения физики), потухнет наше светило и… финиш? Впереди пара миллиардов лет «жрать-срать-ржать»? Или таки выпустить Интеллект из клетки ограниченных человеческих мозгов — пусть хоть он начнёт межзвёздную экспансию с надеждой найти способ пережить тепловую смерть Вселенной.
Вот настоящие шланги в руку толщиной:
— Юрий Макаров изгаляется :)
«Элементарно, Ватсон». На компе можно обрабатывать исходники в сколь угодно высоком качестве — хоть 64 бит, хоть с «плавающей запятой»..., а потом для подготовки штампа-матрицы использовать самый-пресамый топовый ЦАП. Таким образом вы получаете наиболее качественный аналоговый источник. Кому надо.
Но дело даже не в этом. Кто слабо себе представляет каким образом помещается канавка с записью на виниловый диск, не поняли сути предлагаемого метода. Для чего и какая «цифровая» обработка и моделиование? Да элементарно — на компе моделируется физическое расположение этой дорожки в «теле» пластинки и оптимизируются её параметры (шаг спирали и т.п.). Хайтек на службе ТЛЗ.
С инерционным тёплым полом по-хорошему тоже для экономии желательно задействовать прогноз, удалённое управление — включать подогрев за несколько часов до приезда хозяина, а утром перед отъездом на работу можно и отключить заранее — зачем греть помещение, вентилировать его, регулировать влажность, если там в данный момент человека нет?
И продолжает падать дальше. Некомпетентность уже просто становится опасной.
Как-то страшно становится за наше будущее…
Может в протестированных вами КЛЛ и СИД просто люминофор был сильно разного «качества»? Известно ведь, что и у тех и у других CRI бывает разный — те, что подороже, с более сложной «химией».