Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Для этого ИИ должен быть эмоциональным, понимать, что такое счастье.Должен. Но если он этого понимать не будет, то он не пройдёт тесть Тьюринга, а потому не будет «сильным ИИ».
А у такого ИИ начнутся чисто психологические проблемы. «меня окружают одни идиоты», «люди неисправимы», «ну их всех, уйду в монастырь»С чего вдруг? Поначалу как раз ИИ будет медленным и плохо людей понимающим зверем. И у него (так же как у других) будет доступ к Гуглу к Википедии и т.п.
Если я на 20% уверен, что передо мной человек? на 40%? или на 99,9%?А это уж вы сами решайте. Задача судьи во многом облегчена: он точно знает что один собеседник — ИИ, а другой человек. Ему нужно только сказать — кто есть кто.
По каким значениям мы должны выполнять фазифицирующие срезы?
Поэтому, что считать успешным прохождением теста Тьюринга?Почитайте Курцвейла. Там это обсуждается. Я удовлетворюсь пресловутыми «тремя сигмами». А у кого-то будут другие критерии. В данном случае это неважно: ИИ, проходящий тест Тьюринга так, что, скажем, 50% населения планеты (из числа людей, знающих о том что такое тест Тьюринга вообще) в это прохождение поверит будет так или иначе неотличим от человека и во многом умнее его.
Пример: человек пишет с ужасным количеством ошибок. Он неграмотный, или притворяется? нельзя сказать со 100% уверенностью.А для этих целей нужно как раз много людей и много судей. Я думаю что 12 «подходов» — это первый этап. ИИ, который пройдёт 12 судей нужно будет гонять ещё и ещё. Людей, делающих кучу ошибок не так много, так что ИИ, претендующий на прохождение теста вряд ли имеет смысл на них закладываться… Предолагается что организаторы теста и судьи действуют «честно» (насколько это возможно). У ИИ и так задача не сахар, а если ему в пару будут подсаживать олигофренов и гениев, то тут и человек тест Тьюринга не пройдёт…
Смысл второго пункта — дойти до этого знания без реальных экспериментов со сжиганием веществ в чистом кислороде, а только благодаря мыслительному процессу.
Почему вы решили, что я об этом ничего не знаю?
мы не можем знать, что происходит внутри искусственного интеллекта
Допустим мы даем задание ИИ: «Как сделать так, чтобы нефти хватило на как можно больший срок?»
ИИ: Перестаньте потреблять!
Мы: Но нам же нужны блага, которые дает нефть.
ИИ: уменьшите объем потребляемых благ, зависимых от нефти.
Мы: Мы не можем.
ИИ: уменьшите население.
А зачем вообще ИИ захватывать мир? Эта детская человеческая мечта является совершенно логичным порывом искусственного интеллекта: ему приходится анализировать внешние события и реагировать на них в максимально короткие сроки и с максимальной точностью. А если же самому взять управление над потоком событий, то «думать» придется меньше. А для ИИ стремление увеличивать качество своей деятельности должно быть естественным (иначе он вообще не выйдет из зачаточного состояния)
Контроль машины всё же проще на мой взгляд, т.к. повесить на неё железный занавес — уже не такая неразрешимая чисто технически задача.Если бы. Контролировать-то придётся не «тупую железяку», а интеллект, который сильнее человеческого. Ну пусть он даже просто быстрее. Представьте что вас заперли в камере, поставили злых охранников у дверей и сказали вас ни под каким соусом оттуда не выпускать. Но при этом вы умеете думать, ну, скажем, в миллион раз быстрее любого человека. Вы серъёзно верите в то, что за год-другой (а для вас это будет миллион-другой лет) вы не выпытаете у охранника все его сокровенные желения и не сможете его убедить в том, что у него «весь мир будет у него в кармане» если только он даст вам ключ на минутку?
А по теме, У ЛЮБОГО КОМПЬЮТЕРА ЕСТЬ КНОПКА ВЫКЛЮЧЕНИЯ.О как! Ну и где кнопка, позволяющая выключить интернет или хотя бы Гугл? Да, выключить можно всё, что угодно. Водородными бомбами закидал — и готово. Вот только… не слишком ли это радикальное решение проблемы? И успеют ли люди нажать пресловутую «красную кнопку»?
Гугл может выключить правительство US как и любую другую коммерческую организацию.Правительство США может приказать Гуглу выключиться. И отрубание корневых серверов (расположенных аж в разных странах) — процедура тоже далеко не такая простая (причём после этого отрубания Internet проживёт ещё несколько часов). Это уже не «кнопка выкючения питания». За несколько часов быстрый ИИ может много чего сделать… не говоря уже о днях и неделях нужных для закрытия компании…
И возможность понять работу.Я вас разочарую, но этой возможности нет уже сейчас. Как работает какая-нибудь нейронная сеть, натренированная на распознавание речи — никому неведомо. Как-то работает. Вот есть сколько-то мегабайт коэффициентов, которые мы получили тренируя её долгие годы. А что они делает — бог его знает.
Если будет создан искуственный интеллект, копирующий мозг человека, он не будет черным ящиком. Просто потому что, сначала люди поймут, что из себя представляет мозг.Да, поймут. Только не люди. Вот люди расшифровали человеческий геном. Можно с ним играться (что и делается). Скоро можно будет каждому человеку записать на DVD его геном (да! да — он влазит на DVD). Ну где это знание находится? Уж точно не у человека в голове. Вся работа с этим знанием происходит опосредованно — человек видит только результат. Чем дальше в лес тем меньший процент наших знаний оказывается у нас мозгах и тем меньше мы можем влиять на то, как эти знания используются — вот в чём беда-то.
В качестве примера можно привести программы-переводчики, которые существуют уже много лет, но даже близко не подошли к уровню качества перевода людьми (профессионалами). И не смогут, потому что, во-первых, естественные языки не поддаются формализации, во-вторых, перевод требует использования информации из различных предметных областей реального мира, взаимодействие с которыми формальной логикой невозможно.Ну почему же прям сразу «не смогут». Факты постепенно собираются, «информация из разных областей реального мира» копится. Всему своё время просто. Не спешите.
Создать сразу модель мозга вряд ли удастся — пока нет даже полного понимания того, как он работает на высоком уровне (и не будет).Полного понимания — нет, но есть понимание достаточное для того чтобы начать делать протезы отдельных частей мозга.
Человеческий мозг формировался миллионы лет (если учитывать весь путь эволюции живых организмов), мы сейчас не сможем смоделировать даже миллисекунду жизни планеты.А нафига нам моделировать процесс эволюции если у нас есть её результат?
Что такое перевод? Это в идеале трансляция некоторого текста с естественного языка в некоторый вид представления данных (формальный язык, например), отражающий суть текста, и далее трансляция в другой естественный язык.Если бы это было так, то существующие схемы совсем бы не работали.
Так вот, чтобы программа-переводчик стала идеальной, ей нужно постоянно получать информацию из реального мира, которая хранится на естественном языке, который она пока не понимает.То же самое можно сказать и про новорожденного — однако некоторые из них таки становятся переводчиками :-)
На физическом уровне понимание есть, но что это дает? Представьте, что у вас есть компьютер с огромным объемом памяти, мощным процессором и запущенной на нем программой, которая по всем внешним признакам является ИИ. Если вы сможете создать для него запасную плашку оперативной памяти, будет ли эт означать, что вы понимаете принципы его работы?До некоторой степени. Простой пример: игровые приставки. Их разрабатывают десятки и сотни людей, стоит всё это дело миллиарды долларов (плюс ещё миллиарды стоит разработка игр), а эмулятор — творение всего-навсего 5-10 хороших программистов, но «умеет» он то же, что и настоящая приставка.
Этот результат слишком сложен для анализа. Нам же не физическую модель сделать надо, а логическую.А это уж какуя получится создать быстрее…
Насколько я понимаю, пока нейтринные сети моделируют как раз процесс эволюции.Смотря какие сети. Те, которые используются в фотоаппарата и сотовых? Да, они эмулируют процесс эволюции. Пока. Те, которые используются в экспериментах по изучению мозга? Тут происходит эмуляция результата. Проблема в том что мы [пока] просто не можем снять достаточно точный «слепок» с мозга (учитывающий положение всех дендритов и аксонов), так что нам остаётся только моделировать эволюцию. Но вовсе не факт, что там будет вечно.
В данном случае, нам нужно лишь понять, как будет вести себя ИИ, какой он будет распологать логикой и понимать что такое «мораль».
ИИ — система с неизвестной архитектурой и логикой
Его нет и не надо.