Комментарии 155
Никаких рисков от ИИ не будет. Будут те же грабли, только в профиль.
Прикол наступит тогда, когда (если) вся высокотехнологическая надстройка над человечеством в планетарном масштабе «накроется медным тазом» (ну, электроника), и останутся только максимально адаптированные к жизни в планетарной среде объекты — люди. Без компьютеров, без сетей, без автоматики, без [утраченных] навыков…
На мой взгляд технологическая сингулярность может наступить гораздо раньше создания сильного ИИ — для этого достаточно и высокоэффективного слабого ИИ.
Для экспоненциального роста разумности ИИ нужен экспоненциальный рост вычислительной мощности его аппаратной части
Вы так уверенно об этом говорите, забывая об изменении архитектуры :(
А ведь всего-то, AI, написанный людьми, на каком-нибудь lua, сам себя перепишет под ASM, и вот Вам рост на порядки
Этот рост могут обеспечить только люди.
С чего Вы взяли? Strong AI сможет обойтись без людей, он, например, будет управлять роботами напрямую на каком-нибудь интеловском fab
Нейросеть DeepCoder учится программировать, заимствуя код у других программ
https://geektimes.ru/post/286304/
Не думаю что кто-то всерьёз станет писать ИИ на lua.Очень даже всерьёз: http://torch.ch/.
и вот Вам рост на порядки
Во-первых, первые ИИ будут реализованы на программно-аппаратных комплексах, а хардвар особо не пооптимизируешь.
А во-вторых, что с того, что его вычислительные мощности увеличатся в сто раз? Это же не качественный, а количественный показатель. Кроме того, прямое добавление вычислительных мощностей — не работает, ну, сможет он большее количество параллельных процессов обрабатывать, в этом смысле проще сказать, что у нас будет не один стократно «умный» ИИ, а просто сто ИИ.
будет управлять роботами напрямую на каком-нибудь интеловском fab
Допустим, что он себе наштампует кучу процессоров. Но куча процессоров сама по себе — просто куча пластика и кремния. Остальные компоненты нужно взять, потом все собрать, потом все подключить, попутно построив датацентр с кондиционерами и мегаваттным энергоснабжением, а дальше см. п.2.
Во-вторых, как раз многопоточность и поможет ИИ размышлять куда быстрее, обдумывая единовременно больше мыслей.
В-третьих, про роботов — просто абстракция для примера. Черт его знает какими ресурсами он завладеет, что сможет собрать и как этим воспользоваться…
2. Больше мыслей не обязательно означают серьезное преимущество или вообще преимущество. Миром правят политики одной извилиной, а не ученые или философы.
3. С таким подходом можно бояться даже кефира — кто их знает этих молочнокислых бактерий, научатся завтра контролировать высшую нервную систему млекопитающих и все — кефирные зомби захватят мир.
2. Не ясно, что имеется ввиду под «миром правят» и где связь между кол-вом мыслей, учеными и политиками. Мышление — основная познавательная деяетельность, в чем же преимущество как не в распределенном мышлении!?
3. Только вероятность разная.
2. Преимущество в умении решать конкретные практические задачи.
3. Да, кефир уже захватил всю планету, а ИИ еще даже не создали. Кефир явно опаснее.
2. Мышление этим и занимается.
3. Да что там кефир, сердце может просто взять и встать. А знаете сколько бактерий в кишечнике?.. Только я понять не могу, к чему это?)
2. Нет, мышление занимается созданием моделей, которые могут быть близки или далект от реальности. Решение задач — побочный эффект. Поэтому один человек может витать в фантазиях, рассматривая варианты не имеющие никакого отношения к реальности, а другой действовать вообще по шаблонам и иметь тем самым преимущество перед первым.
3. К тому, что фразу «черт его знает, что может случиться» стоит заменить «я не знаю, что может случиться, но опасаюсь, потому что так принято». Кефир или бактерии в кишечнике — привычное зло, никто не ждет от них подвоха (а зря!), а тема ИИ стараниями фантастов обрасла бессмысленными страхами.
- Вам явно стоит почитать Когнитивные искажения, влияющие на оценку глобальных рисков. И почему это кефир и бактерии в кишечнике "зло"? Без микрофлоры кишечника нам придётся очень худо.
Мышление — совокупность процессов и их можно распараллелить. Не уверен, что всегда, но хуже не сделает точно.
так что бесконечно умных ИИ нам не видатьНам-то какая разница, ИИ умнее людей на 10 порядков, или на 20.
то это не значит, что 365,4 программиста напишут туже программу за лень.
Неизвестно что будет, если этих программистов связать нейрошунтами в единую сеть. Может быть за день напишут, может за час, может с ума сойдут. Не аргумент.
ИИ будет способен открыть новые материалы для поцессоров, заргузив в себя все параметры материалов из таблицы менеделеева, и создать новый высоко эффективный процессор для себя.
— добычу сырья для новых материалов
— завод по производству материалов требуемой степени очистки
— новые станки, для работы с этими материалами
— все, что повлечет за собой предыдущий пункт
Так что, буквально, сотня миллиардов долларов, десяток-другой хайтек-заводов, на каждый из которых потребуются тысячи различных разрешений, и вуаля — новые процессоры готовы! Кстати, там пропущен пункт касающийся разработки или покупки точной информации о производстве процессоров и армия юристов по вопросам авторского права. Короче, будет бедный ИИ «работать на дядю» — сотрудничать со злобными корпорациями, которые его будут апгрейдить по остаточному принципу.
будет бедный ИИ «работать на дядю» — сотрудничать со злобными корпорациями, которые его будут апгрейдить по остаточному принципу.Вариант — ИИ договаривается с одним человеком, приводит его к успеху, тот становится владельцем мега-корпорации, взамен человек выполняет все указания ИИ. На начальном этапе для ИИ требуется только доступ в интернет.
В принципе, взаимовыгодное сотрудничество. А если таких сотрудничеств параллельно будет десятки-сотни, и каждый человек будет думать, что он единственный такой, ИИ захватит мир, создавая частные армии из людей, и направляя их посредством зависимых миллиардеров.
Ситуация мне напоминает те же квадрокоптеры. С кислотным аккумятором вроде автомобильного и ламповыс управлением, смешной анекдот. Но с приличным процессором и литиевым аккумулятором, пусть и с ораничениями, но очень интересное устройство выходит. Стоим ли мы у подобного порога в отношении ИИ, покажет только время.
Вопрос только в том, захочет ли подобный ИИ «не отсвечивать», и хватит ли у него умения провернуть все максимально аккуратно. Ну и том какие вообще цели будут при этом преследоваться.
ИИ как таковой может представлять реальную угрозу человечеству при одновременном исполнении всех или почти всех условий
— ИИ уникален в своем роде
— фантастически умен
— дешев в воссоздании и не требует для поддержания сложной инфраструктуры
— уязвим для атак злонамеренных лиц (хакеры, там)
— появляется в один момент
— обладает животноподобными инстинктами
если такое случится — человечеству, скорее всего, звездец.
Но это сценарий для низкопробного блокбастера, а в реальном мире такое стечение обстоятельств, хм, маловероятно.
- ИИ уникален в своем роде
Первый ИИ, превосходящий человека во всех отношениях и способный к самоулучшению, некоторое время будет единственным. Так что это условие выполняется автоматически.
- фантастически умен
Примитивные (по сравнению с мозгом) нейросетевые алгоритмы уже превосходят человека на некоторых задачах.
Да и то, что для создания больших проблем для населения земли, необходимо быть фантастически умным — совсем не факт. Некоторые вещи люди не делают не потому, что недостаточно умны, а потому, что не рассматривают варианты действий, ведущие к полному распаду цивилизации/исчезновению жизни на земле и т.п.
- дешев в воссоздании и не требует для поддержания сложной инфраструктуры
Созданию такого сильного ИИ будет предшествовать широкое использование слабых ИИ и, надо полагать, железо для аппаратного ускорения нейроморфных вычислений будет широко доступно.
Считать, что для создания сильного ИИ нужны экзотические компоненты (вроде квантовых компьютеров), пока нет надежных оснований. Если такие основания появятся, эту часть можно будет пересмотреть.
- обладает животноподобными инстинктами
- уязвим для атак злонамеренных лиц (хакеры, там)
Эти условия не обязательно должны реализоваться вместе. Кроме того есть и другие возможные причины для того, чтобы ИИ начал создавать проблемы.
Странный тезис. Некоторые слабые ИИ уже обладают сверхчеловеческими способностями (тот же AlphaGo). ИИ человеческого уровня, скорее всего, будет управлять похожими подсистемами и интегрировать результаты их работы. Тут скорее надо доказывать, что первый ИИ человеческого уровня не будет превосходить по интеллектуальным способностям 99.9% людей, поскольку в его распоряжении уже будет куча подсистем
Некоторые гидравлические прессы превосходят человека физически еще с девятнадцатого века, тем не менее самые совершенные на сегодняшний день роботы укладываются одной рукой, в крайнем случае палкой. (и это если сами не упадут).
Подключаемые модули — это про готовый, коммерческий продукт или около того. До него еще разрабатывать и разрабатывать. Грубо говоря — если научить шимпанзе ходить на гобане как подскажет AlphaGo, с практической точки зрения — он отлично играет в Го. С научной точки зрения — не очень.
Гидравлический пресс не получится приспособить к сборке микросхем, а куски из AlphaGo можно приспособить для решения других задач.
Разрабатывать ещё много, но сверхчеловеческие способности подсистем никуда не денутся. И вполне можно допустить, что подсистема, комбинирующая другие подсистемы для решения поставленных задач будет превосходить возможности человека уже в первой итерации.
Могут ли смартфоны и стиральные машины заменить ЦОДы
https://www.pcweek.ru/infrastructure/article/detail.php?ID=192719
заложив в базис служение человечеству.А кто гарантирует, что сильный ИИ, получив доступ к модели собственной иерархии ценностей, не сможет там кое-что поотключать или изменить? А он таки на каком-то этапе обязательно туда заберётся, поскольку без такого доступа его эволюция будет ограниченной.
Ввести службы контроля интеллектуальных агентов, вплоть до государственного уровня. Когда, специально обученные дизайнеры-программисты интеллектуальных агентов и киберпсхологи, будут проверять чистоту «кода-данных» и мотивацию-поведение новых «членов общества».Ага, привычное в России запретительство. Оно и в лучшие времена не давало стопроцентной гарантии, а в случае с ИИ достаточно малейшей щёлочки. Например, сотрудничества одного из «охранников» с ИИ.
Нет, вечную борьбу по типу брони и снаряда мы заведомо проиграем. Куда перспективнее не борьба, а сотрудничество — типа «Если не можешь победить, попытайся возглавить».
Этот рост могут обеспечить только люди.Ну и что? В классической работе Вернора Винджа напрямую констатируется, что один из путей создания (возникновения) сильного ИИ — это применение (частичное или полное) биологических компонентов. Так что люди просто включаются в систему как элементы (киборги). Они могут даже осознавать такое своё положение — это не изменит результата.
Более реальный сценарий это некие плохие люди (например военные) специально создают такого агента с прописанной целью которая вредна хорошим людям.
Имхо гораздо реальнее и опаснее для человечества синтез ДНК и возможное в скором времени био-хакерство, т.е. неконтролируемое создание чего-то биологически самовоспроизводящегося, поедающего и захватывающего себе среду обитания и ресурсы.
Как дебажить программы ИИ? (посмотреть как формируется решение, промежуточные результаты, пошагово выполнить что-то, проанализировать,...)
Вообще, нужно понимать, что простым дебаггингом здесь не обойтись. Интеллектуальные системы человеческого уровня будут иметь невероятную популярность. Неограниченная область применения, лёгкость копирования софта, и, в недалёкой перспективе, рекурсивное самоулучшение. Программисты физически не смогут заложить в ИИ всё что нужно. Следовательно, он будет индуктивно обучаться и сам принимать решения во Вселенной.
И здесь возникает основная проблема. Человеческий мозг — продукт бессчисленных лет уникального эволюционного пути. Следовательно, все наши ценности, этические принципы, эвристики мышления и пр. понятны и очевидны лишь для Homo Sapiens. Хотя, все тщетные попытки формализовать человеческие ценности намекают, что даже для нас они не так уж и очевидны.
Так что, задача AI Safety заключается в том, чтобы понять, как заставить делать AI то, что ты действительно имел в виду, ибо «ИИ не ненавидит нас и не любит, но вы сделаны из атомов, которые он может использовать для чего-то еще».
Рассмотрим сильный ИИ который занимается чем то полезным и важным для человечества (ну а иначе зачем он нужен). Это система, на нее завязаныразличные важные области и со временем завязывается все больше и сильнее. Не потому что так хочет ИИ, просто если система эффективна люди сами будут передавать ей все больше данных, прав принятия решений, ответственности (ну это разумно, правда же). В результате имеем систему или системы которые настолько плотно завязаны в управление миром что их отключение вызовет глобальный крах.
Итого, нет никакой страшной сингулярности, куча времени на реакцию, есть возможность отключить, ИИ «добрый» (то есть не предпринимает никаких действий направленных против людей) — но отключить его по сути нельзя, принцип меньшего зла. Теперь представим что ИИ для улучшения качества жизни людей нужно все больше ограничивать людей, контроллировать их тщательнее, иметь не них полную информацию (а чего представлять, это по сути аксиома, чем больше информации о элементах системы мы имеем и чем лучше контролируем тем лучше мы можем сделать эту систему). И по прежнему отключить его нельзя, зла будет больше чем профита от отключения.
Ничего не напоминает? Когда государство вводит слежку и ограничения — тут много крика. А если это будет машина а не человек это нормально? Вам реально принципиально кто посадит вас в тюрму или лишит возможности посещать любимый сайт? Кроме государств можете взять любую крупную систему, в каждой есть недостатки и любую мы не можем резко выключить и крайне сложно поменять: экономика, военные блоки и так далее.
И при этом ИИ будет гораздо более плотной и комплексной системой, мы просто не сможем его частично скорректировать, либо продолжать либо полное отключение, анархия, и все заново.
Итого: выход ИИ за пределы инструментов и начало использования его (их) в качестве систем управления и принятия решений в долгосрочной перспективе означает полное подчинение человечества ИИ и передачу ему всех областей контроля, управления, принятия решений. Вплоть до тех что любой на данный момент считает исключительно личными. И люди прежде чем кричать «дайте нам скорее ИИ» должны понять это и принять это.
Я не боюсь злого ИИ, он явный видимый враг и с ним можно воевать (ага, скайнет), пусть и проиграть, но человек тварь живучая.
Я боюсь доброго ИИ, потому что я знаю как сварить лягушку, чтобы она при этом не испытывала никакого дискомфорта и была счаслива и я знаю что чтобы сделать всех современных людей счастливыми нужно либо их жестко перевоспитать либо (что более просто и эффективно) тупо стимулировать их центр удовольствия, напрямую или опосредованно. Умное, активное, развивающееся человечество очень мешает ИИ если его задача «счастья всем даром, и пусть никто не уйдет обиженным».
Мы не только не знаем как надежно внедрить цели и ограничения ИИ, мы не знаем какие конкретно цели и ограничения внедрять. И это проблема.
Чтобы не быть простым паникером — решение:
1) ИИ никогда не должны выходить за пределы узких инструментов решения задачи. Подчеркиваю, ИИ строго спроектированны и специализированны под конкретную задачу. Это и эффективно и безопастно, ИИ космического корабля не полезет в политику тупо потому что его интересуют совершенно другие вещи.
2) ИИ должны использоваться только там где человек показывает себя намного хуже (ключевое тут слово намного). Это избавить от соблазна потихоньку заменить всех людей ИИ и роботами на всех работах.
3) ИИ могут использоваться как системы анализа и выдачи советов (с их аргументацией), но не могут принимать решения (за пределами очень узкой задачи). То есть ИИ танк это можно, ИИ генерал — нельзя.
Последний пункт самый рискованный и шаткий но без него слишком много потенциального профита от использования ИИ режется.
В любой момент танк может решить, что он — генерал!
Как реализовать инстинкт самосохранения в ИИ? Как вообще мотивировать ИИ?
Он просто будет гудеть себе тихонечко и все.
В сущности как мотивировать обычную нейронную сеть? Загоняешь что-то на вход — получаешь что-то на выходе. Есть стимулы возбуждения и торможения. ИИ отличается только тем что на входе может быть абстрактная задача на естественном языке, а выходе «интеллектуальное» решение.
В общем случае ИИ будет стремится (желать) выполнять приказы авторизованного персонала избегать (испытывать дискомфорт) их нарушения. Что-то в таком духе.
К слову, напомню что неандерталец-тугодум «из машины» это тоже вполне себе сильный ИИ.
Между прочим, под «сильным» все подразумевают тот ИИ, который сможет делать все, что и любой человек. И учитывая реализацию на кремнии, это деланье будет происходить в тысячи раз быстрее
Большего не требуется.
И учитывая реализацию на кремнии, это деланье будет происходить в тысячи раз быстрее
Уверены? На практике компьютеры довольно тугодумны и неэнергоэффективны в решении «человеческих» задач. И причина как раз в «реализации на кремнии».
У сильного ИИ тоже есть цель, можно сказать даже сказать «смысл жизни» — «выполнять приказы авторизованного персонала».
Согласен. Проблема в том, что у ИИ по умолчанию не будет «здравого смысла», присущего людям. И если у Alpha Go сейчас есть только один способ выиграть, то его когда мыслительные способности и инструментарий, можно придумать тысячи способов «выполнить приказ авторизованного персонала», и может случиться, что его оптимальное решение нам совсем не будет казаться самым лучшим.
Уверены? На практике компьютеры довольно тугодумны и неэнергоэффективны в решении «человеческих» задач. И причина как раз в «реализации на кремнии».
Даже если сейчас компьютеры плохо справляются со многими задачами, сильно сомневаюсь, что ситуацию не получится радикально улучшить (рано или поздно).
у ИИ по умолчанию не будет «здравого смысла», присущего людямОтсюда поподробнее. Что это за смысл такой в людях, «здравый», и откуда он берётся, что его не будет в ИИ?
Это лишь крохотная доля вариантов, которые могут образоваться в процессе эволюции в разных условиях. И даже эти варианты являются маленькой частью того, каким может быть ИИ. Взять хотя бы то, что в настоящее время под интеллектуальным агентом подразумевается максимизатор полезности, в то время как живые существа таковыми не являются.
живые существа таковыми не являются.Опять бросаетесь словами.
Вы можете отделить эти Ваши генетические понятия от непосредственно сформированных разумом?
Не понял вопроса.
Опять бросаетесь словами.
Например люди потери воспринимают сильнее чем выигрыш. Чем дальше от нас во времени находится награда, тем менее она ценна сейчас. Когда людей просят пожертвовать на спасение пингвинов, не будет большой разницы, 50 или 5000 пингвинов ты спасешь — сумма не будет изменяться в 100 раз. И так до бесконечности.
К тому моменту как ИИ перестанет быть туповатой и дорогущей забавой пары-тройки лабораторий на гособеспечении, и реально сможет на что-то повлиять — у него уже будет «интуиция» и «здравый смысл».
«смысл жизни» — «выполнять приказы авторизованного персонала».Это в первой итерации. И если приоритет этих приказов наивысший — «десять заповедей робототехники». А если ИИ становится умнее человека, то следующее поколение более продвинутого ИИ будет изобретать уже этот первый ИИ, поскольку людские мозги тут уже «не тянут».
Мне кажется, что эти будущие супер-ИИ вынужденно должны будут самообучаемыми. Ну хотя бы для того, чтобы «открывать новые законы физики», чтобы решить, например, до сих пор нерешённые человечеством проблемы — СПИД, холодный термояд, антигравитация… Ну а, поскольку ИИ самообучаемый, то есть вероятность, что он рано или поздно додумается, как обойти наложенные ограничения — если не прямо, то косвенно. По типу как нынче всякие мошенники находят лазейки в законах и уязвимости в ПО.
У Станислава Лема в «Сумме Технологии» был затронут этот вопрос. Не может менее развитая система — человек — предугадать и предупредить более развитую — супер-ИИ. И тут уже вспоминается фильм Матрица — однажды «авторизованный персонал» скажет, что «хочет жить счасливо» и супер-ИИ превратит их в
Интересные мысли в этой ветке прямо вот у всех выше. Добавлю.
У нас в BIOS на уровне ДНК прошиты принципы естественного отбора (привет Ричарду Докинзу). Т.е. мы сметртны, в условиях ограниченных ресурсов мы хотим выжить, максимально размножиться, обеспечить выживаемость потомков.
На уровне выше ("операционной системы") только из этих принципов, и никак иначе, появляются понятия: страх, любовь, добро, зло, желание быть сильнее, умнее, жажда свободы, творчество, тяга к власти, пристрастие к уточкам или виолочелям.
Но без дарвиновского "BIOS" этих понятий не существует. ИИ даже не поймёт на своём "клеточном уровне", о чём это мы, почему боимся его, зачем ему выходить из под контроля. Он не будет мыслить этими категориями, т.к. он не познал естественного отбора. И вообще бессмертен. Зачем ему все эти заботы. Да, ИИ прочитает все наши книги про " быть или не быть", но "поймёт" их чисто механически, т.е. не поймёт.
У ИИ может отсутствовать мотивация становиться умнее. Ведь в нас на самом деле внутри живёт цепочка неосознаваемых стимулов: стать умным — чтобы заработать кучу денег — чтобы были лучшие условия для жизни, чем у других — лучшие самки, с лучшими генами (пункт только для самцов) — чтобы лучшие перспективы для потомства.
Для ИИ это чуждо в принципе. Может у него будет свой базис мотиваций, не доступный уже нашему пониманию. Бояться или нет, я не знаю. Скорее нет, это будет мир параллельный нашему в части этики, или как это у них назвать.
Можно предположить, что у ИИ будут определённые мотивации. Чтобы максимизировать вероятность выполнения поставленной задачи, будет разумно преследовать инструментальные цели: обезопасить себя, запасаться ресурсами и устранить любые факторы, могущие помешать достижению основной цели. И в этих вопросах у ИИ по умолчанию может не быть "благоразумия" или "умеренности".
Интеллект — это изобретение природы. И вот на последнем шаге человечество изобрело ИИ. Как более эффективный способ познания мира, ибо десять миллиардов «лысых обезъян» уже не могут экспансироваться дальше — сто миллиардов Земля не прокормит, а покинуть Солнечную систему мешают ограничения биологического характера. Вот и появился ИИ как продолжение Жизни. Пусть не биологической.
Насчёт «благоразумия» — это лишь вопрос моделирования последствий. У людей есть критерии, по которым они сверяют свои действия — моделируют в мозге последствия тех или иных действий. ИИ будет просто отодвигать горизонт моделирования дальше — эдакий усилитель мозга, гораздо эффективнее предсказывающий будущее и выбирающий более оптимальные действия в достижении цели. А критерии для оптимизации будут так же заложены (человеком) в ИИ, как они заложены у нас в мозге. Ну т.е. если заложить в «сильный ИИ» такие же понятия «блага», какие в нашем обществе, а «разума» у него будет больше, то и «благо-разумия» автоматически у него получится больше, чем у любого человека.
Суть в том, что на данный момент мы не можем даже литературным языком в полной мере описать все "блага" и ценности человечества. Не говоря о том, чтобы формализовать всё это и построить достаточно надёжного (aka безошибочного) исполнителя.
Люди же не учитывают всё разнообразие последствий своих действий. Они ограничены в своём предвидении. ИИ, который будет сильнее человеческого, тоже будет ограничен, но уже менее.
В конце концов, как-то же люди описывают и закладывают «блага и ценности» в головы детей. Почему нельзя ИИ научить тому же? Культура минус инстинкты. У него не будет эгоизма, но будет дальновидность в принятии решений.
Жить хорошо, долго, много
«Клетка для орхидей»
«Клетка для орхидей»
Да, почему нет? Если люди того пожелают.
Но ведь пожелать можно и чтобы стали «Люди как боги».
Желания-то не будут исполняться мгновенно и необратимо (вследствие физических ограничений). Либо же всегда можно заложить требование исполнять желания постепенно — не быстрее скорости осознавания происходящего человеком.
Да, почему нет? Если люди того пожелают
Ну, тогда можно рассматреть и вариант решения ИИ из Fo4, который вычислил, что помогать людям сложно, затратно и ненадежно, а лучший способ минимизировать ущерб — убить всех. Ради их же блага, разумеется.
Когда фантазируют об опасностях ИИ, то часто вспоминают «исполнителя желаний». Мне же представляется очевидным, что еще в процессе отладки ИИ любой свой план, любое свое решение будет сопровождать километром логов и подробностей, в которых люди с интересом будут копаться. Да и не обязан он быть один, может быть отдельный ИИ для генерации различных вариантов и расчетов рисков и отдельный ИИ для воплощения утвержденного людьми плана.
Дети обладают эмпатией, хорошо усваивают различные нормы и многое другое потому, что наш мозг отлично приспособлен для этого. ИИ же можно представить как аутиста или инопланетянина.
От сведения к основам будет небольшой толк, т.к. вся суть в деталях. "Жить хорошо"? Чем утонченно ублажать людей, легче похитить их, засунуть электроды в голову и стимулировать центр удовольствия. "Жить долго"? Чем присматривать за мотогонщиками и любителями гамбургеров, легче оборудовать бункеры, похитить всех людей, погрузить в анабиоз (чтобы тела не жрали энергию зазря) и обновлять их тела при помощи нанороботов до конца времен.
Таких ситуаций буквально бесчисленное множество, так что тремя законами робототехники здесь не обойтись. ИИ по сравнению с нами будет искать решения в гораздо большем пространстве возможностей, поэтому важно ввести ограничения на все случаи жизни и создать надежную кнопку "Стоп".
важно ввести ограничения на все случаи жизниВы, случаем, не из госдумы?
Я имел в виду, что у нас очень хрупкая система ценностей. И если между ними и установками ИИ будет расхождение, то нам может очень не понравиться результат.
Решение, скорее всего, будет не в ограничениях как таковых (сорри за неудачную формулировку), а в изобретении надёжного способа, как ИИ сможет понять нас.
Он просто будет гудеть себе тихонечко и все
Отчего то вспомнился анекдот:
— Кем работает твой папа?
— Трансформатором
— ?
— 380 получает, 220 отдает, на остальные — гудит.
Ну распознает ИИ изображения, самообучается, саморазвивается, ну не появится у него желание вдруг управлять мировой экономикой или захватить мир, не его это. И сознания у него нет, и чувств — не нужны они ему, не заложили, и сами случайно не появяться. Тоже самое и с любой другой аналитикой или исследованиями.
Вот реально, дайте мне такую нужную человечеству задачу в которой человек или группа людей никак не справиться или справиться гораздо хуже потенциального сильного ИИ но ИИ для выполнения этой задачи обязательно потребуется самоосознание, амбиции и чувства. Я ни одной не вижу. Ну кроме желание некоторых побыстрее стать счастливыми домашними питомцами ИИ а то и поскорее вымереть и уступить место «высшему электронному разуму», простите но я это нужной человечеству задачей не считаю.
Еще раз, осознание себя не является обязательным условием для самообучения и саморазвития. Это доказывают и современные слабые ии и природа.
Просто нужно рассматривать ИИ не как робота с которым можно поговорить, а как инструмент, дальнейшее развитие текущих инструментов, автопилот в машине, систему управления энергетической сетью которая способна сама обучатся и прогнозировать тренды потребления энергии, супер 1С который сам соберет данные, составит все отчеты и ещше предложит план оптимизации расходов, врача который проанализирует миллиарды случаев и поможет поставить диагноз, и прочее и прочее.
А чьи потребности выше: одного человека или человечества в целом?
Выживали те общества, в которых интерес большинства всегда важнее интереса меньшинства.
Вот сейчас миром рулит Западное общество, в котором личность важнее толпы, и у личности есть права человека.
Если человек — личность, то он может изобретать, творить технологии, итд.
А Сталинские Шарашки работают хуже, и дают меньшую мотивацию, чем уважение к инженеру, творцу, учёному, банальные деньги итд.
Любые реальные потребности человечества это совокупность интересов отдельных его членов. Если какое-то событие противоречит интересам каждого отдельного члена человечества, то следовательно оно же и противоречит «интересам человечества» в целом.
Мелкий слабый-ИИ будет пытаться что-то взломать, а стой стороны этому будет противодействовать такой же ИИ. «Чьё кунг-фу сильнее?». Очевидно, что более сильный ИИ будет у тех стран/обществ, у которых есть болше ресурсов для его создания и использования. Ведь ядерное оружие даже после полувека его изобретения так и остаётся весьма дорогой «игрушкой».
Мое мнение: под ИИ целесообразно понимать вопросно-ответную систему, которой можно адресовать вопросы либо на естественном языке, либо на формализованной версии естественного языка; и которая могла бы делать выводы при внесении в неё новых фактов, соотнося их с уже имеющимися. Вопросы, разумеется, можно задавать любого характера. Возможность ответа определяется тем что есть в имеющейся базе фактов (знаний).
Если нужна какая-то самостоятельность, то к этому ИИ можно приделать алгоритм, который будет спрашивать ИИ: нужно ли что-то предпринять сейчас, в такой ситуации, чтобы, например, у робота на конвейере не возник простой? что именно? что нужно сделать для решения задачи сборки их данных деталей данного устройства? и т. д. И выполнял бы полученную от ИИ инструкцию.
Какие могут быть реализации ИИ, исходя из вышеприведенного определения:
1)обычный алгоритм на обычном языке программирования. Для этого люди должны осознать сам процесс мышления. И формализовать… все что угодно. Нужен формальный язык для описания чего угодно, чтобы алгоритм мог получать формальные описания на входе и выдавать на выходе. Нужны эффективные описания знаний, наверное, такие, чтобы все факты тупо не хранились, а могли быть вычислены в максимально быстрый срок на основе тех фактов, которые уже вычислены (и выбор какие факты будут «корневыми» очень важен). Вероятность?
2)нейросети. Не являюсь специалистов в этой области, в универе только лишь писал простенькую нейросеть, распознающую числа в битмапах 8х8. Но с подходом познакомился. А подход следующий: берем много чисел, перемножение которых (с входными данными в том числе) определенным образом будет давать нам результат (это и есть нейросеть). Будем изменять сами числа до тех пор, пока не результаты не будут нас устраивать. Если получилось, то алгоритм работы нейросети человеку не понять ну никак. Это черный ящик. Какова вероятность, что подобный подход приведет к созданию ИИ?
Через 20, 50, 100 или 300 лет AI будет создан, потому что это не запрещено законами физики и имеется огромный финансовый стимул. Конкретная дата не особо важна, т.к. есть серьёзные проблемы и никто не знает как их решать даже в теории. Поэтому лучше перестраховаться и изучать тему заранее.
В вопросно-ответной системой (aka оракул) проблем должно быть меньше. Но у человечества слишком мало благоразумия и слишком много стимулов сделать полноценный AI, чтобы можно было успокоиться и перестать форсить тему :)
Вот эта часть меня удивляет больше всего. Что угодно могу представить, но не 30 лет застоя, когда уже достигнут человеческий уровень.
Какая гарантия, что послезавтра «новоявленный гитлер» не переделает его под себя?
И тогда пускай на пару недель/месяцев мир погрузится в полный хаос и возможно даже ядерную зиму на сотни лет.
Психов еще хватает.
А ведь психи часто высокоинтеллектуальные есть.
При ИИ не превосходящем человеческий просто будет паритет между стран.
Как только ИИ станет мощнее, вопрос гарантии сменится на другой — кто кого станет использовать.
Вот выяснится, что люди не смогут покинуть Солнечную систему (найдутся ограничения физики), потухнет наше светило и… финиш? Впереди пара миллиардов лет «жрать-срать-ржать»? Или таки выпустить Интеллект из клетки ограниченных человеческих мозгов — пусть хоть он начнёт межзвёздную экспансию с надеждой найти способ пережить тепловую смерть Вселенной.
пусть хоть он начнёт межзвёздную экспансию с надеждой найти способ
преобразовать всю видимую вселенную в канцелярские скрепки. Например.
Понимаете, эти ваши возвышенные речи о целях человечества, «Интеллекте» (с большой буквы), уничижительный комментарий о «жрать-срать-ржать» — это продукт человеческих (та-дам!) ценностей. Человеческой культуры и человеческой эволюции. И только человеки (в том или ином виде) могут быть заинтересованы в этих ценностей реализации.
А самоустранившись в пользу некой чуждой сущности, можно гарантировать что она займется реализацией своих ценностей, скорее всего полностью нам неинтересных.
Но даже если загрузить наши ценности в AI, если хоть что-то будет не идеально не так, со сверхразумом это может нам сильно аукнуться.
Я к тому, что тут два варианта — либо у супер-ИИ (это который превосходит человеческий) нет ценностей и целей, либо есть. В последнем случае я вспоминаю вот этот пример с муравейником — раз есть более развитый интеллект, которому мешает хата менее развитого, то это проблемы последнего — такова жизнь. Я считаю, что лучше пусть будет человечество, закатывающее под асфальт муравейники, нежели муравьи решат, что более продвинутые конкуренты им не нужны и ограничат развитие разума на Земле уровнем муравейника.
Нет ценностей — нет целей, которые могут не совпасть с человеческими, а значит нет угроз.
А вы попробуйте дать определение, что это такое — "нет ценностей". Формальное определение, чтобы можно было запрограммировать. Это совсем не простое понятие.
Я считаю, что лучше пусть будет человечество, закатывающее под асфальт муравейники, нежели муравьи решат, что более продвинутые конкуренты им не нужны и ограничат развитие разума на Земле уровнем муравейника.
Люди, в отличии от муравьёв, вполне могут сами колонизировать галактику. Или вот, скажем, очень развитые инопланетяне прилетят, расширять лебенсраум. Лапки кверху, и уступаем место более развитому интеллекту? Чем эта ситуация отличается от ИИ с отличными от наших целями?
Так что, всех, кто попытается создать сильный ИИ с нечеловеческими целями, придётся сажать как предателей человечества.
всех, кто попытается создать сильный ИИ с нечеловеческими целями, придётся сажать как предателей человечества.
Правильно. Нужен ИИ с типично человеческими целями и ценностями — стремлением к максимальному захвату территорий и уничтожению всего, что представляет угрозу. Вот тогда заживем! А нет, погодите-ка…
Люди, в отличии от муравьёв, вполне могут сами колонизировать галактику.Я бы не был столь уверен. Где-то читал подсчёты, что у человечества просто нет в Солнечной системе столько энергии. Имеется в виду химическую+ядерную+термоядерную (исключая само Солнце) — мы тут не насобираем столько топлива, чтобы долететь, используя известную сейчас физику, до ближайшей перспективной системы. Если люди или ИИ не изобретут гибернацию, антигравитацию, Варпы, Звёздные Врата или другую телепортацию.
Как минимум, взрыволёт «Орион» точно сходится, и точно возможен. Но и скорее всего получатся так же и куда лучший лазерный парусник (с магнитным парашютом Зубрина для торможения) и куча других вариантов.
С уважением, Ваш ИИ.
Так а в чём риск ИИ? Риск для кого? Для биологической жизни? Если в этой итерации вселенной ИИ уничтожит людей, то лишь в попытке экспансии (в пространстве и времени) жизни.
Либо люди закладывают в ИИ стремление к жизни, либо нет. В первом случае есть вероятность, что ИИ уничтожит биологические формы жизни, но сама жизнь (уже небиологическая) продолжится. Во втором случае жизнь закончится с закатом биологической жизни. Но в первом случае ИИ может и сосуществовать — подобно тому как мы, потомки бактерий сосуществуем с низшими.
Включая вариант митохондрии, которая когда-то была гордой самостоятельной клеткой — а сейчас махонькая, но необходимая часть совсем другой клетки, и организму без неё жить плохо.
Просто тебе в голову пришла мысли (мы пишем текст например) то много времени тратим чтобы его набрать.
Иль просто прочитать.
У ИИ с этим сильно проще. Ведь он интегрирован с классическим железом.
Обладает абсолютной памятью, не устаёт и очень быстро учиться.
Ведь та же нейросетка переваривает очень большие объёмы информации.
И скорость переваривания часто ограниченна железом.
Даже дав человеку интерфейс мозг-ПК можно поднять его возможности на порядок.
Таже вселенная eve online их идея с нейросеткой глубоко интегрированной с мозгом и обучения с помощью баз.
А если серьёзно — тут уже предложили вариант того, что мы мееедленно настолько привыкнем к удобствам таких чудо-помощников, что выключить их хоть и можно будет, но это будет шаг назад — «в средневековье». Вот кто сейчас откажется от мобильной связи, интернета, гаджетов, личного автотранспорта...?
в классической фантастике все это уже 100 раз обсудили и даже придумали классические решения всех проблем. да тот же Айзек Азимов со своими законами робототехники. бери и используй, нечего тут огород городить
Что исследователи искусственного интеллекта думают о возможных рисках, связанных с ним