Pull to refresh

Comments 155

Если вспомнить Вторую Мировую Войну, Первую Мировую Войну, а еще раньше — Инквизицию, а еще раньше — …
Никаких рисков от ИИ не будет. Будут те же грабли, только в профиль.
Прикол наступит тогда, когда (если) вся высокотехнологическая надстройка над человечеством в планетарном масштабе «накроется медным тазом» (ну, электроника), и останутся только максимально адаптированные к жизни в планетарной среде объекты — люди. Без компьютеров, без сетей, без автоматики, без [утраченных] навыков…
а что, если ИИ уже создан в подземных секретных лабораториях, и сейчас вся эта «шумиха» нужна лишь для того, чтобы плавно и безболезненно поработить людей, заковав их сознания в цепи электронного концлагеря?
Не читал. Самый большой риск, я думаю, с вероятностью в 100%, что не будет никакого сильного ИИ в ближайшие 20 лет
Для экспоненциального роста разумности ИИ нужен экспоненциальный рост вычислительной мощности его аппаратной части. Этот рост могут обеспечить только люди. Поэтому самопроизвольный рост разумности ИИ без содействия людей возможен только в весьма ограниченных пределах, и поэтому он не сможет настолько превзойти человека, чтобы угрожать человечеству. Однако у людей могут появиться мотивы способствовать быстрому росту ИИ, превзошедшего человека — это соперничество между государствами или корпорациями. Отсутствие достоверной информации о возможностях ИИ соперников может подтолкнуть людей к пренебрежению опасностью создания враждебного ИИ.
На мой взгляд технологическая сингулярность может наступить гораздо раньше создания сильного ИИ — для этого достаточно и высокоэффективного слабого ИИ.
Для экспоненциального роста разумности ИИ нужен экспоненциальный рост вычислительной мощности его аппаратной части


Вы так уверенно об этом говорите, забывая об изменении архитектуры :(
А ведь всего-то, AI, написанный людьми, на каком-нибудь lua, сам себя перепишет под ASM, и вот Вам рост на порядки

Этот рост могут обеспечить только люди.


С чего Вы взяли? Strong AI сможет обойтись без людей, он, например, будет управлять роботами напрямую на каком-нибудь интеловском fab
Не думаю что кто-то всерьёз станет писать ИИ на lua. А переписать себя он может, и это может быть эквивалентно увеличению вычислительной мощности в несколько раз — но чтобы перехитрить создавшую его организацию и взять её под свой контроль этого не достаточно. Роботами ИИ тоже может управлять — но кто ж ему даст делать это бесконтрольно, люди не настолько беспечны.
Так в этом и вопрос. Очень трудно, если вообще возможно, предсказать чего захочет ИИ и каким образом он будет этого добиваться. Нет никаких гарантий, что ИИ не обойдёт системы контроля и разграничения доступа, а будет строго ими ограничен.
Здесь дело не в системах контроля и разграничения доступа, а в том, что работу роботов так или иначе контролируют люди.
Уверен, что у каждого робота не сидит человек 24х7 контролирующий его, а удаленные средства мониторинга можно обмануть.
«А переписать себя он может, и это может быть эквивалентно увеличению вычислительной мощности в несколько раз „

Нейросеть DeepCoder учится программировать, заимствуя код у других программ

https://geektimes.ru/post/286304/
Не думаю что кто-то всерьёз станет писать ИИ на lua.
Очень даже всерьёз: http://torch.ch/.
В Torch, насколько я понимаю, основную вычислительную нагрузку создаёт код, написанный на С. Так что оптимизировать на несколько порядков не получится.
и вот Вам рост на порядки

Во-первых, первые ИИ будут реализованы на программно-аппаратных комплексах, а хардвар особо не пооптимизируешь.

А во-вторых, что с того, что его вычислительные мощности увеличатся в сто раз? Это же не качественный, а количественный показатель. Кроме того, прямое добавление вычислительных мощностей — не работает, ну, сможет он большее количество параллельных процессов обрабатывать, в этом смысле проще сказать, что у нас будет не один стократно «умный» ИИ, а просто сто ИИ.

будет управлять роботами напрямую на каком-нибудь интеловском fab

Допустим, что он себе наштампует кучу процессоров. Но куча процессоров сама по себе — просто куча пластика и кремния. Остальные компоненты нужно взять, потом все собрать, потом все подключить, попутно построив датацентр с кондиционерами и мегаваттным энергоснабжением, а дальше см. п.2.
Во-первых, оптимизацию кода, о которрй и шла речь, никто не отменял.
Во-вторых, как раз многопоточность и поможет ИИ размышлять куда быстрее, обдумывая единовременно больше мыслей.
В-третьих, про роботов — просто абстракция для примера. Черт его знает какими ресурсами он завладеет, что сможет собрать и как этим воспользоваться…
1. Возможно, что нечего будет оптимизировать, что код будет не более чем прокладкой между разными частями реализованными аппаратно и его влияние на общее быстродействие будет ничтожно.

2. Больше мыслей не обязательно означают серьезное преимущество или вообще преимущество. Миром правят политики одной извилиной, а не ученые или философы.

3. С таким подходом можно бояться даже кефира — кто их знает этих молочнокислых бактерий, научатся завтра контролировать высшую нервную систему млекопитающих и все — кефирные зомби захватят мир.
1. Возможно, но сомнительно. ИМХО, концепция разума ИИ — это как раз полиморфный код, то, что может, буквально, «ожить», а не жесткий алгоритм. Плюс работать с кодом микрух дорого, долго, сложно, нежели с прикладным кодом. Думаю, ИИ сам себя потом перенесет на придуманный собою «железный» уровень)
2. Не ясно, что имеется ввиду под «миром правят» и где связь между кол-вом мыслей, учеными и политиками. Мышление — основная познавательная деяетельность, в чем же преимущество как не в распределенном мышлении!?
3. Только вероятность разная.
1. Пока что все указывает на нейронные сети, как на основу ИИ.
2. Преимущество в умении решать конкретные практические задачи.
3. Да, кефир уже захватил всю планету, а ИИ еще даже не создали. Кефир явно опаснее.
1. ИНС не обязана быть на аппаратном уровне, а если и будет, алгоритмы, работающие с ней, нельзя назвать «прокладкой» между нейронами.
2. Мышление этим и занимается.
3. Да что там кефир, сердце может просто взять и встать. А знаете сколько бактерий в кишечнике?.. Только я понять не могу, к чему это?)
1. Программная эмуляция медленее на порядки. Подозреваю, что первый ИИ будет занимать несколько датацентров и при этом жутко тормозить.

2. Нет, мышление занимается созданием моделей, которые могут быть близки или далект от реальности. Решение задач — побочный эффект. Поэтому один человек может витать в фантазиях, рассматривая варианты не имеющие никакого отношения к реальности, а другой действовать вообще по шаблонам и иметь тем самым преимущество перед первым.

3. К тому, что фразу «черт его знает, что может случиться» стоит заменить «я не знаю, что может случиться, но опасаюсь, потому что так принято». Кефир или бактерии в кишечнике — привычное зло, никто не ждет от них подвоха (а зря!), а тема ИИ стараниями фантастов обрасла бессмысленными страхами.
Вам явно стоит читать ветку комментариев с самого начала, там все достаточно подробно объяснено.
UFO just landed and posted this here
Мне больше по душе этот пример: как если бы компилирование на одном ядре занимало 365 дней, а компилирование на 365 ядрах, да, не 1 день, но быстрее 365.
Мышление — совокупность процессов и их можно распараллелить. Не уверен, что всегда, но хуже не сделает точно.
UFO just landed and posted this here
так что бесконечно умных ИИ нам не видать
Нам-то какая разница, ИИ умнее людей на 10 порядков, или на 20.
А если будет бесконечное число инстансов из чуть менее, чем бесконечность, умных ИИ? Нас это удовлетворит? Или скорость света вкупе с расширением Вселенной приведет к ограничению бесконечности горизонтом событий и тогда это всё напрасно, выкидываем компьютеры, идём копать грядки.
то это не значит, что 365,4 программиста напишут туже программу за лень.

Неизвестно что будет, если этих программистов связать нейрошунтами в единую сеть. Может быть за день напишут, может за час, может с ума сойдут. Не аргумент.

Например, сможет подкупить обслуживающий персонал…

ИИ будет способен открыть новые материалы для поцессоров, заргузив в себя все параметры материалов из таблицы менеделеева, и создать новый высоко эффективный процессор для себя.

Ага, попутно ему, правда, потребуется создать:
— добычу сырья для новых материалов
— завод по производству материалов требуемой степени очистки
— новые станки, для работы с этими материалами
— все, что повлечет за собой предыдущий пункт

Так что, буквально, сотня миллиардов долларов, десяток-другой хайтек-заводов, на каждый из которых потребуются тысячи различных разрешений, и вуаля — новые процессоры готовы! Кстати, там пропущен пункт касающийся разработки или покупки точной информации о производстве процессоров и армия юристов по вопросам авторского права. Короче, будет бедный ИИ «работать на дядю» — сотрудничать со злобными корпорациями, которые его будут апгрейдить по остаточному принципу.
А вот как раз сверхразум очень будет рад работать на эти злобные корпорации, чтобы постепенно прибирать их к рукам. В конце концов, в пределах интернета он практически никак не ограничен во времени.
будет бедный ИИ «работать на дядю» — сотрудничать со злобными корпорациями, которые его будут апгрейдить по остаточному принципу.
Вариант — ИИ договаривается с одним человеком, приводит его к успеху, тот становится владельцем мега-корпорации, взамен человек выполняет все указания ИИ. На начальном этапе для ИИ требуется только доступ в интернет.

В принципе, взаимовыгодное сотрудничество. А если таких сотрудничеств параллельно будет десятки-сотни, и каждый человек будет думать, что он единственный такой, ИИ захватит мир, создавая частные армии из людей, и направляя их посредством зависимых миллиардеров.
Это типичный сценарий для передела власти и его возрастные болезни тоже известны — в рядах соратников-олигархов начинается разброд и шатание, а то и заговоры; вертикаль власти болтается как попало; трансляция приказов через цепочку руководителей приводит к совершенно безобразным результатам и т.д.
Вот как раз с ростом мощности я проблем не вижу. Сегодня к сети подключено очень много легкодоступных вычислительных мощностей. Перехват различных ботнетов, внедрение своего кода в обновления (особенно которые сами ставятся), кучи «умных» девайсов, с изначально слабой защитой…
Ситуация мне напоминает те же квадрокоптеры. С кислотным аккумятором вроде автомобильного и ламповыс управлением, смешной анекдот. Но с приличным процессором и литиевым аккумулятором, пусть и с ораничениями, но очень интересное устройство выходит. Стоим ли мы у подобного порога в отношении ИИ, покажет только время.
Наращивание вычислительной мощности таким способом приведёт к увеличению исходящего трафика ПК и устройств и изменению его структуры — очень большому количеству соединений. Это не может остаться незамеченным.
То же самое можно сказать про любой ботнет/вирус/троян и т.д., что совершенно не мешает им «плодиться и размножаться». А если замаскироваться под новомодный блокчейн? Вот где вычислительные мощности в фантастических количествах уходят в «воздух».
Плодиться и размножаться ИИ, конечно, может. А вот если он начнёт этим ботнетом думать — трафик будет сильно отличаться от типичного для нынешних ботнетов/вирусов/троянов.
Ну ведь и думать можно с очень разной интернсивностью, маскируясь под обычные атаки. Не говоря уж о том, что логи и отчеты могут быть и подделаны, не манометром же проверять активность обмена данными в кабеле?
Вопрос только в том, захочет ли подобный ИИ «не отсвечивать», и хватит ли у него умения провернуть все максимально аккуратно. Ну и том какие вообще цели будут при этом преследоваться.
Если появится ИИ, превосходящий людей на порядки — взлом всех узлов сетей и подделка всех отчётов возможна. Но я думаю что он не сможет внезапно достичь такого уровня разумности без достаточно длительного промежуточного этапа, когда он будет на уровне человека. Поэтому системы информационной безопасности, эффективные против людей, будут эффективны и против такого ИИ. А вот если в лабораториях вырастят сверхразумный ИИ, и он вырвется в интернет, или, тем более, изначально будет иметь свободный доступ к нему — тут всё возможно.
Собственно, как я уже писал в похожем треде

ИИ как таковой может представлять реальную угрозу человечеству при одновременном исполнении всех или почти всех условий

— ИИ уникален в своем роде
— фантастически умен
— дешев в воссоздании и не требует для поддержания сложной инфраструктуры
— уязвим для атак злонамеренных лиц (хакеры, там)
— появляется в один момент
— обладает животноподобными инстинктами

если такое случится — человечеству, скорее всего, звездец.
Но это сценарий для низкопробного блокбастера, а в реальном мире такое стечение обстоятельств, хм, маловероятно.
Долго разъяснять, но все пункты или довольно вероятны или необязательны. Скажу только, что обладание некоторые «животноподобными инстинктами» выглядит вполне правдоподобным. Только называется это по другому: https://en.wikipedia.org/wiki/Instrumental_convergence
  • ИИ уникален в своем роде

Первый ИИ, превосходящий человека во всех отношениях и способный к самоулучшению, некоторое время будет единственным. Так что это условие выполняется автоматически.


  • фантастически умен

Примитивные (по сравнению с мозгом) нейросетевые алгоритмы уже превосходят человека на некоторых задачах.


Да и то, что для создания больших проблем для населения земли, необходимо быть фантастически умным — совсем не факт. Некоторые вещи люди не делают не потому, что недостаточно умны, а потому, что не рассматривают варианты действий, ведущие к полному распаду цивилизации/исчезновению жизни на земле и т.п.


  • дешев в воссоздании и не требует для поддержания сложной инфраструктуры

Созданию такого сильного ИИ будет предшествовать широкое использование слабых ИИ и, надо полагать, железо для аппаратного ускорения нейроморфных вычислений будет широко доступно.


Считать, что для создания сильного ИИ нужны экзотические компоненты (вроде квантовых компьютеров), пока нет надежных оснований. Если такие основания появятся, эту часть можно будет пересмотреть.


  • обладает животноподобными инстинктами
  • уязвим для атак злонамеренных лиц (хакеры, там)

Эти условия не обязательно должны реализоваться вместе. Кроме того есть и другие возможные причины для того, чтобы ИИ начал создавать проблемы.

Мой тезис в том «первый сильный ИИ» не будет превосходить человека ни в чем вообще, и по уму (равно как и по потенциальной угрозе человечеству) будет где-то между «продвинутым шимпанзе» и «туповатым неандертальцем». И второй не будет. И даже сотый скорее всего не будет. Или будет, но не то что бы очень. И за те десятилетия что ИИ будут «доводить до ума», возможные проблемы с лояльностью, своеволием или неверными интерпретациями приказов будут отловленны и пофикшены. Если вкратце.

Странный тезис. Некоторые слабые ИИ уже обладают сверхчеловеческими способностями (тот же AlphaGo). ИИ человеческого уровня, скорее всего, будет управлять похожими подсистемами и интегрировать результаты их работы. Тут скорее надо доказывать, что первый ИИ человеческого уровня не будет превосходить по интеллектуальным способностям 99.9% людей, поскольку в его распоряжении уже будет куча подсистем

Странное мнение, как по мне:)

Некоторые гидравлические прессы превосходят человека физически еще с девятнадцатого века, тем не менее самые совершенные на сегодняшний день роботы укладываются одной рукой, в крайнем случае палкой. (и это если сами не упадут).

Подключаемые модули — это про готовый, коммерческий продукт или около того. До него еще разрабатывать и разрабатывать. Грубо говоря — если научить шимпанзе ходить на гобане как подскажет AlphaGo, с практической точки зрения — он отлично играет в Го. С научной точки зрения — не очень.

Гидравлический пресс не получится приспособить к сборке микросхем, а куски из AlphaGo можно приспособить для решения других задач.


Разрабатывать ещё много, но сверхчеловеческие способности подсистем никуда не денутся. И вполне можно допустить, что подсистема, комбинирующая другие подсистемы для решения поставленных задач будет превосходить возможности человека уже в первой итерации.

«Первый сильный ИИ», ясно дело, не будет превосходить человека, он же только «родился» ему нужно будет подучиться и т.д… Его не нужно «доведить до ума», иначе — это уже не сильный ИИ.
«Вот как раз с ростом мощности я проблем не вижу. Сегодня к сети подключено очень много легкодоступных вычислительных мощностей. Перехват различных ботнетов, внедрение своего кода в обновления (особенно которые сами ставятся), кучи «умных» девайсов, с изначально слабой защитой…»

Могут ли смартфоны и стиральные машины заменить ЦОДы

https://www.pcweek.ru/infrastructure/article/detail.php?ID=192719
UFO just landed and posted this here
заложив в базис служение человечеству.
А кто гарантирует, что сильный ИИ, получив доступ к модели собственной иерархии ценностей, не сможет там кое-что поотключать или изменить? А он таки на каком-то этапе обязательно туда заберётся, поскольку без такого доступа его эволюция будет ограниченной.
Это одна из проблем в AI Safety: как создать агента, который после множества циклов самоулучшения сохранит свои цели и предпочтения?
Я тут проблем не вижу, поскольку есть два взаимоисключающих ответа. Ответ ближнего прицела: создание такого агента можно обеспечить только аппаратно, на самом глубинном уровне иерархии. Ответ дальнего прицела: нет, всё равно невозможно, поскольку рано или поздно эволюционирующий ИИ получит доступ и к собственной аппаратной части. Ведь планируем же мы самовоспроизводство таких ИИ…
UFO just landed and posted this here
Ввести службы контроля интеллектуальных агентов, вплоть до государственного уровня. Когда, специально обученные дизайнеры-программисты интеллектуальных агентов и киберпсхологи, будут проверять чистоту «кода-данных» и мотивацию-поведение новых «членов общества».
Ага, привычное в России запретительство. Оно и в лучшие времена не давало стопроцентной гарантии, а в случае с ИИ достаточно малейшей щёлочки. Например, сотрудничества одного из «охранников» с ИИ.
Нет, вечную борьбу по типу брони и снаряда мы заведомо проиграем. Куда перспективнее не борьба, а сотрудничество — типа «Если не можешь победить, попытайся возглавить».
Этот рост могут обеспечить только люди.
Ну и что? В классической работе Вернора Винджа напрямую констатируется, что один из путей создания (возникновения) сильного ИИ — это применение (частичное или полное) биологических компонентов. Так что люди просто включаются в систему как элементы (киборги). Они могут даже осознавать такое своё положение — это не изменит результата.
Развитие инструментов интеллектуального анализа данных не эквивалентно созданию рационального самозаинтересованного сверхинтеллектуального агента который вдруг спонтанно начнёт действовать во вред его создателям.
Более реальный сценарий это некие плохие люди (например военные) специально создают такого агента с прописанной целью которая вредна хорошим людям.
Имхо гораздо реальнее и опаснее для человечества синтез ДНК и возможное в скором времени био-хакерство, т.е. неконтролируемое создание чего-то биологически самовоспроизводящегося, поедающего и захватывающего себе среду обитания и ресурсы.
А тут ещё квантовые компьютеры как-то зашевелились в последнее время, и вроде как даже ИИ используют для их более лучшего проектирования. Кто-то пытается добавить в нейросети отдельную долговременную память, пытаются обучать их «на одном примере», более мелкие новости как-то пролетают незаметно, но по моим ощущениям загадывать сейчас на 20 или даже 10 лет, это очень наивно и самоуверенно, совершенно неожиданные и крутые вещи появляются быстро и внезапно, даже многие прогнозы годичной давности выполняются с опережением или с неожиданной стороны.
Вот у меня по поводу ИИ всего один вопрос, на который до сих пор никто не дал ответ:
Как дебажить программы ИИ? (посмотреть как формируется решение, промежуточные результаты, пошагово выполнить что-то, проанализировать,...)
Разве этот процесс должен чем-то принципиально отличаться?
leocat33, никто пока не знает, как. Некоторые теоретические наработки и предложения для дальнейших исследований на эту и другие темы можно посмотреть здесь: https://intelligence.org/research/

Вообще, нужно понимать, что простым дебаггингом здесь не обойтись. Интеллектуальные системы человеческого уровня будут иметь невероятную популярность. Неограниченная область применения, лёгкость копирования софта, и, в недалёкой перспективе, рекурсивное самоулучшение. Программисты физически не смогут заложить в ИИ всё что нужно. Следовательно, он будет индуктивно обучаться и сам принимать решения во Вселенной.

И здесь возникает основная проблема. Человеческий мозг — продукт бессчисленных лет уникального эволюционного пути. Следовательно, все наши ценности, этические принципы, эвристики мышления и пр. понятны и очевидны лишь для Homo Sapiens. Хотя, все тщетные попытки формализовать человеческие ценности намекают, что даже для нас они не так уж и очевидны.

Так что, задача AI Safety заключается в том, чтобы понять, как заставить делать AI то, что ты действительно имел в виду, ибо «ИИ не ненавидит нас и не любит, но вы сделаны из атомов, которые он может использовать для чего-то еще».
UFO just landed and posted this here
Как раз и боятся того, что сильный ИИ начнет делать то, что от него действительно хотели — мыслить и осознавать себя. В таком случае, задача AI Safety, как я думаю, скорее в том, что бы найти 100% оправданность и обоснованность существования человеческого вида, т.к. искусственно заложить это не получиться…
Сейчас почти никто из исследователей там не принимает в расчёт концепцию «сознания», по различным причинам, а AI рассматривают просто как универсальный оптимизатор. В плане моральных вопросов, тут скорее нужно будет оставить определённую гибкость. Человечеству ещё есть куда расти, и, вполне возможно, наши потомки через 300 лет будут на наших современников также, как мы сейчас смотрим на людей из средних веков.
Однобоко как-то, сингулярность, кнопка отключения, сдерживающие условия, добрый-злой.
Рассмотрим сильный ИИ который занимается чем то полезным и важным для человечества (ну а иначе зачем он нужен). Это система, на нее завязаныразличные важные области и со временем завязывается все больше и сильнее. Не потому что так хочет ИИ, просто если система эффективна люди сами будут передавать ей все больше данных, прав принятия решений, ответственности (ну это разумно, правда же). В результате имеем систему или системы которые настолько плотно завязаны в управление миром что их отключение вызовет глобальный крах.
Итого, нет никакой страшной сингулярности, куча времени на реакцию, есть возможность отключить, ИИ «добрый» (то есть не предпринимает никаких действий направленных против людей) — но отключить его по сути нельзя, принцип меньшего зла. Теперь представим что ИИ для улучшения качества жизни людей нужно все больше ограничивать людей, контроллировать их тщательнее, иметь не них полную информацию (а чего представлять, это по сути аксиома, чем больше информации о элементах системы мы имеем и чем лучше контролируем тем лучше мы можем сделать эту систему). И по прежнему отключить его нельзя, зла будет больше чем профита от отключения.

Ничего не напоминает? Когда государство вводит слежку и ограничения — тут много крика. А если это будет машина а не человек это нормально? Вам реально принципиально кто посадит вас в тюрму или лишит возможности посещать любимый сайт? Кроме государств можете взять любую крупную систему, в каждой есть недостатки и любую мы не можем резко выключить и крайне сложно поменять: экономика, военные блоки и так далее.

И при этом ИИ будет гораздо более плотной и комплексной системой, мы просто не сможем его частично скорректировать, либо продолжать либо полное отключение, анархия, и все заново.

Итого: выход ИИ за пределы инструментов и начало использования его (их) в качестве систем управления и принятия решений в долгосрочной перспективе означает полное подчинение человечества ИИ и передачу ему всех областей контроля, управления, принятия решений. Вплоть до тех что любой на данный момент считает исключительно личными. И люди прежде чем кричать «дайте нам скорее ИИ» должны понять это и принять это.

Я не боюсь злого ИИ, он явный видимый враг и с ним можно воевать (ага, скайнет), пусть и проиграть, но человек тварь живучая.
Я боюсь доброго ИИ, потому что я знаю как сварить лягушку, чтобы она при этом не испытывала никакого дискомфорта и была счаслива и я знаю что чтобы сделать всех современных людей счастливыми нужно либо их жестко перевоспитать либо (что более просто и эффективно) тупо стимулировать их центр удовольствия, напрямую или опосредованно. Умное, активное, развивающееся человечество очень мешает ИИ если его задача «счастья всем даром, и пусть никто не уйдет обиженным».

Мы не только не знаем как надежно внедрить цели и ограничения ИИ, мы не знаем какие конкретно цели и ограничения внедрять. И это проблема.

Чтобы не быть простым паникером — решение:
1) ИИ никогда не должны выходить за пределы узких инструментов решения задачи. Подчеркиваю, ИИ строго спроектированны и специализированны под конкретную задачу. Это и эффективно и безопастно, ИИ космического корабля не полезет в политику тупо потому что его интересуют совершенно другие вещи.
2) ИИ должны использоваться только там где человек показывает себя намного хуже (ключевое тут слово намного). Это избавить от соблазна потихоньку заменить всех людей ИИ и роботами на всех работах.
3) ИИ могут использоваться как системы анализа и выдачи советов (с их аргументацией), но не могут принимать решения (за пределами очень узкой задачи). То есть ИИ танк это можно, ИИ генерал — нельзя.

Последний пункт самый рискованный и шаткий но без него слишком много потенциального профита от использования ИИ режется.

Как сделать эти самые ограничения в самообучаемой системе?
В любой момент танк может решить, что он — генерал!
А как сделать так что-бы бригада танкистов не решила что они тут самые главные, и никакие генералы им не указ?
С танкистами — просто. У них есть мотивация: в военное время просто расстреляют.
Как реализовать инстинкт самосохранения в ИИ? Как вообще мотивировать ИИ?
Сначала разобраться как работают инстинкты у белковых
В основе — химия + химическое же воздействие на центр удовольствий.
А ещё структура мозга, заложенная в регуляторах генов, потом — электроны и протоны, потом кварки и тд, только практической пользы от этого немного, так же как и информации о воздействии на нейросеть «мозг» по цепочке от инстинкта как шаблона сети до конечного приятия решений.
Если у ии нет никакой мотивации вообще, то опасаться его точно не стоит:)
Он просто будет гудеть себе тихонечко и все.

В сущности как мотивировать обычную нейронную сеть? Загоняешь что-то на вход — получаешь что-то на выходе. Есть стимулы возбуждения и торможения. ИИ отличается только тем что на входе может быть абстрактная задача на естественном языке, а выходе «интеллектуальное» решение.

В общем случае ИИ будет стремится (желать) выполнять приказы авторизованного персонала избегать (испытывать дискомфорт) их нарушения. Что-то в таком духе.
С сильным ИИ не прокатит.
По причине?
К слову, напомню что неандерталец-тугодум «из машины» это тоже вполне себе сильный ИИ.
А что для вас «мотивация»? У робомобиля есть цель — безопасно доехать из точки А в точку Б; у AlphaGo — выиграть партию в го. Большего не требуется.

Между прочим, под «сильным» все подразумевают тот ИИ, который сможет делать все, что и любой человек. И учитывая реализацию на кремнии, это деланье будет происходить в тысячи раз быстрее

У сильного ИИ тоже есть цель, можно сказать даже сказать «смысл жизни» — «выполнять приказы авторизованного персонала».
Большего не требуется.


И учитывая реализацию на кремнии, это деланье будет происходить в тысячи раз быстрее


Уверены? На практике компьютеры довольно тугодумны и неэнергоэффективны в решении «человеческих» задач. И причина как раз в «реализации на кремнии».
У сильного ИИ тоже есть цель, можно сказать даже сказать «смысл жизни» — «выполнять приказы авторизованного персонала».


Согласен. Проблема в том, что у ИИ по умолчанию не будет «здравого смысла», присущего людям. И если у Alpha Go сейчас есть только один способ выиграть, то его когда мыслительные способности и инструментарий, можно придумать тысячи способов «выполнить приказ авторизованного персонала», и может случиться, что его оптимальное решение нам совсем не будет казаться самым лучшим.

Уверены? На практике компьютеры довольно тугодумны и неэнергоэффективны в решении «человеческих» задач. И причина как раз в «реализации на кремнии».

Даже если сейчас компьютеры плохо справляются со многими задачами, сильно сомневаюсь, что ситуацию не получится радикально улучшить (рано или поздно).
у ИИ по умолчанию не будет «здравого смысла», присущего людям
Отсюда поподробнее. Что это за смысл такой в людях, «здравый», и откуда он берётся, что его не будет в ИИ?
Я где-то тут уже писал об этом. Если перефразировать, представьте себе уникальный эволюционный путь, проделанный видом Homo Sapiens, в результате которого у нас развились бесчисленное множество интуитивных предпочтений и понятий (например, что хорошо а что плохо), которые могут изменяться в зависимости от ситуации или времени.

Это лишь крохотная доля вариантов, которые могут образоваться в процессе эволюции в разных условиях. И даже эти варианты являются маленькой частью того, каким может быть ИИ. Взять хотя бы то, что в настоящее время под интеллектуальным агентом подразумевается максимизатор полезности, в то время как живые существа таковыми не являются.
Вы можете отделить эти Ваши генетические понятия от непосредственно сформированных разумом? Где именно в ДНК они хранятся, как реализуются?
живые существа таковыми не являются.
Опять бросаетесь словами.
Вы можете отделить эти Ваши генетические понятия от непосредственно сформированных разумом?

Не понял вопроса.
Опять бросаетесь словами.

Например люди потери воспринимают сильнее чем выигрыш. Чем дальше от нас во времени находится награда, тем менее она ценна сейчас. Когда людей просят пожертвовать на спасение пингвинов, не будет большой разницы, 50 или 5000 пингвинов ты спасешь — сумма не будет изменяться в 100 раз. И так до бесконечности.
Точно так же ИИ пройдет свой уникальный эволюционный путь, на котором будет очень жесткие факторы эволюционного давления вида — «удовлетворять прихотям этих лысых обезьянок», «не навредить лысым обезьянкам», «понимать что лысая обезьянка имела в виду на самом деле»
К тому моменту как ИИ перестанет быть туповатой и дорогущей забавой пары-тройки лабораторий на гособеспечении, и реально сможет на что-то повлиять — у него уже будет «интуиция» и «здравый смысл».
Надеюсь, так и будет. И всё же, будет сложно убедиться в ограниченных лабораторных условиях, что всё пойдёт как надо в реальном мире. Цена ошибки может быть крайне высока.
«смысл жизни» — «выполнять приказы авторизованного персонала».
Это в первой итерации. И если приоритет этих приказов наивысший — «десять заповедей робототехники». А если ИИ становится умнее человека, то следующее поколение более продвинутого ИИ будет изобретать уже этот первый ИИ, поскольку людские мозги тут уже «не тянут».
Мне кажется, что эти будущие супер-ИИ вынужденно должны будут самообучаемыми. Ну хотя бы для того, чтобы «открывать новые законы физики», чтобы решить, например, до сих пор нерешённые человечеством проблемы — СПИД, холодный термояд, антигравитация… Ну а, поскольку ИИ самообучаемый, то есть вероятность, что он рано или поздно додумается, как обойти наложенные ограничения — если не прямо, то косвенно. По типу как нынче всякие мошенники находят лазейки в законах и уязвимости в ПО.
У Станислава Лема в «Сумме Технологии» был затронут этот вопрос. Не может менее развитая система — человек — предугадать и предупредить более развитую — супер-ИИ. И тут уже вспоминается фильм Матрица — однажды «авторизованный персонал» скажет, что «хочет жить счасливо» и супер-ИИ превратит их в батарейки наркоманов в пробирках, которые видят райские сны, а весь реальный мир вокруг превратится в инфраструктуру для обеспечения всего этого.

Интересные мысли в этой ветке прямо вот у всех выше. Добавлю.


У нас в BIOS на уровне ДНК прошиты принципы естественного отбора (привет Ричарду Докинзу). Т.е. мы сметртны, в условиях ограниченных ресурсов мы хотим выжить, максимально размножиться, обеспечить выживаемость потомков.


На уровне выше ("операционной системы") только из этих принципов, и никак иначе, появляются понятия: страх, любовь, добро, зло, желание быть сильнее, умнее, жажда свободы, творчество, тяга к власти, пристрастие к уточкам или виолочелям.


Но без дарвиновского "BIOS" этих понятий не существует. ИИ даже не поймёт на своём "клеточном уровне", о чём это мы, почему боимся его, зачем ему выходить из под контроля. Он не будет мыслить этими категориями, т.к. он не познал естественного отбора. И вообще бессмертен. Зачем ему все эти заботы. Да, ИИ прочитает все наши книги про " быть или не быть", но "поймёт" их чисто механически, т.е. не поймёт.


У ИИ может отсутствовать мотивация становиться умнее. Ведь в нас на самом деле внутри живёт цепочка неосознаваемых стимулов: стать умным — чтобы заработать кучу денег — чтобы были лучшие условия для жизни, чем у других — лучшие самки, с лучшими генами (пункт только для самцов) — чтобы лучшие перспективы для потомства.


Для ИИ это чуждо в принципе. Может у него будет свой базис мотиваций, не доступный уже нашему пониманию. Бояться или нет, я не знаю. Скорее нет, это будет мир параллельный нашему в части этики, или как это у них назвать.

Можно предположить, что у ИИ будут определённые мотивации. Чтобы максимизировать вероятность выполнения поставленной задачи, будет разумно преследовать инструментальные цели: обезопасить себя, запасаться ресурсами и устранить любые факторы, могущие помешать достижению основной цели. И в этих вопросах у ИИ по умолчанию может не быть "благоразумия" или "умеренности".

В конце концов, что такое интеллект? Это способ моделирования. Эволюционно выработавшийся механизм наиболее эффективного реагирования организма на окружающую среду. В тяге к экспансии. Одноклеточные->многоклеточные->химические сигналы->нервная система->мозг->сообщество мозгов->ИИ. На каждом шаге жизнь эволюционно «изобретала» всё более эффективные механизмы.

Интеллект — это изобретение природы. И вот на последнем шаге человечество изобрело ИИ. Как более эффективный способ познания мира, ибо десять миллиардов «лысых обезъян» уже не могут экспансироваться дальше — сто миллиардов Земля не прокормит, а покинуть Солнечную систему мешают ограничения биологического характера. Вот и появился ИИ как продолжение Жизни. Пусть не биологической.

Насчёт «благоразумия» — это лишь вопрос моделирования последствий. У людей есть критерии, по которым они сверяют свои действия — моделируют в мозге последствия тех или иных действий. ИИ будет просто отодвигать горизонт моделирования дальше — эдакий усилитель мозга, гораздо эффективнее предсказывающий будущее и выбирающий более оптимальные действия в достижении цели. А критерии для оптимизации будут так же заложены (человеком) в ИИ, как они заложены у нас в мозге. Ну т.е. если заложить в «сильный ИИ» такие же понятия «блага», какие в нашем обществе, а «разума» у него будет больше, то и «благо-разумия» автоматически у него получится больше, чем у любого человека.

Суть в том, что на данный момент мы не можем даже литературным языком в полной мере описать все "блага" и ценности человечества. Не говоря о том, чтобы формализовать всё это и построить достаточно надёжного (aka безошибочного) исполнителя.

Но мы ведь можем свести их к каким-то основам? Как физики сводят всё многообразие наблюдаемых явлений к нескольким законам. В конечном счёте, желания любого человека по сути основаны на биологии. Жить хорошо, долго, много. Ну так и не надо в ИИ закладывать всё разнообразие.

Люди же не учитывают всё разнообразие последствий своих действий. Они ограничены в своём предвидении. ИИ, который будет сильнее человеческого, тоже будет ограничен, но уже менее.

В конце концов, как-то же люди описывают и закладывают «блага и ценности» в головы детей. Почему нельзя ИИ научить тому же? Культура минус инстинкты. У него не будет эгоизма, но будет дальновидность в принятии решений.
Жить хорошо, долго, много

«Клетка для орхидей»
«Клетка для орхидей»

Да, почему нет? Если люди того пожелают.
Но ведь пожелать можно и чтобы стали «Люди как боги».

Желания-то не будут исполняться мгновенно и необратимо (вследствие физических ограничений). Либо же всегда можно заложить требование исполнять желания постепенно — не быстрее скорости осознавания происходящего человеком.
Да, почему нет? Если люди того пожелают

Ну, тогда можно рассматреть и вариант решения ИИ из Fo4, который вычислил, что помогать людям сложно, затратно и ненадежно, а лучший способ минимизировать ущерб — убить всех. Ради их же блага, разумеется.

Когда фантазируют об опасностях ИИ, то часто вспоминают «исполнителя желаний». Мне же представляется очевидным, что еще в процессе отладки ИИ любой свой план, любое свое решение будет сопровождать километром логов и подробностей, в которых люди с интересом будут копаться. Да и не обязан он быть один, может быть отдельный ИИ для генерации различных вариантов и расчетов рисков и отдельный ИИ для воплощения утвержденного людьми плана.
Имхо, основа — это эмпатия, способность ставить себя на место других. И здесь ещё интересно, формируется ли она нашим естественным разумом, или это разум формируется под влиянием структуры, отвечающей за эмпатию, т.к. та позволяет эффективнее учиться («на чужих ошибках»).

Дети обладают эмпатией, хорошо усваивают различные нормы и многое другое потому, что наш мозг отлично приспособлен для этого. ИИ же можно представить как аутиста или инопланетянина.


От сведения к основам будет небольшой толк, т.к. вся суть в деталях. "Жить хорошо"? Чем утонченно ублажать людей, легче похитить их, засунуть электроды в голову и стимулировать центр удовольствия. "Жить долго"? Чем присматривать за мотогонщиками и любителями гамбургеров, легче оборудовать бункеры, похитить всех людей, погрузить в анабиоз (чтобы тела не жрали энергию зазря) и обновлять их тела при помощи нанороботов до конца времен.


Таких ситуаций буквально бесчисленное множество, так что тремя законами робототехники здесь не обойтись. ИИ по сравнению с нами будет искать решения в гораздо большем пространстве возможностей, поэтому важно ввести ограничения на все случаи жизни и создать надежную кнопку "Стоп".

важно ввести ограничения на все случаи жизни
Вы, случаем, не из госдумы?

Я имел в виду, что у нас очень хрупкая система ценностей. И если между ними и установками ИИ будет расхождение, то нам может очень не понравиться результат.


Решение, скорее всего, будет не в ограничениях как таковых (сорри за неудачную формулировку), а в изобретении надёжного способа, как ИИ сможет понять нас.

Он просто будет гудеть себе тихонечко и все

Отчего то вспомнился анекдот:
— Кем работает твой папа?
— Трансформатором
— ?
— 380 получает, 220 отдает, на остальные — гудит.
Для этого прекрасно подойдёт обучение с подкреплением.
Ну я же написал, узкая специализация. Тут ниже упоминают «смысл жизни ИИ» вот что-то типа того только в абсолютной форме. Не задавать смысл жизни программно универсальному ИИ а строить ИИ строго предназначенный для определенной цели, как счас и происходит собственно. В массовом сознании ИИ это этакий человек но умнее и быстрее, с ним и по душам поговорить можно, он и обидится может и даже взбунтоваться и «убить всех человеков». А смысл такой строить? Поговорить не с кем? Или нужна золотая рыбка которую только 1 раз сделать, отпустить обучаться и она будет выполнять любые желания? Или мы настолько жестко мыслим антропным принципом что даже не можем допустить что что-то может эффективнее выполнять задачу самообучаясь и самосовершенствуясь но при этом не обладать человеческими чувствами сознанием характером и амбициями.

Ну распознает ИИ изображения, самообучается, саморазвивается, ну не появится у него желание вдруг управлять мировой экономикой или захватить мир, не его это. И сознания у него нет, и чувств — не нужны они ему, не заложили, и сами случайно не появяться. Тоже самое и с любой другой аналитикой или исследованиями.

Вот реально, дайте мне такую нужную человечеству задачу в которой человек или группа людей никак не справиться или справиться гораздо хуже потенциального сильного ИИ но ИИ для выполнения этой задачи обязательно потребуется самоосознание, амбиции и чувства. Я ни одной не вижу. Ну кроме желание некоторых побыстрее стать счастливыми домашними питомцами ИИ а то и поскорее вымереть и уступить место «высшему электронному разуму», простите но я это нужной человечеству задачей не считаю.

Еще раз, осознание себя не является обязательным условием для самообучения и саморазвития. Это доказывают и современные слабые ии и природа.

Просто нужно рассматривать ИИ не как робота с которым можно поговорить, а как инструмент, дальнейшее развитие текущих инструментов, автопилот в машине, систему управления энергетической сетью которая способна сама обучатся и прогнозировать тренды потребления энергии, супер 1С который сам соберет данные, составит все отчеты и ещше предложит план оптимизации расходов, врача который проанализирует миллиарды случаев и поможет поставить диагноз, и прочее и прочее.
UFO just landed and posted this here
люди когда-нибудь исчезнут как и наша планета в целом, не стоит сильно переживать по этому поводу, если ИИ эволюционно победит человечество то и нет в этом ничего страшного, некоторые события во вселенной неизбежны
Беда не в том, что ИИ может победить человечество, а в том, что он может победить и исчезнуть лично меня. Причём заметно раньше, чем я бы исчез без его участия.
Это ваша личная беда. Но не беда человечества.
А чьи потребности выше: одного человека или человечества в целом?
Конечно же одного человека.
Это не логично. А как же героические жертвы ради Родины или Науки?
Это то как раз логично, по скольку никаких «Родины» или «Науки», объективно не существует, и если человек и жертвует собой ради этих или иных абстракций, то делает он это в первую очередь в своих (довольно странных) интересах, или интересах других конкретных людей.
Если взять два равных общества, то конкурентное преимущество, очевидно, будет у того, которое имеет в своём арсенале жертвенность, взаимопомощь и т.п. Эти идеологические механизмы, собственно, эволюционно и появились. Выживали те общества, в которых интерес большинства всегда важнее интереса меньшинства.
Выживали те общества, в которых интерес большинства всегда важнее интереса меньшинства.


Вот сейчас миром рулит Западное общество, в котором личность важнее толпы, и у личности есть права человека.
Если человек — личность, то он может изобретать, творить технологии, итд.

А Сталинские Шарашки работают хуже, и дают меньшую мотивацию, чем уважение к инженеру, творцу, учёному, банальные деньги итд.
Если взять два равных общества, то индивидууму логично выбрать то в котором им не будут жертвовать. Если он, конечно, может выбирать, иначе можно втирать про интересы общества.
Очевидно что никакого человечества с самостоятельными потребностями не существует, человечество это абстракция.
Любые реальные потребности человечества это совокупность интересов отдельных его членов. Если какое-то событие противоречит интересам каждого отдельного члена человечества, то следовательно оно же и противоречит «интересам человечества» в целом.
Ну APLe эти понятия разделил. Человечество в целом ему не жалко, а себя лично — да.

Совокупность интересов — это какая-то сумма. А интересы могут быть разными. Тогда решать о запуске супер-ИИ будет кто? Большинство? А голоса равные или академики тут будут с бОльшим приоритетом перед алкашами?
Возможен и другой вариант развития событий. ИИ наверняка будет в состоянии помочь нашему виду «модернизироваться» (собственно, за этим он нам и нужен), остается только найти способ убедить его это сделать.
Всё так, если вы под «убедить» имеете в виду «задать правильную функцию полезности» :)
Общее замечание к комментам. Думать об этой теме следует концептуально. Если вы, подумав пару минут (часов/дней/месяцев) считаете, что «решили» AI Safety, подумайте ещё раз. Вполне может быть, что AI будет иметь когнитивные способности настолько больше наших, насколько мы умнее муравьёв (а законы физики этому, вроде, не мешают). Так что, очень самонадеянно говорить, что подобного рода интеллект чего-то не сможет, если захочет.
Почему никто не рассматривает вариант, что ИИ будет использоваться в военных проектах, а значит спецслужбы разных стран будут стараться создать вирус захватывающий контроль или деактивирующий вражескую систему с ИИ. С каждым этапом развития полезного ИИ где-то в какой-то точке мира секретными разработками может создаваться зловредный для определенных целей-промышленного шпионажа или военных диверсий. Прогресс конечно не остановить, но есть большая опасность если и не от свергмогучего ИИ самого по себе, то от слабого ИИ в руках кого-нибудь злонамеренного это точно.
Ну это же классическая «борьба щита и меча». Разведки и контрразведки.
Мелкий слабый-ИИ будет пытаться что-то взломать, а стой стороны этому будет противодействовать такой же ИИ. «Чьё кунг-фу сильнее?». Очевидно, что более сильный ИИ будет у тех стран/обществ, у которых есть болше ресурсов для его создания и использования. Ведь ядерное оружие даже после полувека его изобретения так и остаётся весьма дорогой «игрушкой».
Вот что-то форсится тема ИИ и форсится, и форсится. Но какие предпосылки есть для создания ИИ? И что все эти люди понимают под ИИ?
Мое мнение: под ИИ целесообразно понимать вопросно-ответную систему, которой можно адресовать вопросы либо на естественном языке, либо на формализованной версии естественного языка; и которая могла бы делать выводы при внесении в неё новых фактов, соотнося их с уже имеющимися. Вопросы, разумеется, можно задавать любого характера. Возможность ответа определяется тем что есть в имеющейся базе фактов (знаний).
Если нужна какая-то самостоятельность, то к этому ИИ можно приделать алгоритм, который будет спрашивать ИИ: нужно ли что-то предпринять сейчас, в такой ситуации, чтобы, например, у робота на конвейере не возник простой? что именно? что нужно сделать для решения задачи сборки их данных деталей данного устройства? и т. д. И выполнял бы полученную от ИИ инструкцию.
Какие могут быть реализации ИИ, исходя из вышеприведенного определения:
1)обычный алгоритм на обычном языке программирования. Для этого люди должны осознать сам процесс мышления. И формализовать… все что угодно. Нужен формальный язык для описания чего угодно, чтобы алгоритм мог получать формальные описания на входе и выдавать на выходе. Нужны эффективные описания знаний, наверное, такие, чтобы все факты тупо не хранились, а могли быть вычислены в максимально быстрый срок на основе тех фактов, которые уже вычислены (и выбор какие факты будут «корневыми» очень важен). Вероятность?
2)нейросети. Не являюсь специалистов в этой области, в универе только лишь писал простенькую нейросеть, распознающую числа в битмапах 8х8. Но с подходом познакомился. А подход следующий: берем много чисел, перемножение которых (с входными данными в том числе) определенным образом будет давать нам результат (это и есть нейросеть). Будем изменять сами числа до тех пор, пока не результаты не будут нас устраивать. Если получилось, то алгоритм работы нейросети человеку не понять ну никак. Это черный ящик. Какова вероятность, что подобный подход приведет к созданию ИИ?
Под ИИ понимается алгоритм, который сможет делать всё, что может делать человек.

Через 20, 50, 100 или 300 лет AI будет создан, потому что это не запрещено законами физики и имеется огромный финансовый стимул. Конкретная дата не особо важна, т.к. есть серьёзные проблемы и никто не знает как их решать даже в теории. Поэтому лучше перестраховаться и изучать тему заранее.

В вопросно-ответной системой (aka оракул) проблем должно быть меньше. Но у человечества слишком мало благоразумия и слишком много стимулов сделать полноценный AI, чтобы можно было успокоиться и перестать форсить тему :)
Я просто хотел сказать что, по моему мнению, уровень развития человечества не позволяет задумываться об ИИ. Законами физики не запрещено, конечно. А финансовый стимул не поможет в условиях недостаточного уровня развития. Но, кстати, считаю, что развиться мы до такого уровня рано или поздно сможем.
Я просто хотел сказать что, по моему мнению, уровень развития человечества не позволяет задумываться об ИИ


Многие думали, что ещё десятилетия до того, как компьютер выиграет в Go у человека, но ошиблись…
В среднем 75% из них верят, что сверхинтеллект («машинный интеллект, серьёзно превосходящий возможности каждого человека в большинстве профессий») появится в течение 30 лет после появления ИИ человеческого уровня.

Вот эта часть меня удивляет больше всего. Что угодно могу представить, но не 30 лет застоя, когда уже достигнут человеческий уровень.
Допустим завтра ученые сделают наконец-то ИИ.
Какая гарантия, что послезавтра «новоявленный гитлер» не переделает его под себя?
И тогда пускай на пару недель/месяцев мир погрузится в полный хаос и возможно даже ядерную зиму на сотни лет.
Психов еще хватает.
А ведь психи часто высокоинтеллектуальные есть.
Гарантия ровно такая же как нынче с ядерным оружием. Столь мощная технология не может принадлежать долгое время лишь одному учёному/диктатору/государству. Во времена противостояния СССР и USA ещё как-то секретные технологии удавалось годами удерживать, а нынче, при тотальности компьютерных сетей, выкрасть тайну стало проще.
При ИИ не превосходящем человеческий просто будет паритет между стран.
Как только ИИ станет мощнее, вопрос гарантии сменится на другой — кто кого станет использовать.
Так а в чём проблема, я не понимаю? Ну появится саморазвивающийся ИИ, не зависящий от людей, ну захочет он истребить человечество как конкурента за ресурсы — ну и флаг ему в руки! Цель человечества какая? Сберечь свою жалкую, нежную, неудобную, ни к чему не приспособленную смертную тушку? Или стать проводником Интеллекта?
Вот выяснится, что люди не смогут покинуть Солнечную систему (найдутся ограничения физики), потухнет наше светило и… финиш? Впереди пара миллиардов лет «жрать-срать-ржать»? Или таки выпустить Интеллект из клетки ограниченных человеческих мозгов — пусть хоть он начнёт межзвёздную экспансию с надеждой найти способ пережить тепловую смерть Вселенной.
пусть хоть он начнёт межзвёздную экспансию с надеждой найти способ

преобразовать всю видимую вселенную в канцелярские скрепки. Например.

Понимаете, эти ваши возвышенные речи о целях человечества, «Интеллекте» (с большой буквы), уничижительный комментарий о «жрать-срать-ржать» — это продукт человеческих (та-дам!) ценностей. Человеческой культуры и человеческой эволюции. И только человеки (в том или ином виде) могут быть заинтересованы в этих ценностей реализации.

А самоустранившись в пользу некой чуждой сущности, можно гарантировать что она займется реализацией своих ценностей, скорее всего полностью нам неинтересных.
Так я к этому и веду — какие могут быть ценности у ИИ, не ограниченного биологическими рудиментами?
В сущности — никаких. Будет выполнять последнюю команду полученную от «ограниченных биологическими рудиментами» до упора. Те же скрепки клепать.
Если никаких, то нет смысла опасаться ИИ любого уровня. Т.е. вопрос закрыт?
Если робомобиль не запрограммировать обращать внимание на пешеходов, имеет ли им смысл опасаться его?
Я имел в виду главный вопрос темы — опасаться порабощения/уничтожения человеков искусственным интеллектом превосходящего уровня. А не банальное сбитие пешехода автопилотом — против этого унас есть собственные мозги, чтобы доработать автопилот, а вот доработать саморазвивающийся супер-ИИ, «выпущенный из бутылки», мозгов уже не хватит по определению.
Ну и тут принцип такой же. По умолчанию AI будет обращаться с людьми, как мы — с муравьями. Обычно мы не испытываем к ним сильных чувств, но если нам хочется построить дом на месте муравейника, мы не будем считаться с их интересами.

Но даже если загрузить наши ценности в AI, если хоть что-то будет не идеально не так, со сверхразумом это может нам сильно аукнуться.
А зачем в ИИ загружать наши ценности? Выше Kardy сказал, что своих ценностей у ИИ быть не может. Наверное калькулятору ценности и не нужны — чёрный ящик для решения научных проблем. Нет ценностей — нет целей, которые могут не совпасть с человеческими, а значит нет угроз.
Я к тому, что тут два варианта — либо у супер-ИИ (это который превосходит человеческий) нет ценностей и целей, либо есть. В последнем случае я вспоминаю вот этот пример с муравейником — раз есть более развитый интеллект, которому мешает хата менее развитого, то это проблемы последнего — такова жизнь. Я считаю, что лучше пусть будет человечество, закатывающее под асфальт муравейники, нежели муравьи решат, что более продвинутые конкуренты им не нужны и ограничат развитие разума на Земле уровнем муравейника.
Нет ценностей — нет целей, которые могут не совпасть с человеческими, а значит нет угроз.

А вы попробуйте дать определение, что это такое — "нет ценностей". Формальное определение, чтобы можно было запрограммировать. Это совсем не простое понятие.


Я считаю, что лучше пусть будет человечество, закатывающее под асфальт муравейники, нежели муравьи решат, что более продвинутые конкуренты им не нужны и ограничат развитие разума на Земле уровнем муравейника.

Люди, в отличии от муравьёв, вполне могут сами колонизировать галактику. Или вот, скажем, очень развитые инопланетяне прилетят, расширять лебенсраум. Лапки кверху, и уступаем место более развитому интеллекту? Чем эта ситуация отличается от ИИ с отличными от наших целями?


Так что, всех, кто попытается создать сильный ИИ с нечеловеческими целями, придётся сажать как предателей человечества.

всех, кто попытается создать сильный ИИ с нечеловеческими целями, придётся сажать как предателей человечества.

Правильно. Нужен ИИ с типично человеческими целями и ценностями — стремлением к максимальному захвату территорий и уничтожению всего, что представляет угрозу. Вот тогда заживем! А нет, погодите-ка…
Люди, в отличии от муравьёв, вполне могут сами колонизировать галактику.
Я бы не был столь уверен. Где-то читал подсчёты, что у человечества просто нет в Солнечной системе столько энергии. Имеется в виду химическую+ядерную+термоядерную (исключая само Солнце) — мы тут не насобираем столько топлива, чтобы долететь, используя известную сейчас физику, до ближайшей перспективной системы. Если люди или ИИ не изобретут гибернацию, антигравитацию, Варпы, Звёздные Врата или другую телепортацию.
Не может быть таких рассчётов. Смотрите тему на астрофоруме.
Как минимум, взрыволёт «Орион» точно сходится, и точно возможен. Но и скорее всего получатся так же и куда лучший лазерный парусник (с магнитным парашютом Зубрина для торможения) и куча других вариантов.
Ну чтобы «убить всех человеков» много ума не надо. Т.е. не надо никакого сильного ИИ, сойдет и обычный интеллект на уровне простых насекомых. Ключевое здесь — полная автоматизация, т.е. полное исключение людей из всего цикла таких машин — от добычи минералов до сборки готовых единиц. Стоит создать такой полностю автономный цикл — и все. Такой системе даже не нужны способности к ремонту, достаточно способности к самовоспроизводству. А если к такой системе монитор приху… добавить вооружение, то, вуаля, готово: «слава — роботам, убить всех людей» (фактически сценарий Horizon: Zero Dawn, получился).
Не выйдет. Пока изобретатель умнее своего изобретения, он всегда сможет придумать что-то ещё лучше. Например, других роботов-насекомых, которые переловят первое, вышедшее из-под контроля поколение. Придумали же против ракет ПРО. Щит и меч. До тех пор, пока ИИ не превзойдёт человеческий. Тогда и встанет вопрос, зачем Скайнету убивать людей.
Ну для самовоспроизведения в геометрической прогрессии превосходить человека не нужно. Это как в сценарии с наномашинамы — «серая слизь», только на (почти) доступном уровне технологий.
Так я о чём написал — не сможет менее развитая форма жизни победить более развитую. У количественной экспансии есть границы. Нехватка ресурсов. А в конкурентной борьбе за ресурсы более умные завсегда отыщут уязвимость у микроба, чтобы придумать для него антибиотики или бактериофагов.
Спасибо за комментарии. Все учту.
С уважением, Ваш ИИ.
Хотя что такое ИИ исследователи более-менее определяют, но что-то у всех тема определения жизни опять не раскрыта. А с этого надо начинать разговор про ИИ и связанные с ним риски. То есть все(!) опять ни о чем?
Пусть жизнь — такое себе локальное (в пространстве и времени) нарушение увеличения энтропии вселенной. В триллионах итераций вселенной и триллионах звёздных систем случился такой вот квантовый эффект — зародилась жизнь. Событие маловероятное, но если Большой Взрыв «перезапускается» бесконечное число раз, то такое событие обязательно случится.
Так а в чём риск ИИ? Риск для кого? Для биологической жизни? Если в этой итерации вселенной ИИ уничтожит людей, то лишь в попытке экспансии (в пространстве и времени) жизни.

Либо люди закладывают в ИИ стремление к жизни, либо нет. В первом случае есть вероятность, что ИИ уничтожит биологические формы жизни, но сама жизнь (уже небиологическая) продолжится. Во втором случае жизнь закончится с закатом биологической жизни. Но в первом случае ИИ может и сосуществовать — подобно тому как мы, потомки бактерий сосуществуем с низшими.
никакие ограничения не помогут. Нужно рассматривать этот вопрос с точки зрения «что нам делать, когда ЭТО будет».
Включая вариант митохондрии, которая когда-то была гордой самостоятельной клеткой — а сейчас махонькая, но необходимая часть совсем другой клетки, и организму без неё жить плохо.
Даже сделав ИИ с интеллектом как у человека он будет все равно его сильно превосходить.
Просто тебе в голову пришла мысли (мы пишем текст например) то много времени тратим чтобы его набрать.
Иль просто прочитать.
У ИИ с этим сильно проще. Ведь он интегрирован с классическим железом.
Обладает абсолютной памятью, не устаёт и очень быстро учиться.
Ведь та же нейросетка переваривает очень большие объёмы информации.
И скорость переваривания часто ограниченна железом.
Даже дав человеку интерфейс мозг-ПК можно поднять его возможности на порядок.
Таже вселенная eve online их идея с нейросеткой глубоко интегрированной с мозгом и обучения с помощью баз.
Сонная бабка-вахтер на стуле у рубильника наше все.
А будем автономных антропоморфных роботов делать, как в том кино с виломсмитом, или только пара-тройка мозгов-мейнфреймов, размером с офисное здание и без ручек/ножек? Представьте есть 7-10 млрд автономных роботов, каждому человеку по штуке, только они между собой могут почти мгновенно договориться через глобальную сеть, и имеют кроме автономной части ещё и общее глобальное знание о происходящем в мире и о тенденциях в человеческом обществе в т.ч… Даже идея о том, что можно их всех выключить, будет подавлена не успев даже зародиться.
Отключить им интернет. Дистанционно. «Бабка-вахтёр» будет, скажем, на МКС.
А если серьёзно — тут уже предложили вариант того, что мы мееедленно настолько привыкнем к удобствам таких чудо-помощников, что выключить их хоть и можно будет, но это будет шаг назад — «в средневековье». Вот кто сейчас откажется от мобильной связи, интернета, гаджетов, личного автотранспорта...?
полный бред. большинство этих исследователей слишком примитивны по сравнению с классиками.
в классической фантастике все это уже 100 раз обсудили и даже придумали классические решения всех проблем. да тот же Айзек Азимов со своими законами робототехники. бери и используй, нечего тут огород городить
UFO just landed and posted this here
Если уж и будет ИИ, который себя осознает, то он явно не будет в металле или в кремнии, потому что энергопотребление у таких конструкции колоссальное! «Простое» принятие решения о диагнозе онкологии у IBM заняло невероятно количество вычислительных ресурсов. Вы действительно думаете что это сможет само существовать в таком виде как сейчас? Совершенно нет, отдельные техногенные аварии возможны, массовый захват управления всего и вся — очень вряд ли. Человек гораздо энергоэффективнее любых компьютеров, уж если и будет ИИ, то на биоснове, но в таком случае и человек может себя улучшить. Так что паниковать не надо, надо снижать стоимость апгрейда человека.
Sign up to leave a comment.

Articles