Pull to refresh

Comments 73

Нам нужна система противостояния сепулькам.

Мы не знаем что такое сепульки, мы не можем предсказать, когда они появятся, мы не можем описать критерии, по которым что-то считается сепулькой, но нам точно надо создать средства реакции на появления сепульки.

Потому что мы не знаем когда появятся сепульки.

А что, ждать, когда наступит "Темза, сэр!" ?


Что говорить про сепульки — меня не так давно поразило, что офисный планктон не начинает эвакуацию при звуках пожарной тревоги. Сидят, смотрят на менеджера — можно массово ломиться на выход или нет? А он такой: "ща я позвоню, может это учебная тревога. Или ложная. Хм, что-то там у них занято, ну, я немного позже еще попробую дозвониться". (Так что я никого не стал дожидаться — и ушел по пожарной лестнице. Там я встретил еще одного такого перстраховщика, и мы вышли на улицу вдвоем. И это на середину дня, 12 этажного здания… )


Мне очень понравилась аналогия с посланием от пришельцев "ждите. мы к вам летим." А никто и в ус не дует.
А ведь нет ни одного (ну, по крайней мере из вменяемых) специалиста, который бы сказал "этого не будет", и только сроки от "в следующем десятилетии" до "в следующем веке" (при этом — сравните разницу между возможностями сейчас и 100 лет тому назад.)
Когда такое нечто, РАВНОЕ по интеллекту человеку, но НЕ Homo Sapiens, появится — всё, что останется делать, это расслабиться и попытаться получить удовольствие ...

А что, ждать, когда наступит «Темза, сэр!» ?
Мне тут скорее вспоминается мультик про «приближается ТЧ». Никто не знает зачем, но суслики уже бегают и призывают всех строить заборы.

Понятно, что на любой движ и панику прибегут шарлатаны и начнут окучивать тему — разгонять еще больше движения и паники.


Заголовок спойлера

image

Ну так, никем не доказано, что ИИ — это абсолютное зло, само существование которого недопустимо. Подозреваю, по факту окажется, что к тому моменту, когда даже самый упорный скептик скажет «да, это действительно ИИ» — он будет уже везде и всерьез с ним бороться захотят только полные маргиналы, потому что его отключение (если такое в принципе будет возможно) привело бы к коллапсу всей экономики, от торговли до транспорта и сельского хозяйства.
Тем временем, на надеждах и страхах ИИ можно зарабатывать вполне материальные деньги здесь и сейчас :)
… и на эти деньги разрабатывать ИИ. %)
Я три пожара пережил) людей гоню пинками даже во время совещания вместе со всем руководством. Дома укладывались в 6 минут на эвакуацию с двумя детьми с аварийным рюкзаком. Кошку цинично оставили, впрочем, ибо сильно замедляет. Возможно, им мешает отсутствие опыта наблюдения ревущей струи огня из шахты лифта, которая отрезает путь вниз.
Я думал, самое опасное при пожаре это дым, а не огонь. Я не прав?
Опасное и впечатляющее — не одно и тоже.

Пережил два пожара, согласен с Meklon. С тех пор привычка держать все ключевые документы в одном портфельчике с предсказуемым местонахождением.

btw, когда дым от горящих этажом ниже лакокрасочных имеет такую плотность, что не видно пальцев вытянутой руки, и спросонья сначала добегаешь до форточки и делаешь несколько вдохов свежего воздуха, а потом только начинаешь соображать — такое тоже запоминается, да.
Правы. Но в тот раз просто лифт подожгли. А лифтовая шахта мгновенно превращается в ревующую низким вибрирующим рокотом аэродинамическую трубу. Страшно, $$++)&@ц как. У меня плитка в ванной раскалилась, она к подъезду примыкает. А лестница в старом доме не отдельным колодцем, а вместе с лифтом. И все. Не выйти.
Пожарные лестницы небось погнили и были спилены «в целях безопасности»?
Где вы их видели? У нас они были только у «сталинок» и по ним ползали всякие «личности», и таки да, они были подгнившими, быстрее разобьёшся с такой.
Ну и повсеместные лепнина, натяжные потолки, пенопластовая плитка, изоляция/утеплитель не способствуют выживаемости при пожаре.
У кого-нибудь дома есть хотя бы банальный огнетушитель?
У меня) сейчас хочу ещё и противогазы перевезти от родителей свои.
Обычные противогазы при пожаре использовать категорически запрещено. Вам нужны т.н. «самоспасатели».
Дело в том, что многие войсковые и гражданские противогазы без специальных дополнительных патронов не поглощают угарный газ.
www.siz74.ru/otvety-na-voprosy/mozhno-li-ispolzovat-protivogaz-pri-pozhare. Пожарные пользуются изолирующими противогазами, это совсем другое устройство.
Самоспасатель — другое дело. По сути, это герметичная маска, шлангом соединённая с патроном, вырабатывающим кислород. Он как раз предназначен для случаев пожара.
Гм. В десятиэтажках видел. Балконные. С опускаемыми секциями. На амбарных замках. Не одними сталинками мир полнится, даже у нас. Кстати утеплители и изоляции тоже разные бывают. Некоторые держат совсем немаленькие температуры ощутимое время.

Пожарный шланг есть подключенный и углекислотный огнетушитель перезаправленный вот только месяц как. Противогазов нет, но есть дежурные два респиратора. Этаж второй.
Я могу сказать «что такое Темза» и что такое «Темза вышла из берегов», но у меня нет ни малейшего представления, что такое ИИОН, как он выглядит и что делать.

Если мы переименуем ИИОН в «сепульку», то известные нам свойства объекта не поменяются, потому что у объекта нет известных нам свойств.

Именно потому, алармизм в этой ситуации абсурден. Кто-то придумал, что может быть, может такая штука существовать, и теперь мы все бегаем в ужасе «А ЧТО ЕСЛИ ЭТА УЖАСНАЯ ШТУКА СУЩЕСТВУЕТ?».
Так, но не совсем.

Роботы с самовоспроизводством, способные моделировать человеческий мозг в реальном времени, могу представлять некоторую угрозу. И это — вполне понятная система с известными свойствами.

Другое дело что от сейчас до PROFIT присутствует слишком большое количество ???, чтобы делать серьёзные выводы о необходимых мерах безопасности.
«Могут представлять угрозу» — сепульки тоже могут. Если вы допустите, что они умеют сепулиться и сепуление наносит вред человеку, то из этого ясно вытекает, что сепульки вредны.

там не столько сепуление само по себе вредно, сколько то, что оно у них происходит очень быстро — пока хомосапиенс успел понять, что что-то не так, пока нажал кнопку "выкл", оно уже справилось

Про скорость сепуления у сепулек ничего не известно. А биржевой робот конечно может быть сепулькой, а может и нет.

Биржевой робот совершенно не относится к ИИ. Он относится к ИИ не больше, чем, например, автомат, разрывающий линию при превышении тока, или cron-скрит, делающий бэкап.
Кто «оно»? Что «быстро»? Всё, что сейчас называют «ИИ» — банальные компьютерные функции множества переменных, с оригинальной идеей о процессе их тренировки. К интеллекту, хотя бы даже на уровне животных, даже близко не находится.

Все же рассказы про «ИИОН» относятся к категории научной фантастики дальнего прицела, и когда про него начинают говорить с позиции «надо» это эквивалентно разговорам о сепульках или планетарной защиты от инопланетян.
но у меня нет ни малейшего представления, что такое ИИОН, как он выглядит и что делать.

Собственно, автор и предлагает — сесть и подумать, как его обнаружить, если нельзя напрямую — то по каким побочным эффектам.
Взять радиацию — люди ее тоже не могут ни увидеть, ни унюхать, ни пощупать. Даже если ее очень много — эффект наступает не сразу. И, когда журналисты спрашивали ученых — что она делает, то было "ну, микробы убивает" или там "в темноте светится". А коммерсанты пытались, то радиоактивный шоколад с зубной пастой, то стрелки часов торием красить ...


Я вот например боюсь не столько, что оно "злобно зохватит мир", а что в поисках привлекательных для людей вещей — сгенерирует какой-нить сверхстимул "ни в сказке описать, ни глаз не отвести".

А почему автор предлагает думать о несуществующем ИИОН, свойства которого никто не может предсказать, вместо того, чтоы думать о несуществующих сепульках, свойства которых никто не может предсказать?

Как можно бояться того, что мы не можем сформулировать?

Пример с радиацией совершенно некорректный, потому что радиация сначала была определена по своим свойствам, а потом уже стала понятна причина (и последствия). Засвеченные плёнки, светящийся материал, etc. Ничего подобного с ИИОН у нас нет, поскольку никакого ИИОН у нас нет и никаких причин полагать, что он появится, у нас тоже нет (если бы у нас были причины полагать, то мы бы могли сказать что именно мы полагаем, что появится, а мы не можем сказать, что такое ИИОН, так что предполагать появление чего-то, что мы не можем даже описать, невозможно).

Пример с радиацией немного в другую сторону.
Пока что она засвечивает пленки и ионизирует газы и все весело делают интересные опыты. Поднимают мощность излучения, увеличивают экспозицию…
А ведь можно было бы заранее подумать — к чему это приведет, и как этого избежать.

Нет, нельзя. В рассуждениях можно отталкиваться только от известных фактов. На тот момент ничего о воздействии радиации на биологические ткани известно не было, про ДНК в тот момент знали, что это кажется какая-то разновидность белка — о кодировании генетической информации информации не было, о том, что радиация может повреждать ДНК — информации не было. Ну и о чем тут думать-то собственно? Как начали люди страдать от радиации — так и разработали средства защиты. Все, конец истории.

Автор изначально опубликовал своё эссе на сайте, где читатели обычно будут более-менее знакомы с бэкграундом по этому вопросу. Читая этот текст "с нуля", конечно, многое может показаться более безосновательным, чем оно есть на самом деле; например, про некоторые свойства AGI можно говорить с большой степенью уверенности. Я не рассчитываю, что это замечание будет выглядеть убедительно, поэтому вкину сюда немного авторитета и укажу на то, что многие исследователи из DeepMind, OpenAI, UC Berkeley, University of Oxford и т.д. как минимум обеспокоены вопросами обеспечения "безопасности" ИИ (aka "the problem of aligning smarter-than-human AI with operators’ goals"), а то и работают в этой области; из самых громких имен технарей можно выделить Шейна Легга (сооснователя DeepMind) и Стюарта Рассела.


Если хотите получить общее представление об этих вопросах — вот отличное введение: https://habrahabr.ru/company/parallels/blog/330204/. Ещё, если захотите копнуть чуть глубже, можете полистать материал по ссылкам, которые указаны в статье, и по тем, которые я указал выше о некоторых свойствах AGI.

Ни малейшего? Совсем? Или все же ожидаете, что он сможет выполнять работу человека (если захочет) и принимать сложные самостоятельные решения. Тут намного более информации, чем о сепульках.

и принимать сложные самостоятельные решения

Свою секту открывать. А что? Со всеведением и невидимостью у него даже лучше выйдет, чем у людей.

Если пожарка в бизнес-центре срабатывает минимум раз в неделю, то бдительность слегка притупляется. = )
Следующие milestones на пути к AGI, простите, ИИОН, это автопилоты 5 уровня и убедительные победы во всяких старкрафтах. Тогда можно будет собираться и выходить из здания. А, ну да, выходов отсюда нет. Выйти мы сможем только после пожара, если повезет.
Комната заполняется дымом. Два чувака в белых халатах говорят ничего не предпринимать. В чём логика? Конечно, не предпримешь. Тупой способ проверки
Не два человека говорят третьему ничего не предпринимать, а двоим заранее сказали, чтобы они ничего не предпринимали. Смысл в реакции третьего, который об эксперименте не предупрежден.
Я тревогу нажимаю в таких ситуациях) есть инструкция же)
Описано, к сожалению, так
Боже мой, это такой талант описывать одну и ту же мысль снова и снова и снова и снова…
Ведь можно было как-то и покороче?
Такой вот он, любимый многими Юдковский. Пожалуй, не буду больше его переводить.
Ну не в упрёк, конечно же. Но из песни перевода слов не выкинешь. За перевод спасибо! ) Иногда можно только большим количеством слов убедить. И мысль донести все-таки получилось. Есть о чем задуматься
Вот чёрт, даже не посмотрел на автора, это же и правда Юдковский написал. Его робот-пылесос небось укусил перед этой статьёй.

Жаль. Потому что он в тексте не повторяется, он рассматривает сотню тонкостей, куда смог бы спрятаться мыслительный процесс.


Может хватило бы одного-двух предложений из этого текста, но они разные для разных людей, потому их так много в итоге.

UFO just landed and posted this here
UFO just landed and posted this here
Рискну прослыть луддитом, но…
«Настоящий» АИ не будет создан вообще никогда. Ну ладно-ладно, в те самые 10 или 50 лет точно. :)
А будет вот что:
Всё*, что сейчас создано человеком, а особенно — в области информатики, является как бы продолжением его руки, инструментом, который не является умнее своего создателя, а просто часть его. Функция с заданными параметрами, если угодно. И проблемы будут именно из-за «животной» части. Представьте человека, натачивающего скальпель, а лучше — бритву (потому что люди стараются все свести сначала к приземленным благам — как бы побриться получше, например), вот он ее точит и бритва становится все острее и острее. В какой-то момент, в силу единственного непогрешимого «человеческого» закона (в отличие от физических) — закона Мерфи — рука дрогнет. И тогда случится простая вещь — человек покалечит сам себя. Не будет виноватых. Кроме его самого и его природы. :)
Теперь вернемся обратно от аналогий к контексту. ИИ — инструмент, и не имеет своего сознания, только те установки, что ему вложат те, кто его создаст. Посему, прежде, чем люди смогут создать чистый разум (самообучившийся с нуля, у которого, кстати, равновероятные шансы стать «злым» или «добрым», но это отдельная тема), они создадут нечто ограниченное, ущербное, ну как Скайнет или ИИ из «Дружба это оптимум» (да и вообще большинство популярных образов ИИ), да к черту сложности — тупо автопилот! — что, в результате ошибки человека, даст сбой и приведет к последствиям, масштаб которых зависит только от того, насколько глубоко проникнет данная технология в жизнь людей, насколько сильно она будет контролировать все вокруг, а главное — насколько она будет зависеть от слабостей создателей, пусть даже не всегда осознанных. Проще говоря — все тот же человеческий фактор. :)
Поняв это, можно призадуматься, а не имеют ли популярные «паникеры», вроде Хокинга, то же самое в виду, но, как обычно, «ученый изнасиловал журналиста»? :)

В общем, пока ждем новых — совершенно новых! — технологий, и попутно стараемся не забывать о технике безопасности (в контексте статьи это значит — подстилаем соломку строим ракетные базы вокруг планеты и на ней. и медленно ползем к ближайшему кладбищу). :)
*
Небиологической природы. «Хорошо» спроектированная зараза убьет всех гораздо надежнее любого ИИ. :)

Мы не знаем — как в человеке что устроено, но это не мешает нам устраивать встречу сперматозоида с яйцеклеткой.
В глубоких нейронных сетях уже сейчас настолько много параметров, что можно только разглядывать картинки оттуда, и понимать ее только в общих чертах, не на 100%. И размывание понимания это не только там.
Так что на "не является умнее своего создателя" я бы не рассчитывал. Тем более, что все реже есть создатель как один человек, а все больше — коллаборации в несколько тысяч "соавторов".

Вот именно! Это все равно что дать обезьяне гранату. Карго-культ же. Отличие только в том, что эту гранату мы сами себе дали. То есть тот, кто создал ее, еще может понимать последствия, но те, кому ее дали — далеко не факт. :)
Так что, «не является умнее» именно создателя, а не всех потенциальных пользователей.
Именно так, коллаборация это и бонус и проклятие человека — он, по отдельности, «внезапно смертен», а те, кто придут после — некомпетентны, как минимум — поначалу, и на этой роли.

Человечество создаст ИИОН, после чего скелет хомо сапиенс по праву встанет рядом со скелетами питекантропа и неандертальца ?

Ну, в некотором смысле. Людей на планете станет заметно меньше в итоге. Вопрос только в том, быстро насильственно или нет. %)
Дружба это оптимум
Не всегда, зависит от того, как ведут себя остальные участники взаимоотношений.
Можно поэкспериментировать: notdotteam.github.io/trust

предлагаете делать ИИОН в виде MLP ?

эхх, а мне он так понравился! (жалко только животных и растений в эпилоге)

Ну, он ОЧЕНЬ мощный. Но все равно калека. :)
Мне больше жалко (не)гуманоидов, вот попали так попали. %)
Да уж, в статье сущая правда. Несколько раз уже было такое, что замечал что-нибудь ненормальное, вроде дыма или запаха газа на улице, а люди находившиеся рядом говорили, мол, «да ладно тебе, зачем звонить в пожарку/газовщикам, дым/запах ничего не значат...». Я, правда, всегда звонил, а на меня смотрели как на двинутого социально активного человека :D К слову, когда звонил вот газовщикам, вызов оказался нужным — действительно была утечка на распределительном пункте, на которую датчики не отреагировали автоматически.
Да везде так. Мы вызвали газ службу из за запаха на первом этаже. Позвонили во все квартиры на первом этаже! Всем пофиг, а половина даже чувствовала запах, но тоже пофиг. Но оказалось, что газ службе тоже пофиг, т.к. приехали через 2 часа.
Отличная аналогия к тому как обычные люди реагируют на предостережения врачей, учёных, экологических «алармистов». Ой, не было такого никогда и не будет!

А потом шлёп и инсульт.
Пособие «Как превратить фразу
Мы не можем предсказать, когда появится ИИОН, поэтому необходимо начинать думать над его рисками уже сейчас.
в шесть с половиной тысяч (!) слов текста.»
Издание второе, дополненное.

Шесть с половиной тысяч слов, объясняющих, почему. Любое объяснение или доказательство какого-то утверждения всегда длиннее, чем само утверждение.

UFO just landed and posted this here
Полагаю, поиск ИИОН идёт не в том направлении. Скорее всего, алгоритмы и взаимосвязи, на которых строится интеллект естественный гораздо более примитивны, чем модели, которые строят для решения задач машинного обучения. Просто естественный интеллект имеет:
* богатейший окружающий мир, который можно изучать и на который можно влиять
* богатейший набор сенсоров и сервоприводов, позволяющий с этим миром взаимодействовать
* десятки лет времени для постижения и осмысления этого мира.
Поэтому, чтобы вырастить искусственный интеллект, подобный человеческому, нужно всего лишь создать аналогичные по точности, скорости и силе человеческим руки, у которых есть ещё и осязание, создать источник энергии, который обеспечивал бы ему достаточную автономность и общество, членом которого он мог бы стать. Либо создать развитую виртуальную реальность, в которой он мог бы обучаться так же, как настоящий человек.
Думаю, что когда ИИ будет ПОНИМАТЬ, что он делает (что, по сути, может дать ему возможность создания более узкоспециализированных моделей), а не просто быть инструментом решения какой-то узкой задачи — вот тогда уже можно будет думать про прорыв. Пока такого не видел, но это вовсе не значит, что подобных решений нет.

И как-то неуютно представлять, что уже почти каждую задачу можно решить с помощью слабых моделей или фиксированных алгоритмов, обладая определённым количеством маны…
Дык, а пока что понимать сам он не умеет, за него понимает его разработчик. :)

А по мне напротив — уютно осознавать полную подконтрольность своих инструментов. :)
А как отличить понимает или не понимает?
Истерия с ИИОН, мне лично не очень понятна.

Предположим, что ИИОН, можно создать и он будет такой как в наших фантазиях — мегаумный, обучаемый, масштабируемый, работающий 24/7 и т.д. В этом сценарии, он за конечное время, оказывается лучше человека и этот момент будет иметь колоссальные последствия, независимо от того будет он нам другом или врагом. Вероятнее всего, человек каким мы его знаем сейчас, прекратит существование или в буквальном или переносном значении. И в этом сценарии не важно будет, будем мы его сдерживать или нет. Прогресс не умолим, прогрессу плевать на наши запрещалки. Даже если бы самолеты начали запрещать, все равно кто-то бы их сделал. На самолет братьев Райт, потребовалась уйма работы и человекочасов, сейчас этот результат можно за неделю повторить в гараже. Отсюда вывод, запрещай, контролируй, но рано или поздно кто то создаст у себя в гараже ИИОН не ограниченный запретами и…

Предположим, что ИИОН не будет таким как мы фантазируем, то есть не превзойдет за конечное время человечество. Это будет этакий вариант Бендера из Футурамы, полезный но во многом бесполезный инструмент, похожий на человека. Контролировать его не составит труда, да и не факт, что в этом будет необходимость.
Отсюда вывод — готовится надо к выживанию, изучать труды по трансгуманизму или строить защищенные изолированные сети и бункеры с запасами еды. А не пытаться, что то регулировать или запрещать.
Тут сквозит страх перед технологической сингулярностью. Мы фиг знаем, что это такое, но если оно случится — мы потеряем весь контроль над наукой, техникой и в целом жизнью человечества.
Так что выбор небольшой — либо двигать науку вперёд изо всех сил, стараясь принять то, что однажды всё-таки случится, либо как тагоряне из Мира Полудня — три четверти научных ресурсов тратить на изучение потенциальных вредных последствий открытий.
Пожарная тревога создаёт общеизвестное знание о наличии пожара; после этого уже социально приемлемо будет реагировать на происходящее. Когда срабатывает сигнализация, вы знаете, что все остальные тоже знают о том, что пожар есть, и вы знаете, что не опозоритесь, если проследуете на выход.

Ха-ха-ха.


Предлагаю поставить такой же эксперимент, но чтобы кроме дыма была еще и пожарная тревога. Не думаю что что-то изменится...

Вот нифига. Если уже кто-то «опозорился», то есть нажал тревогу, остальные расслабляются и спокойно валят из здания. Там ведь еще и потенциальный «стимул» в виде санкций за ложную тревогу, особенно, если тушение автоматическое.
Sign up to leave a comment.

Articles