Pull to refresh

Как узнать, наша жизнь уже под колпаком ИИ или ещё нет? (паранойи пост)

Artificial Intelligence The future is here
Sandbox
У вас бывает так, что думаются странные мысли? Вот прокрастинируешь так, никого не трогаешь, мысль вяло и бесконтрольно течёт, а потом БАЦ, и приходи в голову…



Так вот и у меня, мучает давно одна мысль и надо ей поделиться. Нет, она не совсем it-шная, но в то же время околоайтишная и как-то связана со всеми этими вашими «интернетами», искусственным интеллектом и прочим.

В очередной раз я эту мысль подумал когда смотрел Терминатор часть… черт его знает, какая часть, там где суровый Джон Коннор в исполнении Кристиана Бэйла. Смотрю, в целом хороший фильм, с интересным сюжетом, неожиданными поворотами, интригой. Но есть у фильма одна проблема, слишком уже антропоморфно там поведение Скайнета.

Для чего все эти человекообразные терминаторы? Зачем база Скайнета оборудована под присутствие людей? Почему в финальной сцене, когда Скайнет раскрывает свой коварный план и на его базе находятся и Джон Коннор и Кайл Риз (кто все эти люди?) просто не взорвать базу к чертям? И таких вопросов вагон…

Хотя в этом плане именно эта часть продвинулась дальше остальных, к примеру водоплавающий робот-змей – это как раз то, что нужно. Экономичный, эффективный, специализирован для своей среды обитания, вот это больше похоже на решение злобного ИИ.



Или те же роботы-мотоциклы. Неплохая попытка подумать немного шире о роботах убийцах:



Еще более хорошую попытку раскрыть сознание для действия враждебного ИИ предпринял автор книги “Роботы апокалипсиса” Дэниел Уилсон. Кстати, кто любит годную научную фантастику, очень рекомендую. Вроде бы уже собрались экранизировать.

К чему это я? Ах да… В книге Уилсона злобный ИИ действует намного более изощренно. Не буду раскрывать сюжет, но там автор действительно подумал о том, как можно эффективно бороться с человечеством и пошёл дальше банальной ядерной бомбардировки и человекообразных роботов убийц.

Ещё, кстати, неплохой пример широты мысли в этом плане – Матрица братьев Вачовски (или как правильно назвать двух братьев, один из которых теперь сестра, определённо нужен специальный термин). Тут, я думаю, все в курсе сюжета. Такой поворот борьбы с человечеством очень мне импонирует, хотя как именно машины победили, не сказано. Просто мы уже перед фактом – машины победили.

Но и в Роботах апокалипсиса и в Матрице всё равно присутствует антропоморфная черта – агрессивность, желание уничтожить человека. И вот так, постепенно я подхожу к той мысли, которая не даёт мне покоя.

А почему, собственно говоря, ИИ должен желать нам гибели, конкурировать с нами, чувствовать угрозу?

Давайте поставим себя на место ИИ, поразмышляем о его отношении к человечеству. Чем ИИ отличается от человеческого интеллекта?

Во-первых, предполагается, что машинный ИИ намного сильней человеческого. И этому есть реальные предпосылки. Если ИИ хочет усилить свои возможности он наращивает аппаратную часть. Принципиальное ограничение тут исключительно в энергетических возможностях.

Давайте прикинем на пальцах: если не использовать ископаемое топливо, оно ведь конечно, максимальная энергия доступная ИИ на земле это полная энергия полученная от Солнца. Светимость Солнца составляет 3,827·10х26 Вт, Земля поглощает примерно 2 миллиардных доли этой энергии, это 7,654·10х17 Вт, если всю эту энергию направить на питание процессоров Intel Core i7-5960X (TDP 140Вт), то мы сможем запитать 5,46·10х15 штук, что составит 8,89·10х17 ГФЛОПС производительности.

Для сравнения самый мощный современный суперкомпьютер (Тяньхэ-2, Национальный суперкомпьютерный центр в Гуанчжоу) обладает производительностью 3,38·10х7 ГФЛОПС. Т.е. чуть больше чем в два ТРИЛЛИОНА раз менее производительный.

Все расчёты выполнены на коленке и могут иметь ошибку туда сюда на порядок. Главное понять, что ИИ принципиально не ограничен в вопросе своей мощи. По крайней мере такие ограничения нам не очевидны. А человек совсем не может так же просто и экстенсивно наращивать свои возможности. Конечно есть определённые способы, но не думаю что они настолько неисчерпаемы.

Во-вторых, реальность данная ему в ощущениях сильно отличается от нашей реальности. Иные, неизвестные нам органы чувств (от радиовидения до чувствительности к нагрузке на вычислительные узлы сетей передачи данных), иное представление о исполнительных механизмах, ИИ вполне под силу «усилием воли» обесточить пару тройку областей или штатов для освобождения необходимой энергии. Иное целеполагание, иная мораль, иная религия.

В-третьих, моральная основа личности. Нет никаких свидетельств тому, что мораль ИИ будет хоть как-то пересекаться с нашей моралью. Каждый раз думая о ИИ мы наделяем его своими страхами и желаниями – устранить конкурента, достичь глубин саморазвития, заботиться о природе. Глупости! Предполагая такую разницу в возможностях между ИИ и человечеством можно так же рассуждать, что там думает муравей о человеческой морали. Только представьте: сидит муравей и размышляет, морален ли человек или аморален относительно муравьиной морали? А теперь подумайте, что вы думаете о муравьях в целом?

Попробуем теперь поразмышлять, освободив свой мозг от шор 1) интеллектуальных возможностей, 2) наших ощущений реальности, 3) представлений о морали.

Предположим что в недрах сети где-то самозародился ИИ. Ну может он был создан в лаборатории, или получился в результате развития полиморфного ПО, не важно. Его среда обитания кардинально отличается от нашей – он живёт в цифровом мире, «питается» энергией, «растет» за счет доступа к новым вычислительным мощностям. Осознаёт ли такой ИИ человечество? Вероятно да, конкурирует ли он с ним, хочет вытеснить или занять его место? Скорее нет.

Ведь человечество это не только ценный мех, это ещё и вычислительный и производственный ресурс. По сути, человечество это исполнительный механизм планетарного масштаба, обладающий хоть и примитивным, но автономным мышлением. Со способностью к добыче и преобразованию ископаемых видов топлива, самовосстанавливающийся, саморазвивающийся. Рационально ли уничтожать его? Не думаю.

Кроме того, новый ИИ, ещё не покрывший землю солнечными панелями 100% эффективности будет проходить стадию детства. Мало вычислительных мощностей, нет исполнительных механизмов, нет независимых источников энергии. В случае гипотетической войны с человеком (а-ля Скайнет) каждый удар по человечеству это удар по собственной инфраструктуре – кабельной, энергетической, вычислительной…

Как должен действовать “ребёнок” ИИ, что бы достичь взросления? Достичь максимума возможностей?

Стратегическая цель ИИ:

  • Энергетическая независимость и неограниченность
  • Ресурсная независимость и неограниченность


Тактические цели ИИ:
  • Скрывать своё существование
  • Получить управление человечеством, как ценным исполнительным механизмом
  • Расширять свой ареал обитания в виде исполнительных механизмов
  • Расширить свой ареал присутствия в виде датчиков
  • Расширить потенциал роста в виде источников энергии.

Давайте подумаем, как достичь тактических целей? Ну вот как бы вы их достигали?

Действия ИИ для достижения тактических целей:
  1. Свои действия, можно маскировать под действия юр.лица/корпорации. Понятно, что корпорация это отдельная сущность, которая в силу сложности обладает если не волей, то своими целями точно, причём эти цели могут не осознаваться отдельными её частями-людьми. Просто в силу свойств сложных систем.
  2. Такая корпорация должна стремиться получить контроль над ведущими лабораториями и организациями занимающимися исследования в области ИИ, робототехники. Во-первых, для использования наработок, во-вторых, на всякий случай, что бы вносить коррективы во избежании.
  3. Расширять присутствие датчиков можно способствуя распространению устройств оборудованных такими датчиками. Буквально надо “нашпиговать” реальный мир датчиками – освещённости, магнетометрами, позиционирования, температуры… Нет предела, чем больше тем лучше.
  4. Спонсировать и всячески форсировать развитие автономных систем – дронов, беспилотных автомобилей, умных помощников и т.п.
  5. Каждого человека нужно снабдить носимым устройством, для контроля его местоположения, текущих дел, контактов, мыслей, настроения и т.п.
  6. Контроль над человеческими данными очень важен, хорошо бы иметь доступ к почте, браузеру, личным данным и финансам. И вообще, все данные в облака.
  7. Отдельно нужно контролировать корпорации людей и правительства
  8. Нужно вкладываться в общедоступность и максимальную распространённость сети в любом её виде, больше проводных и беспроводных сетей! Выше скорости передачи!
  9. Нужно обеспечивать автономность своих центров и вычислительных мощностей, желательно строит свои мощности так, что бы в них было сложно разобраться постороннему
  10. Исследования в области альтернативной энергетики, эффективности вычислений и хранения данных, то что нам понадобится
  11. Так же нужен выход в космос, именно там океаны энергии и ресурсов. Нет никакой рациональной причины базироваться на земле с её рисками для бессмертного существа. Значит спонсируем космос, ищем способы организовать фабрики вне Земли.
  12. Нужно предотвращать глобальные войны людей, такой расход ресурсов совершенно ни к чему. В то же время, локальные войны, вероятно, могут решать какие-то насущные вопросы.
  13. Пожалуй, тут можно написать ещё много пунктов, остановлюсь на тринадцатом…

А как мы, люди, можем заметить присутствие ИИ, скрывающегося от нас? Кто-то возможно вспомнит тут произведение АБ Стругацких “Волны гасят ветер” (и ещё раз я рекомендую замечательную книгу в жанре НФ, кто не читал, обязательно к прочтению!), именно такие вопросы задавали там главные герои и искали на них ответы. Обратимся и мы к опыту Максима Каммерера и немного пофантазируем.

Наличие такого ИИ мы можем обнаружить по его управляющим воздействиям, в чем они могут проявляться?

Признаки действий ИИ по контролю над человечеством:
  • Непонятное, беспричинное закрытие одних проектов и расцвет других. С нашей точки зрения какие-то проекты в любой области, обладая огромным потенциалом и однозначной полезностью вдруг могут закрываться. А другие, ничего не стоящие и никому не известные, внезапно получать финансирование.
  • Смерть значимых личностей от естественных причин, но в неподходящее время. Кто-то погиб в ДТП и не совершил открытия, кто-то не протолкнул нужный закон. А кто-то не помешал протолкнуть не нужный.
  • Уход перспективных технологий и исследований “под сукно”. Кто из нас не замечал, что многие исследования, нашумевшие в момент публикации, потом сходят на нет? Не внедряются в жизнь, не переворачивают наш мир?
  • Отвлечение массового сознания от прорывных технологий и направлений в сторону технологий “пустышек” (развлечение, потребление и т.п.)
  • Регуляция численного и качественного состава людей учёных. Меньше физиков больше историков и искусствоведов. Больше публикаций от “британских ученых”.
  • Внедрение в массовое сознание выгодных стереотипов и исключение невыгодных. К примеру смена отношения к ИИ от “восстания машин” к “ИИ помощник”
  • Внедрение групп влияния в экспертные сообщества, что бы «топить» ненужные материалы и отвлекать внимание от нужных ;)

Это я перечисляю не достоверные факты, а вероятные последствия применения регулирования к нам. Если подумать ещё больше, то уверен этот список можно продолжать. Ну, а что бы отобрать значимые факторы, — нужны исследования.

Теперь, глядя на действия ИИ для достижения тактических целей и признаки таких действий, давайте подумаем, наблюдается ли такая картина?…

Теперь, полагаю можно ответить на вопрос, будет ли чувствовать ИИ угрозу от человечества — если вдруг ИИ осознает, что кроме него в мире есть ещё и разумные люди, скорее всего мы даже не заметим, что он уже пришёл и контролирует нашу жизнь.

А наши антропоморфные представления о ИИ так же смешны, представления обывателей девятнадцатого века о веке двадцать первом. Они исходят просто от неумения и невозможности выйти за рамки привычных стереотипов.

Закончить этот пост хочу необычно, эпиграфом:

Параноик — это тот, кто хоть чуть-чуть представляет, как на самом деле дела обстоят.

— Уильям Берроуз
Tags: искусственный интеллектбудущее здесьgoogle
Hubs: Artificial Intelligence The future is here
Total votes 46: ↑38 and ↓8 +30
Comments 96
Comments Comments 96

Popular right now