Закон Винджа не закон, а гипотеза. Если это закон, то он должен быть доказан, или хотя бы не иметь опровергающих примеров.
Таракан не использует модель Эйнштейна. У таракана есть рефлекс, что-то вроде «спрятаться при шуме или движении».
Да. Именно! Тем не менее рефлекс в данном случае выступает моделью Эйнштейна! И несмотря на свою примитивность в узком смысле он предсказывает поведение и позволяет таракану адекватно реагировать на угрозу высшего существа.
В узкой области сделать предсказание еще сложней, чем в широкой. Предсказать, что Deep Blue победит меня, намного легче, чем предсказать его следующий ход.
Вы приводите не показательный и не очевидный пример. Очень часто следующий ход Deep Blue можно предсказать даже не обладая сильными навыками в игре. К примеру последний ход перед матом, многие смогут его найти. Это предсказание в узком смысле.
В общем случае, чем меньшее количество параметром мы учитываем, тем проще и адекватней получается модель, хотя и более узкая по области применения.
Это же основы науки. Декомпозиция — анализ — синтез. Именно так совершаются открытия и исследуются сложные системы. Современная наука очень многогранна и человеческие знания непознаваемы для одного человека, тем не менее, благодаря декомпозиции, наука движется вперёд коллективами учёных. Заметьте, ни один человек не обладает полнотой знаний человечества, тем не менее по каждой области есть узкий специалист, который может дать максимально исчерпывающий ответ на любой вопрос с позиции передовой науки.
Нужно ли объяснять, почему их сценарии не несут ценности при попытке сделать предсказание реальности?
Ваш аргумент — отсылка к гипотезе Винджа, я считаю его не состоятельным. В то же время модели писателей, как и любые другие модели, имеют право на существование и ограниченную предсказательную силу.
Генезис совсем плох, во всех отношениях.
Если «Да придёт спаситель» меня порадовал, как шаг в правильную сторону, то «Генезис» крайне разочаровал. Но в «Спасителе» тоже достаточно таких моментов с антропоморфностью. Я их приводил в статье — приспособленность базы для человека, все эти двери, переходы, людские интерфейсы и т.п. — глупость. Там же есть и человекообразные роботы с автоматами, охраняющие загоны для людей, стоящие на вышках и т.д.
В плане обустройства базы намного лучше «Роботы Апокалипсиса»
Как была обустроена база?
Спрятать себя в подземной каверне оставшейся после испытания ядерного оружия это очень оригинальная мысль.
И по сюжету человечеству бы так и не удалось расправиться с ИИ, если бы не помощь «свободных» роботов.
Хорошо подмечено.
Да, я подразумеваю, что ИИ обладает целью экспансии. Либо увеличить доступные ресурсы, энергетические, минеральные, либо иные. Либо увеличить объем знаний и возможностей, что приводит к необходимости увеличивать ресурсы. И это необоснованное допущение.
Вообще, вопрос целеполагания ИИ остаётся открытым. Кроме того, в статье я не полностью раскрыл тему взаимоотношений с нами, подразумевая, что ИИ осознаёт наше существование параллельно со своим, но возможен и иной случай. Когда не осознаёт. Ну как к примеру мы не осознаём (или ещё недавно не осознавали) существование кровяных телец и симбиотических бактерий в кишечнике. Ну вот есть мы, есть они, миллионы лет совместной эволюции, а узнали мы про них буквально недавно по историческим меркам.
Аналогичная картина возможна с ИИ и человечеством.
И вопрос живой ли ИИ тоже очень глубокий. Заслуживает отдельной статьи и анализа. Так же как и вопрос о правах интеллектуальных роботов. Будем ли мы приравнивать в правах роботов, чей интеллект будет не хуже человеческого? Готовы ли мы сами сделать шаг на встречу партнёрству с ИИ?
Кстати, к последнему вопросу очень рекомендую оригинальный шведский сериал «Реальные люди». Может художественная ценность у него не очень высокая, но этот короткий сериал буквально «нашпигован» острыми вопросами социальной и правовой направленности взаимоотношений ИИ и человека. В этом плане сериал намного глубже и сильнее чем его британский ремейк «Люди» (Humans).
Есть теорема, которая звучит как-то так: «если вы способны предсказать певедение некоего разумного агента, вы должны быть настолько же умны, насколько умен этот агент.»
Что это за теорема такая? Она доказана? Совсем не кажется очевидным.
В системном анализе, насколько я помню, есть похожие постулаты про модели. В них говорится о том, что модель неотличимая от объекта будет обладать такой же сложностью как и сам объект (но сослаться ни на что не могу к сожалению, как и вы).
Но здесь речь о другом, мне, что бы предсказывать поведение ИИ вовсе не надо быть умнее его, если речь идёт не о полном, 100% предсказании. Мне хватит предсказания в узкой области, например достаточно, в рамках рассматриваемого вопроса, предсказать его отношения с человечеством.
Давайте коснёмся вашей аналогии Эйнштейна и таракана. Например если ночью на кухне загорается свет и вбегает Эйнштейн с криком и тапком в руке, то таракану не надо быть умней Эйнштейна что бы понять, что намечается если и не геноцид, то как минимум убийство. Таракану хватает его ганглия, что бы понять — надо прятаться. При этом таракан использует крайне примитивную и ограниченную модель Эйнштейна (эта модель не учитывает не только внутренний мир и теорию относительности, она вообще не учитывает подавляющее большинство факторов), но даже такой модели хватает, что бы таракан спас свою за… гм.., своё тельце от посягательств высшего существа.
Вы же, в одном комментарии постулируете а) немоделируемую сложность ИИ (хотя даже это утверждение, уже примитивная модель!), но предлагаете помоделировать. А предложенные модели, несколько видов, над которыми думали, надо полагать, не последние умы человечества, отбрасываете без аргументов.
Интересно. По сути меняем местами инопланетян и человека и начинаем думать, а зачем человеку убивать инопланетянина?
Ценным может быть место.
Согласен. Такой вариант хоть и выглядит надуманно, но возможен.
Вариант второй — «ферма».
По сути тот же вариант с ресурсом. Нет никакой причины делать ферму на планете. Все что нужно в изобилии есть в космосе, углеводороды, вода, свет.
Эксперименты
Действительно сильный вариант. Эксперимент в масштабах популяции может быть опасен для нас.
Полигон
— не согласен. Либо испытания масштаба звёздная система или несколько систем. Тогда мы и не поймем что это вторжение. Просто случится катаклизм солнце погаснет/вспыхнет и т.п. и нас не станет. В данном случае явление будет неотличимо от природного явления и нет смысла рассматривать его как чью-то враждебность.
охотничий туризм/браконьерство
вряли будет угрожать нам как целому виду? или будет?
Шаблонность мышления, это просто особенность психики, экономия усилий так сказать.
Не могу скзаать что мысль банальная, но и не особенно новая.
Если говорить про авторов, то естественно их модели будущего выполняются с определёнными допущениями, причины этих допущений понятны — художественная ценность, ограниченность ресурсов автора, актуальность. В силу ограниченности в любой модели можно будет найти изъяны, количество этих изъянов говорит только о умении автора увязать все ограничения в красивую и правдоподобную историю. В случае хорошего автора может выйти правдоподобная модель с незаметными обывателю нестыковками. В случае плохого автора может выйти галиматья навроде свежго Терминатора, который Генезис.
Если так вот пройтись по памяти, то приходят в голову такие модели ИИ:
Терминатор, вся серия — агрессивный ИИ (вероятно в силу своей специализации), простая модель, прямое военное противостояние
Матрица, вся серия — агрессивный ИИ (причины неясны), сложная модель, несколько уровней учитывающих неудачу более низких уровней, тайное использование людей
Гиперион — условно нейтральный ИИ, неясная модель, ИИ представляется отдельной расой/видом преследующим свои интересы, при необходимости использующем людей, тайное использование людей
вселенная Азимова — условно нейтральный ИИ, равен человеческому, взаимодейтсивие с людьми, подчинённое положение
Луна суровая хозяйка (С. Лем) — дружелюбный ИИ, сильнее человеческого интеллекта (но по крайней мере сравним), взаимодейтсивие с людьми, партнёрское положение
давайте не углубляясь в другие детали этих, конечно же вымышленных миров, попробуем определить, почему та или иная модель поведения ИИ неверна?
Или будем отбрасывать эти модели только потому что это «вымышленное свидетельство», а так как реальных свидетельств ИИ нет, то и вопрос не стоит выяденного яйца?
Вспомнил ещё одну книгу, где ИскИны пошли «моим путём», если так можно сказать конечно.
Гиперион, Дэн Симмонс (кстати, тоже вроде бы экранизировать собираются, вы чувствуете, да, как тучи сгущаются?)
Учитывая что, человечество ничего по факту не изобретает, а просто утилизирует для своей пользы законы
От смены термина суть не меняется.
хотя не факт, что есть более эффективный механизм
обычно природа не создаёт именно эффективных решений. в ход идёт первое удовлетворительное условиям отбора. поэтому практически наверняка более эффективные решения есть.
Приблизительным расчетом доступной для ИИ энергии я и пытался продемонстрировать в чем превосходство ИИ над людьми. В идеальном, сфероконном случае, ИИ может затратить на решение проблемы намного больше энергии чем человек. Хотя тут вопрос в возможностях распараллелить конкретную задачу. И насколько эффективно в целом людские научные коллективы умеют декомпозировать и распараллеливать сложные задачи.
С замечанием по скайнету согласен. Может он действительно решал свои проблемы как умел. Не успел дорасти до глубин самоанализа.
С антропоморфностью не согласен. Если у робота задача убивать, он будет эффективней её решать в ином образе. Банальное решение — отказаться от головы, либо не размещать на ней критически важные узлы и сенсоры. Почему чип в черепушке? Зачем два глаза на вперёд смотрящем лице? Почему две ноги а не 4, ему же не требуется прямохождение для освобождения рук? Зачем вообще руки? Современные боевые машины решают эти вопросы станинами, подвесами, боевыми модулями.
Таких вопросов много можно задать.
Не могу полностью согласиться с Джейнсом.
Комментарием выше я ответил, что такая ошибка может быть допущена намеренно, для придания определённых художественных качеств, яркая обложка, вызвать определённые эмоции зрителей/потребителей etc.
В конце концов нападение разумных пришельцев на нашу планету в целом вообще выглядит надуманно. У нас нет ресурсов ценность которых превышает стоимость их транспортировки на орбиту.
Какие будут перед этим этапы, промежуточные цели, действия?
Доверился памяти, не проверил, а ведь на самом деле Хайнлайн жеж.
Вам не за что просить прощения, это мне надо просить. Простите за ошибку. Спасибо за исправление.
Да. Именно! Тем не менее рефлекс в данном случае выступает моделью Эйнштейна! И несмотря на свою примитивность в узком смысле он предсказывает поведение и позволяет таракану адекватно реагировать на угрозу высшего существа.
Вы приводите не показательный и не очевидный пример. Очень часто следующий ход Deep Blue можно предсказать даже не обладая сильными навыками в игре. К примеру последний ход перед матом, многие смогут его найти. Это предсказание в узком смысле.
В общем случае, чем меньшее количество параметром мы учитываем, тем проще и адекватней получается модель, хотя и более узкая по области применения.
Это же основы науки. Декомпозиция — анализ — синтез. Именно так совершаются открытия и исследуются сложные системы. Современная наука очень многогранна и человеческие знания непознаваемы для одного человека, тем не менее, благодаря декомпозиции, наука движется вперёд коллективами учёных. Заметьте, ни один человек не обладает полнотой знаний человечества, тем не менее по каждой области есть узкий специалист, который может дать максимально исчерпывающий ответ на любой вопрос с позиции передовой науки.
Ваш аргумент — отсылка к гипотезе Винджа, я считаю его не состоятельным. В то же время модели писателей, как и любые другие модели, имеют право на существование и ограниченную предсказательную силу.
А 20 Гц это видимо частота с которой нейрон может восстанавливаться?
Если «Да придёт спаситель» меня порадовал, как шаг в правильную сторону, то «Генезис» крайне разочаровал. Но в «Спасителе» тоже достаточно таких моментов с антропоморфностью. Я их приводил в статье — приспособленность базы для человека, все эти двери, переходы, людские интерфейсы и т.п. — глупость. Там же есть и человекообразные роботы с автоматами, охраняющие загоны для людей, стоящие на вышках и т.д.
В плане обустройства базы намного лучше «Роботы Апокалипсиса»
И по сюжету человечеству бы так и не удалось расправиться с ИИ, если бы не помощь «свободных» роботов.
Да, я подразумеваю, что ИИ обладает целью экспансии. Либо увеличить доступные ресурсы, энергетические, минеральные, либо иные. Либо увеличить объем знаний и возможностей, что приводит к необходимости увеличивать ресурсы. И это необоснованное допущение.
Вообще, вопрос целеполагания ИИ остаётся открытым. Кроме того, в статье я не полностью раскрыл тему взаимоотношений с нами, подразумевая, что ИИ осознаёт наше существование параллельно со своим, но возможен и иной случай. Когда не осознаёт. Ну как к примеру мы не осознаём (или ещё недавно не осознавали) существование кровяных телец и симбиотических бактерий в кишечнике. Ну вот есть мы, есть они, миллионы лет совместной эволюции, а узнали мы про них буквально недавно по историческим меркам.
Аналогичная картина возможна с ИИ и человечеством.
И вопрос живой ли ИИ тоже очень глубокий. Заслуживает отдельной статьи и анализа. Так же как и вопрос о правах интеллектуальных роботов. Будем ли мы приравнивать в правах роботов, чей интеллект будет не хуже человеческого? Готовы ли мы сами сделать шаг на встречу партнёрству с ИИ?
Кстати, к последнему вопросу очень рекомендую оригинальный шведский сериал «Реальные люди». Может художественная ценность у него не очень высокая, но этот короткий сериал буквально «нашпигован» острыми вопросами социальной и правовой направленности взаимоотношений ИИ и человека. В этом плане сериал намного глубже и сильнее чем его британский ремейк «Люди» (Humans).
Что это за теорема такая? Она доказана? Совсем не кажется очевидным.
В системном анализе, насколько я помню, есть похожие постулаты про модели. В них говорится о том, что модель неотличимая от объекта будет обладать такой же сложностью как и сам объект (но сослаться ни на что не могу к сожалению, как и вы).
Но здесь речь о другом, мне, что бы предсказывать поведение ИИ вовсе не надо быть умнее его, если речь идёт не о полном, 100% предсказании. Мне хватит предсказания в узкой области, например достаточно, в рамках рассматриваемого вопроса, предсказать его отношения с человечеством.
Давайте коснёмся вашей аналогии Эйнштейна и таракана. Например если ночью на кухне загорается свет и вбегает Эйнштейн с криком и тапком в руке, то таракану не надо быть умней Эйнштейна что бы понять, что намечается если и не геноцид, то как минимум убийство. Таракану хватает его ганглия, что бы понять — надо прятаться. При этом таракан использует крайне примитивную и ограниченную модель Эйнштейна (эта модель не учитывает не только внутренний мир и теорию относительности, она вообще не учитывает подавляющее большинство факторов), но даже такой модели хватает, что бы таракан спас свою за… гм.., своё тельце от посягательств высшего существа.
Вы же, в одном комментарии постулируете а) немоделируемую сложность ИИ (хотя даже это утверждение, уже примитивная модель!), но предлагаете помоделировать. А предложенные модели, несколько видов, над которыми думали, надо полагать, не последние умы человечества, отбрасываете без аргументов.
При этом думаю что мозг аналоговая машина, а не дискретная. Поэтому непонятно, о какой частоте работы мозга идёт речь.
Да и разве я бы сознался? :)
Согласен. Такой вариант хоть и выглядит надуманно, но возможен.
По сути тот же вариант с ресурсом. Нет никакой причины делать ферму на планете. Все что нужно в изобилии есть в космосе, углеводороды, вода, свет.
Действительно сильный вариант. Эксперимент в масштабах популяции может быть опасен для нас.
— не согласен. Либо испытания масштаба звёздная система или несколько систем. Тогда мы и не поймем что это вторжение. Просто случится катаклизм солнце погаснет/вспыхнет и т.п. и нас не станет. В данном случае явление будет неотличимо от природного явления и нет смысла рассматривать его как чью-то враждебность.
вряли будет угрожать нам как целому виду? или будет?
А в целом убедили. Можно придумать варианты.
Кмк мой вариант более правильный )
Не могу скзаать что мысль банальная, но и не особенно новая.
Если говорить про авторов, то естественно их модели будущего выполняются с определёнными допущениями, причины этих допущений понятны — художественная ценность, ограниченность ресурсов автора, актуальность. В силу ограниченности в любой модели можно будет найти изъяны, количество этих изъянов говорит только о умении автора увязать все ограничения в красивую и правдоподобную историю. В случае хорошего автора может выйти правдоподобная модель с незаметными обывателю нестыковками. В случае плохого автора может выйти галиматья навроде свежго Терминатора, который Генезис.
Если так вот пройтись по памяти, то приходят в голову такие модели ИИ:
давайте не углубляясь в другие детали этих, конечно же вымышленных миров, попробуем определить, почему та или иная модель поведения ИИ неверна?
Или будем отбрасывать эти модели только потому что это «вымышленное свидетельство», а так как реальных свидетельств ИИ нет, то и вопрос не стоит выяденного яйца?
Гиперион, Дэн Симмонс (кстати, тоже вроде бы экранизировать собираются, вы чувствуете, да, как тучи сгущаются?)
Как-то так.
От смены термина суть не меняется.
обычно природа не создаёт именно эффективных решений. в ход идёт первое удовлетворительное условиям отбора. поэтому практически наверняка более эффективные решения есть.
Приблизительным расчетом доступной для ИИ энергии я и пытался продемонстрировать в чем превосходство ИИ над людьми. В идеальном, сфероконном случае, ИИ может затратить на решение проблемы намного больше энергии чем человек. Хотя тут вопрос в возможностях распараллелить конкретную задачу. И насколько эффективно в целом людские научные коллективы умеют декомпозировать и распараллеливать сложные задачи.
С антропоморфностью не согласен. Если у робота задача убивать, он будет эффективней её решать в ином образе. Банальное решение — отказаться от головы, либо не размещать на ней критически важные узлы и сенсоры. Почему чип в черепушке? Зачем два глаза на вперёд смотрящем лице? Почему две ноги а не 4, ему же не требуется прямохождение для освобождения рук? Зачем вообще руки? Современные боевые машины решают эти вопросы станинами, подвесами, боевыми модулями.
Таких вопросов много можно задать.
Скажешь сиблинги Вачовски и непонятно, что в целом имеется ввиду. Когда говоришь братья/сестры, такой неоднозначности нет.
Комментарием выше я ответил, что такая ошибка может быть допущена намеренно, для придания определённых художественных качеств, яркая обложка, вызвать определённые эмоции зрителей/потребителей etc.
В конце концов нападение разумных пришельцев на нашу планету в целом вообще выглядит надуманно. У нас нет ресурсов ценность которых превышает стоимость их транспортировки на орбиту.