Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Теперь, глядя на действия ИИ для достижения тактических целей и признаки таких действий, давайте подумаем, наблюдается ли такая картина?
как правильно назвать двух братьев, один из которых теперь сестра, определённо нужен специальный термин

Regarding the quote "Just because you're paranoid doesn't mean they aren't after you," being from the 1961 book Catch-22 by author Joseph Heller, I looked through an e-book version of that book and did not find that sentence. However, I did find that it is a line said by Alan Arkin, playing Capt. John Yossarian in the 1970 film, Catch-22, which may mean that the film screenwriter, Buck Henry, authored the line. Juanaquena 7 June 2013
Для чего все эти человекообразные терминаторы? Зачем база Скайнета оборудована под присутствие людей?
Или будем отбрасывать эти модели только потому что это «вымышленное свидетельство»
Есть теорема, которая звучит как-то так: «если вы способны предсказать певедение некоего разумного агента, вы должны быть настолько же умны, насколько умен этот агент.»
Что это за теорема такая? Она доказана?
Vinge’s Law says that if you know exactly what a very smart agent would do, you must be at least that smart yourself. If you know exactly where Deep Blue would move on a chessboard, you can just move to that place on the chessboard yourself, and play chess at least as well as Deep Blue. In the theory of tiling agents, Vinge’s Law appears as the rule that a self-modifying agent is not allowed to know its future self’s exact choices before deciding on a self-modification (since then each version would need to be successively stupider).
Мне хватит предсказания в узкой области, например достаточно, в рамках рассматриваемого вопроса, предсказать его отношения с человечеством.
При этом таракан использует крайне примитивную и ограниченную модель Эйнштейна
А предложенные модели, несколько видов, над которыми думали, надо полагать, не последние умы человечества, отбрасываете без аргументов.
Таракан не использует модель Эйнштейна. У таракана есть рефлекс, что-то вроде «спрятаться при шуме или движении».
В узкой области сделать предсказание еще сложней, чем в широкой. Предсказать, что Deep Blue победит меня, намного легче, чем предсказать его следующий ход.
Нужно ли объяснять, почему их сценарии не несут ценности при попытке сделать предсказание реальности?
К примеру последний ход перед матом, многие смогут его найти.
Тем не менее рефлекс в данном случае выступает моделью Эйнштейна!
Если вы пишете про науку, то должны знать, что ничего нельзя доказать, можно лишь опровергнуть.
Разумеется, когда вы ограничили возможные варианты действий
Рефлекс не выступает моделью Эйнштейна.
По-моему то что вы говорите, это новое слово в науке. Опровергнуть можно гипотезу, доказанная гипотеза становится законом. Набор законов/гипотез объединённых общим происхождением является теорией.
Да, ограничил. Я и говорил, что в ограниченном случае модель построить проще и её предсказательная сила выше. С чем вы не согласны?
Как это не выступают? А моделью чего они выступают? Солнца? Микромира? Ядерного взрыва? Именно Эйнштейна в данном случае.
Кроме того, такая модель несёт очень большую описательную и предсказательную ценность для таракана. Буквально, она спасает ему жизнь. Хотя и описывает эта модель очень маленьку-маленькую ограниченную область Эйнштейна.
Вы отвергаете модели перечисленные модели писателей, выдвигаете тезис о принципиальной немоделируемости ИИ и тут же предлагаете его смоделировать? Я правильно всё перечислил?
В физике, когда мы пытаемся объяснить какое-либо наблюдение, мы выдвигаем теории. Например, Ньютон в свое время описал притяжение между телами. Проблема в том, что мы не можем доказать, что наша теория верна. Мы можем подбирать примеры, которые будут подтверждать гипотезу, тем самым увеличивая нашу уверенность в её достоверности
… когда у разумного агента всего пара доступных ходов.
Я утверждаю, что события, которые будут происходить после наступления этого момента, предсказать практически невозможно.
Вы считаете несостоятельной довольно правдоподобную гипотезу, которая имеет мощную предсказательную силу, но готовы дать зеленый свет художественным книгам, у которых предсказательная сила стремится к нулю.
Луна суровая хозяйка (С. Лем) — дружелюбный ИИ, сильнее человеческого интеллекта (но по крайней мере сравним), взаимодейтсивие с людьми, партнёрское положениеР. Хайнлайн же
Ценным может быть место.
Вариант второй — «ферма».
Эксперименты
Полигон— не согласен. Либо испытания масштаба звёздная система или несколько систем. Тогда мы и не поймем что это вторжение. Просто случится катаклизм солнце погаснет/вспыхнет и т.п. и нас не станет. В данном случае явление будет неотличимо от природного явления и нет смысла рассматривать его как чью-то враждебность.
охотничий туризм/браконьерство
Учитывая что, человечество ничего по факту не изобретает, а просто утилизирует для своей пользы законы
хотя не факт, что есть более эффективный механизм
«Некоторые люди полагают, что быть интеллектуальным – это в основном то же самое, что иметь человеческий разум. Они боятся, что интеллектуальные машины обидятся на «порабощение», поскольку люди ненавидят быть рабами. Они боятся, что интеллектуальные машины попытаются захватить мир, потому что интеллектуальные люди в течение всей истории пытались захватить мир. Но эти опасения основаны на ложной аналогии. Они основаны на объединении интеллекта – неокортикального алгоритма – с эмоциональными мотивациями старого мозга – страх, паранойя и страсть. Но у интеллектуальных машин не будет таких способностей. У них не будет личных амбиций. Они не будут желать богатства, общественного признания, или чувственного удовлетворения. У них не будет потребностей, склонностей или плохого настроения. У интеллектуальных машин не будет ничего похожего на человеческие эмоции, если только мы специально не заложим этого в них».
Как ИИ может получить 100% мощности от Солнца?
подорвет какую-нибудь АЭС и на этом всё закончится
Какова вероятность что ИИ попробует неблагоприятный для человечества вариант?
Как узнать, наша жизнь уже под колпаком ИИ или ещё нет? (паранойи пост)