Pull to refresh

Comments 21

Со Cтаркрафтом II пока не получилось. Точнее, не получилось создать агента превосходящего чемпионов мира, в случае если ограничить способности агента к получению информации и управлению юнитами человеческим уровнем.

Старкрафт наш последний рубеж?)

Кошки, Старкрафт… Лучше бы уже тот скрипт который правительство заменяет написали.

Ну, а откуда вы знаете, что он до сих пор не создан? Я полагаю, что нормальный ИИ придет к выводу, что воевать с людьми — глупо, лучше управлять, тонко, как серый кардинал, так ресурсов будет потрачено меньше.
Причём, он так может мешать всем остальным создать новый ИИ и никто не сможет понять почему не получается.
А я думаю что мы в принципе не можем знать когда и как полноценный ИИ станет понимать окружающий мир. где для него это мир будет проходить? Для нас это тело а для него??? Зачем /не почему/ а зачем он вообще будет хранить информацию и какую ??!
Вопросы без ответов

Нет, конечно. Будут ещё игры в реальном мире, для которых очень сложно симулировать десятки тысяч лет эпизодов игры. Будут не-игры в реальном мире, где нет дисквалификации за обход правил.

Ещё пример — 1 из этапов развития ИИ в «Дота 2» был с такими правилами:
Так, все команды состояли из одного и того же набора из пяти героев, а игрокам не разрешалось использовать заклинания невидимости и иллюзии и надевать определенные артефакты.

На мой взгляд, не столь важно, чтобы агент мог победить сильнейших игроков мира, сколь важно получить агента, который показывает базовое "понимание" правил игры.
Пока что этого не произошло. Существующий агент, например, не понимает концепцию "невидимых" юнитов и юнитов-детекторов. К примеру, в одной из игр ему было нужно расчистить участок карты от вражеский скрытых строений. Игроки люди в такой ситуации либо имеют в составе армии юнит-детектов, либо используют "скан". Агент же, имея юнит детектор в составе армии все равно использовал скан, что не имеет никакого смысла и, по сути, является бесполезной тратой ресурсов. Это доказывает, что данный агент не видит связи между этими концепциями.
Видео:
https://youtu.be/qIUcg-Dy8zA

С пониманием "дропов"(использования транспортов для доставки армии в точку карты, где противник не ожидает атаки) похожая история. Уверен, можно найти ещё много подобных моментов.


Старкрафт2, как оказалось, очень "механическая" игра. Хорошее выполнение предопределеннонго поведения позволяет показывать неплохие результаты и без необходимости видеть причину и следствие, предугадывать намерение соперника и т.д.

Можно я вот это видео оставлю насчет старкрафта, обожаю этого комментатора.
> У компьютера Deep Blue было достаточно вычислительных мощностей
компьютер Deep Blue имел рядовые высилительные мощности. это была обыкновенная серийная машина IBM Scalable POWERparallel (т.е. RS/6000 SP), только в платы раширения были выставлены платы заказных кастомных шахматных процессоров. первые уровни перебора осуществлялись програмно, а более глубокие уровни перебирались аппаратно в шахматных процессорах. Искусственным интеллектом там не пахло ни разу.
DeepBlue один раз баганул, сделал бессмысленный ход, и Каспаров из-за недоумения расстерялся, что однозначно повлияло на ход игры. К тому же это был не искусственный интеллект, а просто демонстрация мощности компьютера(тк он просто перебирал дерево развития событий и анализировал его исходы, как и сказано в статье).
Если отбросить лишний пафос, то Азимов просто написал художественное произведение, а Тюринг просто высказал очевидную вещь, перцептрон был довольно простой идеей, которая пришла бы в голову всякому кто задумывался об использовании компьютера для аппроксимации, экстраполяции, построения регрессионных моделей и прочего; победы в играх над человеком отношение к ИИ имеют очень косвенное. Нечто похожее на первую «веху» в решении проблемы ИИ начинается с глубокого обучения, хотя и оно по сути просто развитие той же идеи аппроксиматора-перцептрона на больших вычислительных мощностях, больших выборках, с более сложными алгоритмами применения и обучения.
Очень сложный алгоритм, проверяющий входные условия «если-то-иначе...» не приводит к ИИ, это уже проверено. Приведет ли очень сложный аппроксиматор функций к ИИ, или нужно что-то еще, пока вроде непонятно.
которая пришла бы в голову всякому

Огромное количество уже открытых идей — простые. Но не до открытия, а после. Теорема Пифагора, шарообразность Земли, электроны, броуновское движение.

Множество идей являются простыми так же и до открытия. Потому, что это никакие не идеи, а просто нечто очевидное для всех к этому моменту, что пришло время публично сказать.
Обычно в журналистских интерпретациях такие «идеи» выдвигают на первый план, потому что так можно сделать повествование понятным для всякого.
В статье можно было провести более глубокий анализ развития вопроса ИИ вместо перечисления журналистских штампов.

Помимо практической части вопроса есть еще теоретическая. И без неё особо далеко не уйдёшь, кто бы что ни говорил. И вот теория-то и отстаёт от практики лет на 50 примерно. Любая нейронная сеть — аппроксимация какой-то неизвестной нам функции. Так вот где гарантия, что конкретная нейронная сеть может решить нашу задачу? С какой точностью? Как подобрать архитектуру? Сейчас это все делается "на глазок", никаких особых методов не разработано. И если при классификации изображений мы можем посмотреть — похоже на правду или нет и посчитать процент ошибок, то при решении уравнений так сделать мы не сможем. Поэтому следующий рывок ИИ начнётся после серьёзных научных разработок, имхо. Вечно решать прикладные задачки "на опыте" невозможно.

Это не совсем так, сейчас довольно мощно развивается направление, именуемое AutoML. В его рамках как раз решается задача автоматического выбора наиболее эффективной модели (или ансамбля) машинного обучения. Что касается гарантий, то она очень простая, модель ML — это, по сути — алгоритм, который преобразует входной поток данных в выходные с помощью аппроксимирующих методов. То есть это тоже самое программирование, где вместо человека проиходит настройка весов или других параметров решателей.

А где гарантия, что человек может решить нашу задачу? Где гарантия, что он уравнение решил без ошибок?


Гарантии для ИИ — там же. Не в попытках сделать "безошибочную" архитектуру (это невозможно и, несколько я знаю, к этому никто не стремится), а в изучении границ применимости и в оценке, насколько вероятно, что результат хорош.

Естественно, решение человеком не всегда эффективно или даже реально. Для этого и разрабатывают алгоритмы и программы. Однако, "изучить границы" или "оценить результат" легко там, где идея исходной задачи довольно проста. То есть придумать алгоритм, как классифицировать котиков — нетривиальная вещь, а вот оценить довольно просто. Но если Ваша исходная задача — приблизить сильно осциллирующую функцию, например, которая отвечает какому-то физическому процессу, который мы не можем просто так смоделировать на практике, то оценить качество и применимость модели уже куда сложней. И тут без теоретических изысканий никуда. Да, это нужно не везде. Но где-то нужно :)

Лайтхилл в своём отчёте утверждал, что ИИ для задач распознавания речи будет крайне сложно масштабировать до размеров, которые смогут быть полезными правительству или военным.
В переводе на нормальный язык это звучит как: ''Подслушивать за всеми гражданами страны ИИ не сможет, а потому бесполезен. ''
Sign up to leave a comment.

Articles