Как стать автором
Обновить

Комментарии 15

Эмуляторы, создаваемые технологией DENSE, показывают превосходные результаты несмотря на отсутствие данных.
Это не эмуляторы, а гадальные системы.
Нормальные эмуляторы. К примеру, эмулятор энергосистемы работает по однофазной модели, показывая полностью удовлетворяющие заказчиков результаты, несмотря на отсутствие данных по трёхфазной сети.
В приведённой Вами цитате сформулировано, конечно, не очень — речь, по-моему, о том, что для построения аналитической модели часто требуются данные, которые невозможно получить с необходимой степенью точности и достоверности, или которых слишком много. Можно было бы построить адекватную модель проще с гораздо меньшей потребностью в данных (как в приведённом примере выше с однофазной моделью трёхфазной сети) — но тогда очень важно угадать с корректностью упрощённой модели. То есть, Как Вы и написали, получаются гадальные модели.
Предложенный подход описывает как раз способ не-аналитически получить адекватные упрощённые модели. Если я правильно понял.
Как мне кажется, есть два варианта моделей:
1. Упрощение известных, но маловажных элементов, типа вашего примера однофазной модели для трёхфазной сети или mip-maping для Dreamworks — они в своё время рендерили все модели как высокополигональные, но году в 2010 (если не вру) году до них дошло, что у горизонта не нужно считать все ворсинки на, к примеру, хвосте у лисы, а потом результат уменьшать в несколько раз — это дорого по ресурсам и бесполезно, проще использовать низкополигональную модель.
2. Упрощение неизвестных элементов. Получается теория эфира: вот модель, вот действительная её часть, а вот эфир, и нам всё равно, существует ли эфир, числа-то вроде сходятся.
Так вот, IMHO, при использовании нейросетей получим тот самый второй случай — который, как и в теория эфира, в большинстве случаев будет полезен, но иногда в корне неверен.
Получается теория эфира
а что такого? Если результаты адекватны? Напомню, что заметную часть технических расчётов чуть ли не до середины 20го века вполне можно было строить на теории флогистона.
иногда в корне неверен.
Это к любой модели относится. Причём задачу определения границ применимости иногда можно решить очень не скоро, с моделью Ньютона это заняло почти два века.
Можно, но до появления ОТО/СТО, на сколько понимаю, ядерная энергетика не могла развиваться, базиса не было.
Хотя и сейчас флогистон с эфиром заменили на тёмную материю и довольны, точности хватает.
ядерная энергетика не могла развиваться, базиса не было.
это — не могло. А великое множество других направлений вполне могло бы существовать и на этой теории.
флогистон с эфиром заменили на тёмную материю и довольны, точности хватает.
вот да :-)
«Числа сходятся» — ещё не значит, что результаты действительно сопоставимы. 2 + 2 километра и 2 + 2 килограмма, в обоих случаях дадут одинаковый результат = 4. Но это будут не сопоставимые цифры, а просто схожие. И момент этой «иллюзии адекватности» очень важен для понимания вероятных проблем и последствий.
эта проблема как раз в нейросетях решается более естественным образом, чем аналитически. Для уравнений главное 2+2, а за физикой должен следить разработчик. Для сетей наоборот, главное км и кг, а вот за тем, чтобы было 4, нужно присматривать.
Просто раньше задачи математической физики решались численно (система дифференциальных уравнений) или аналитически (возможно только для простых частных случаев, например движение жидкости вокруг сферы). Теперь к этим двум способам добавился третий — при помощи нейросетей.
Совершенно согласен. Замечу только, что изменение способа получения решений приводит и к изменению способов построения модели.
Это ж насколько неэффективно работают эти симуляторы, что ускоряются в миллиарды раз (и это, похоже, не предел)…
Представим, что у нас симулятор металлического стержня, один конец которого нагревается. Мы исследуем перенос энергии, рассматривая процесс на уровне отдельных молекул. Симулятор сложный, занимает кучу вычислительных ресурсов, требует уйму времени для каждого такта. Но получаем вполне достоверные данные.

Меняем симулятор на дифференциальное уравнение — вычисление температуры становится практически моментальным для любой точки стержня в любой момент времени. Ускорение вполне может на порядки потянуть (зависит от количества рассматриваемых частиц в первой версии симулятора). Пример грубый, но нейросеть порой и представляет собой некую приближённую реализацию сложной математической функции, которая вычисляется сильно проще и быстрее, чем моделирование всей моделируемой системы на микроуровне.
Эмуляторы, создаваемые технологией DENSE, показывают превосходные результаты несмотря на отсутствие данных.
Надеюсь имеются в виду то, что результаты вычислений практически полностью совпадают с реальностью, а не просто то, что они были получены (вне зависимости от верности полученных значений) за меньший промежуток времени, чем если бы вычислялись традиционным способом.

Чтобы не получилось как в анекдоте про секретарш и скорость печати.

Как я понял алгоритм воспроизводит человеческую интуицию, что ли.
Эффект бабочки. Даже если это похоже на правильный результат, это антинаучно. В конце концов ИИ просто старается дать ожидаемый результат, как верный пес виляя хвостом. Похоже на самообман. Или обман инвесторов.

Так а почему антинаучно? Наука она про повторяемый и верифицируемый результат.
Если модель показывает результат, соответствуемый требованиям, на out-of-sample данных при корректно проведенном эксперименте, то в чем самообман? Тем более, никто не мешает, сделав некое открытие на эмуляторе, верифицировать его на полноценном просчете. Но время на просчет тысяч экспериментов, которые не привели к открытию, при этом сэкономится.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории