Пришёл в голову пример, поясняющий 1) из поста выше:
Представьте себе, что стоит задача построить кривую простой функции, например, Т = Х*Х на интервале (0, 2).
Сделать это надо максимально подробно, но вы заранее не знаете, когда вас «схватят за руку». Вы хотите генерировать значения Х так, чтобы в любой момент получившийся график Т(Х) максимально точно отражал функцию Т. Будет больше времени — будет точнее график, но всегда максимум из возможного на данный момент для произвольной функции.
Гифка в тексте иллюстрирует способ генерации значений, решающих задачу. То, что и вычислительные затраты минимальны — это уже второй бонус.
Попробую пояснить совсем уж «округлённо».
Статью можно разделить на 2 части:
1) описан алгоритм (Z) генерации числовых значений параметра на заданном интервале в последовательности (генерации), оптимальной для аппроксимации произвольной функции от этого параметра и имеющий предельно малые вычислительные затраты. Во второй части статьи опубликую код алгоритма с заявленными параметрами.
2) приведён подход к моделированию объекта, когда каждая новая его точка «дорого стоит». Алгоритм Z может использоваться по прямому назначению для работы с промежуточной (итерационно обновляемой) моделью объекта.
Новые значения Т добавляют информации об исследуемом (и моделируемом) объекте, а значит промежуточную модель, на основе которой определяется оптимальный следующий шаг, надо тоже уточнить. Алгоритм получения нового набора параметров для следующего расчёта Т использует в т.ч. процедуру/алгоритм Z. Что делает алгоритм Z — лучше прочитать в статье, в том абзаце, где он первый раз упоминается. Будет ясно, почему на гифке речь об аргументах/параметрах.
это не расчёт модели, а поиск/подбор следующего шага, дающего наиболее информативный в текущей ситуации ответ от объекта. А объект уже дал новую точку, надо её учесть в промежуточной модели, поэтому поиск прекращаем, что нашли — для нового расчёта Т, а модель уточняем по «вновь возникшим обстоятельствам» :) и уже на ней ищем следующий шаг, тестирующий объект. И ищем/уточняем столько времени, сколько идёт главный расчёт Т.
Ищу выходы на кого-нить из среднего/выше звена руководства разработчиков/проектировщиков Эльбруса: есть алгоритм, могущий заинтересовать при параллельных вычислениях.
Странный подход к статье на Хабре — приводить сокращения (IC, RC) их не расшифровывая, ни слова про источник тока и суть линейника. Желательно бы явно предложить методику классификации по типу драйвера "домашними" средствами (она следует из статьи, чётко не сформулирована).
Однако КЗ по данным и хорошее сечение кабеля некоторым дивайсам мзда не достаточная — например, Samsung Galaxy Notes N5120 при напряжении заряда менее 5.45 В ни в какую не желает брать штатные 1.6+ А. Пришлось разобрать зарядку, найти парочку резисторов, определяющих выходное напряжение, и его поднять. И при подключении планшет достаточно долго, секунд 15-20 «прислушивается» к источнику, ток при этом гуляет от 0.5 до 1.6 А и только потом, убедившись что зарядка устраивает (не просела?), начинает штатную зарядку нормальным током.
Вот упорный: «осуществляется по средствам бинарного кода»
«Что Вам дает основания держатся вашего утверждения?»
«Главная причина тут даже не в то что бы полном отсутствии авторов, а в чрезвычайно малом запросе читателей к этому направлению в силу объективных причин.»
Остальные шедевры смотри ниже.
Школа русского языка для иммигрантов-второгодников!
Модераторы! Ау! Престиж сайта гнобят!
Даже для песочницы писано крайне слабо, далее цитаты по одной на сторку: сходить с конвейеров НИИ
Отсюдова напрашивается вывод
группой битов, фактически скоплением цифр
чаще всего человеческое ухо способно воспринимать звуковые колебания от 20 до 20 000 Герц
частота дискретизации колебания звука должна быть в два раза выше его исходного значения
глубина кодировки каждого из 44100 колебаний
чем большее положение звуковой волны записано в конкретную секунду времени, тем большим количеством битов оно должно быть закодировано
16 битная глубина, при дискретности колебаний 44.1 кГц
грамм записи… и даже в заголовке: Грамм запись
густота бороздок на ее поверхности
было на гране возможностей материала
использованием большего объема ленты для записи единицы времени звука
теражирования
с весьма сомнительным, как на сегодняшний день, качеством.
Буленовской алгебры
нано разработки позволяют разместить на 1 см2 объем информации равен 23 Гигабайтам
Словно патефонному волчку в каждый момент времени регистратор перемещались по площади каждого из дисков
углубления, которые при считке информации, оптическим способом, однозначно регистрируются как 1 / 0
весьма «емких» фильмов повышенной разрешающей способности с глубокой передачей цветов
Небывалая ранее скорость доступа к данным, довольно ограниченное количество циклов перезаписи и необходимость присутствия внутреннего источника питания для некоторых из такого рода носителей.
эта структура зыблется на бинарном положении своего состояния.
в тысячи раз инертней от своего кремниевого собрата
можно четко проследит закономерность – вся история развития носителей данных базируется на наследственности этапов, предшествующих текущему моменту.
С запятыми вообще беда.
Хоть кто-нить выжил, перечитывая внимательно этот «русский околонаучный язык»?
… И вместо поиска экстремума будем определять дифференцируемость в «окрестности»?
Если целевая функция выпуклая...
Я тоже могу взобраться на сферического коня: в формулировке
Математика гарантирует правильность получения результата
никаких оговорок (если...) не было!
Спустимся на землю, «победителей не судят» — если результат получен, устраивает, единственное что можно, для очистки совести, сделать — покрутить все методы с вариациями начального шага — а вдруг есть ещё решение.
Никогда на реальных задачах не случалось. Вас устроит никогда?
И, чтобы уж совсем по земле, босиком: вот реальная задача (ей тоже лет 40 и она вечно актуальна):
техпроцесс, сложный и дорогой, например, производство интегральных микросхем. Есть некоторый, заведомо избыточный (!) набор параметров (хорошо измеряемых), влияющих на коэффициент выхода годных (только вот как?). Технологи за доли прироста этого процента маму родную продадут. Надо определить набор параметров, максимально повышающий выход годных.
От смены параметров до получения результата (КВГ= столько-то) может проходить несколько дней (!), и стоит эта точка на кривой ох уж какие деньги!
И новый шаг по параметрам — опять время и деньги.
И что тут делать, если живым не уволят?
Правильно, по ранее полученным точкам строим всё время уточняемую модель, по ней получаем наиболее перспективное сочетание следующего набора параметров и стартуем следующий шаг (процесс)…
Как представляете себе дифференцируемость в «окрестности»?
… не задача оптимизации, а что-то другое, местами похожее на неё
Ок, перефразирую заключительную часть статьи: решается прикладная задача определить, описывает ли модель U3(X,Y,Z) приведённые экспериментальные данные, если да, то при каких параметрах (a1...a9). Поскольку модель теоретическая, её параметры имеют некий физический смысл и, следовательно, ограничения, которые прилагаются к постановке задачи (ОДЗ). Считаем, что модель хорошо описывает эмпирику, если средние отклонения не превышают удвоенной/утроенной погрешности измерения предоставленных данных. Последний критерий заказчик, хорошо знающий как в жизни близка обсуждаемая теория к практике, уточняет отдельно или оценивает сам по предоставленным расчётам.
Эта задача решается методом поиска/подбора параметров модели по минимуму среднеквадратического отклонения (или по максимальной/средней невязке) от предоставленных экспериментальных данных с учётом ОДЗ параметров модели.
Классическая прикладная задача оптимизации, не теоретическая. Если не согласны — дальше нет смысла дискутировать.
А если тут расхождений у нас нет — они начинаются:
целевая функция не дифференцируема в окрестности точки экстремума
О, а мы знаем «окрестности точки экстремума»?!
… хорошо бы иметь готовые теоремы, позволяющие установить, а есть ли решение у данной задачи и единственно ли оно. Только потом применять тот или иной метод, и то, проверив условия, когда это делать можно (условия сходимости).
Вот это всё по моему твёрдому мнению и опыту на практике — лишнее! Обратите внимание, не неправильное — лишнее! Нам ехать, а не шашечки (теории).
Слезайте со своего белоснежного сферического коня в теоретическом вакууме на грешную землю и
… будем искать черную кошку в темной комнате...
А вот есть она там или нет — покажет применение/комбинация разных методов, как уже описал выше.
Если такой, как Вы выразились, «дилетантский подход» даёт хорошую аппроксимацию эмпирики (критерии упомянуты) — задача решена… конечно же случайно
… получилось что-то похожее на истину
И случайно, но регулярно, получается так, что такого, чтобы «этой обоймы (4 метода) не хватало — не было...», если, конечно, нет вранья в модели и исходных данных (отдельные человеческие/измерительные ошибки МНК «прожуёт» или сами отсеете на графике при анализе).
А вот сможет ли кто-либо решать подобные задачи (в разумное время) Вашими способами, имея «готовые теоремы» — покажите! Готов прислать все исходные данные.
И последнее, по поводу
… есть ли решение у данной задачи и единственно ли оно.
Придумать полиэкстремальную функцию, на которой обломают зубы известные методы поиска, можно. Полагаю, у Harrix в вышеприведённой "простыне" таковые имеются, для того и существует стохастический алгоритм поиска, меня им ещё ~40 лет назад пугали.
Но это теория, точка. В реальной жизни не встречал, как и у подъезда — динозавра,
блондинки — попадались, одна женила :)
Итого:
1) если ищем аппроксимацию данных абстрактной функцией (не наш рассматриваемый случай, но задача распространённая, это для полноты анализа) — то неглобальный экстремум не опасен, ибо:
— критерием является «хорошее» сглаживание данных, а значит не важно какой это экстремум (результат устраивает), пусть их где-то рядом хоть килограмм ещё более глубоких;
— функции для аппроксимаций хорошо известны, обычно несложные и никакими полиэкстремумами не грозят по определению, иначе их бы не использовали;
2) наш случай, реальные модели, имеющие физический смысл, — полиэкстремальными быть не могут, иначе это плохая модель, точка.
Математика гарантирует правильность получения результата
с учётом нерешённости в общем случае вопроса о глобальном экстремуме — никто ничего не гарантирует, не так ли?
И для глобальноэкстремофобов скажу, что при современных настольных вычислительных ресурсах (и грамотно запрграммированных методах) ничто не мешает на ночь запустить расчёт с оч-ч-чень подробным перебором всех закоулков допустимой области параметров, ala brute force атака. Параноики могут и стохастический метод (Монте-Карло) добавить в обойму своих методов.
По поводу "постановки задачи оптимизации с ограничениями" — я ничего никуда не ставил :)
Вы полагаете, что прикладника интересуют дифференцируемость целевой в окрестности точки экстремума? Вы эти академические штучки это..., оставьте студентам :)
В реальной жизни намного проще добавить несколько лишних циклов с разными комбинациями методов и размеров начальных шагов (всё равно считается быстро), чем подбирать наилучший.
Вы уже свои мозги в программирование методов вложили, вылизали алгоритмы, теперь пусть работают. Да все сразу можно запустить для начала («возьмите молоток побольше»), а там они всё про себя (в этой конкретной ситуации) и скажут — какой двигает целевую, а какой топчется (у кого что дифференцируется :).
"Опыт — критерий истины" — целевая снизилась?, относительное ср.кв. отклонение составило единицы процента (соизмеримо с погрешностями измерений)?, график лёг хорошо? Гипс — параметры найдены достаточно точно!
Вот когда погрешности аппроксимации не устраивают — или кровати формулу меняем, или девок методы. Чтобы этой обоймы (4 метода) не хватало — не было такого.
Уважаемый коллега, это, конечно, не довод, что прога «что-то там» решала ещё почти за 10 лет до вашего рождения, но если вам не понятно
что из данного графика следует
, может быть стоит самому поближе познакомиться с вопросом (начать можно с простейшего алгоритма, ссылка дана)?
А там, глядишь и станет понятно о чём пост и почему излишни описания алгоритмов (вы сами привели кучу отсылок в PDF, тягаться с инетом и вики?), и почему сравнивать алгоритмы — это, как ныне ваше поколение говорит, «ни о чём», ибо всё от задач зависит.
Если вам предлагают товар, качество которого вы объективно можете определить сами (предпоследний абзац статьи и комментарий 18 февраля 2015 в 15:41), то интересовать вас станет только цена и сроки, но никак не цвет обивки багажника Mini, на котором ездит любовница соседа продавца. Спилите мушку почитайте-таки комментарии!
найти глобальный экстремум… можно далеко не всегда
А зачем практику глобальный экстремум (необъятное не объять, кто ж спорит), зато, если он посмотрит на воспроизведение эксприментальных данных идентифицированной моделью, сам себе всё скажет (а заказчик заплатит влёгкую и за скорость добавит).
… вы пользовались видимо не программой, а алгоритмом
Вы не поверите, с 1972 пользуюсь Fortran'ом и это не алгоритм :)
Писанная на нём оптимизация работала ещё в 1977-м на перфокартах. Это сейчас она на VBA, прочитайте 4-й абзац статьи.
И, чтобы закруглить диспут и выйти из шор академического подхода (ничего против него не имею, но не в этой жизни и не в текущем бэкграунде):
Вы действительно полагаете, что прикладной математик (не академический преподаватель, а работающий «на земле»), имея давно освоенный инструмент, подходящий для решения текущих задач (ныне надо 2...5 часов, вместе с настройкой на задачу), решая очередную подобную (а с опытом они все подобные!), станет:
— проводить анализ всего к тому моменту наработанного софта под класс задач (ладно, такой анализ он делал прошлый раз, но надо же глянуть что нового появилось?);
— приобретать потенциально подходящее ПО (и не одно) и пробовать на тестовых задачах;
— глубже осваивать лучшее выбранное ПО и, наконец, решать с ним текущую задачу.
Это из какой жизни?!
Нет, он решит её привычно и быстро. И только если инструмент/результат его/заказчика не устроит, начнёт оглядываться по сторонам (какой другой «молоток» взять в руку).
Вы не обратили внимание на мою реплику 18 февраля 2015 в 11:36.
Когда начал распространяться Scilab, программой уже более 15 лет пользовался :)
Мне кажется, что вычисления выполненные в Scilab легче проверить, чем ваши.
А мне кажется, извините, что Вы не всё правильно понимаете:
какой-либо обман исключён, ибо по предоставленным результатам каждый может сам оценить достигнутую реально точность расчёта.
т.е. вы сами (например, в Excel, да хоть в калькуляторе) подставляете в формулу исходные данные, полученные мною параметры модели и вычисляете любые точки на кривой. Всё и увидите, зачем Scilab?!
вы предлагаете скорее не решение задачи, а услугу по ее решению
Решение предложила теория (разными способами), я показал, что это работает и могу помочь.
чем ваш подход лучше и в какой области лучше, ответить все же должны вы
Отвечаю на то, что мне интересно. Желающие сравнивать имеют на это жизнь.
А если более внимательно посмотреть? Именно так и работает! Х = 0,5 и 1,5.
Потом будут: 0,25 1,75 0,75 1,25
Представьте себе, что стоит задача построить кривую простой функции, например, Т = Х*Х на интервале (0, 2).
Сделать это надо максимально подробно, но вы заранее не знаете, когда вас «схватят за руку». Вы хотите генерировать значения Х так, чтобы в любой момент получившийся график Т(Х) максимально точно отражал функцию Т. Будет больше времени — будет точнее график, но всегда максимум из возможного на данный момент для произвольной функции.
Гифка в тексте иллюстрирует способ генерации значений, решающих задачу. То, что и вычислительные затраты минимальны — это уже второй бонус.
Статью можно разделить на 2 части:
1) описан алгоритм (Z) генерации числовых значений параметра на заданном интервале в последовательности (генерации), оптимальной для аппроксимации произвольной функции от этого параметра и имеющий предельно малые вычислительные затраты. Во второй части статьи опубликую код алгоритма с заявленными параметрами.
2) приведён подход к моделированию объекта, когда каждая новая его точка «дорого стоит». Алгоритм Z может использоваться по прямому назначению для работы с промежуточной (итерационно обновляемой) моделью объекта.
Странный подход к статье на Хабре — приводить сокращения (IC, RC) их не расшифровывая, ни слова про источник тока и суть линейника. Желательно бы явно предложить методику классификации по типу драйвера "домашними" средствами (она следует из статьи, чётко не сформулирована).
«осуществляется по средствам бинарного кода»
«Что Вам дает основания держатся вашего утверждения?»
«Главная причина тут даже не в то что бы полном отсутствии авторов, а в чрезвычайно малом запросе читателей к этому направлению в силу объективных причин.»
Остальные шедевры смотри ниже.
Школа русского языка для иммигрантов-второгодников!
Модераторы! Ау! Престиж сайта гнобят!
школота понтуетсяшкола?сходить с конвейеров НИИ
Отсюдова напрашивается вывод
группой битов, фактически скоплением цифр
чаще всего человеческое ухо способно воспринимать звуковые колебания от 20 до 20 000 Герц
частота дискретизации колебания звука должна быть в два раза выше его исходного значения
глубина кодировки каждого из 44100 колебаний
чем большее положение звуковой волны записано в конкретную секунду времени, тем большим количеством битов оно должно быть закодировано
16 битная глубина, при дискретности колебаний 44.1 кГц
грамм записи… и даже в заголовке: Грамм запись
густота бороздок на ее поверхности
было на гране возможностей материала
использованием большего объема ленты для записи единицы времени звука
теражирования
с весьма сомнительным, как на сегодняшний день, качеством.
Буленовской алгебры
нано разработки позволяют разместить на 1 см2 объем информации равен 23 Гигабайтам
Словно патефонному волчку в каждый момент времени регистратор перемещались по площади каждого из дисков
углубления, которые при считке информации, оптическим способом, однозначно регистрируются как 1 / 0
весьма «емких» фильмов повышенной разрешающей способности с глубокой передачей цветов
Небывалая ранее скорость доступа к данным, довольно ограниченное количество циклов перезаписи и необходимость присутствия внутреннего источника питания для некоторых из такого рода носителей.
эта структура зыблется на бинарном положении своего состояния.
в тысячи раз инертней от своего кремниевого собрата
можно четко проследит закономерность – вся история развития носителей данных базируется на наследственности этапов, предшествующих текущему моменту.
С запятыми вообще беда.
Хоть кто-нить выжил, перечитывая внимательно этот «русский околонаучный язык»?
Я тоже могу взобраться на сферического коня: в формулировке
никаких оговорок (если...) не было!
Спустимся на землю, «победителей не судят» — если результат получен, устраивает, единственное что можно, для очистки совести, сделать — покрутить все методы с вариациями начального шага — а вдруг есть ещё решение.
Никогда на реальных задачах не случалось. Вас устроит никогда?
И, чтобы уж совсем по земле, босиком: вот реальная задача (ей тоже лет 40 и она вечно актуальна):
техпроцесс, сложный и дорогой, например, производство интегральных микросхем. Есть некоторый, заведомо избыточный (!) набор параметров (хорошо измеряемых), влияющих на коэффициент выхода годных (только вот как?). Технологи за доли прироста этого процента маму родную продадут. Надо определить набор параметров, максимально повышающий выход годных.
От смены параметров до получения результата (КВГ= столько-то) может проходить несколько дней (!), и стоит эта точка на кривой ох уж какие деньги!
И новый шаг по параметрам — опять время и деньги.
И что тут делать, если живым не уволят?
Правильно, по ранее полученным точкам строим всё время уточняемую модель, по ней получаем наиболее перспективное сочетание следующего набора параметров и стартуем следующий шаг (процесс)…
Как представляете себе дифференцируемость в «окрестности»?
Ок, перефразирую заключительную часть статьи: решается прикладная задача определить, описывает ли модель U3(X,Y,Z) приведённые экспериментальные данные, если да, то при каких параметрах (a1...a9). Поскольку модель теоретическая, её параметры имеют некий физический смысл и, следовательно, ограничения, которые прилагаются к постановке задачи (ОДЗ). Считаем, что модель хорошо описывает эмпирику, если средние отклонения не превышают удвоенной/утроенной погрешности измерения предоставленных данных. Последний критерий заказчик, хорошо знающий как в жизни близка обсуждаемая теория к практике, уточняет отдельно или оценивает сам по предоставленным расчётам.
Эта задача решается методом поиска/подбора параметров модели по минимуму среднеквадратического отклонения (или по максимальной/средней невязке) от предоставленных экспериментальных данных с учётом ОДЗ параметров модели.
Классическая прикладная задача оптимизации, не теоретическая. Если не согласны — дальше нет смысла дискутировать.
А если тут расхождений у нас нет — они начинаются:
О, а мы знаем «окрестности точки экстремума»?!
Вот это всё по моему твёрдому мнению и опыту на практике — лишнее! Обратите внимание, не неправильное — лишнее! Нам ехать, а не шашечки (теории).
Слезайте со своего белоснежного сферического коня в теоретическом вакууме на грешную землю и
А вот есть она там или нет — покажет применение/комбинация разных методов, как уже описал выше.
Если такой, как Вы выразились, «дилетантский подход» даёт хорошую аппроксимацию эмпирики (критерии упомянуты) — задача решена… конечно же случайно
И случайно, но регулярно, получается так, что такого, чтобы «этой обоймы (4 метода) не хватало — не было...», если, конечно, нет вранья в модели и исходных данных (отдельные человеческие/измерительные ошибки МНК «прожуёт» или сами отсеете на графике при анализе).
А вот сможет ли кто-либо решать подобные задачи (в разумное время) Вашими способами, имея «готовые теоремы» — покажите! Готов прислать все исходные данные.
И последнее, по поводу
Придумать полиэкстремальную функцию, на которой обломают зубы известные методы поиска, можно. Полагаю, у Harrix в вышеприведённой "простыне" таковые имеются, для того и существует стохастический алгоритм поиска, меня им ещё ~40 лет назад пугали.
Но это теория, точка. В реальной жизни не встречал, как и у подъезда — динозавра,
блондинки — попадались, одна женила :)
Итого:
1) если ищем аппроксимацию данных абстрактной функцией (не наш рассматриваемый случай, но задача распространённая, это для полноты анализа) — то неглобальный экстремум не опасен, ибо:
— критерием является «хорошее» сглаживание данных, а значит не важно какой это экстремум (результат устраивает), пусть их где-то рядом хоть килограмм ещё более глубоких;
— функции для аппроксимаций хорошо известны, обычно несложные и никакими полиэкстремумами не грозят по определению, иначе их бы не использовали;
2) наш случай, реальные модели, имеющие физический смысл, — полиэкстремальными быть не могут, иначе это плохая модель, точка.
с учётом нерешённости в общем случае вопроса о глобальном экстремуме — никто ничего не гарантирует, не так ли?
И для глобальноэкстремофобов скажу, что при современных настольных вычислительных ресурсах (и грамотно запрграммированных методах) ничто не мешает на ночь запустить расчёт с оч-ч-чень подробным перебором всех закоулков допустимой области параметров, ala brute force атака. Параноики могут и стохастический метод (Монте-Карло) добавить в обойму своих методов.
По поводу "постановки задачи оптимизации с ограничениями" — я ничего никуда не ставил :)
Вы полагаете, что прикладника интересуют дифференцируемость целевой в окрестности точки экстремума? Вы эти академические штучки это..., оставьте студентам :)
В реальной жизни намного проще добавить несколько лишних циклов с разными комбинациями методов и размеров начальных шагов (всё равно считается быстро), чем подбирать наилучший.
Вы уже свои мозги в программирование методов вложили, вылизали алгоритмы, теперь пусть работают. Да все сразу можно запустить для начала («возьмите молоток побольше»), а там они всё про себя (в этой конкретной ситуации) и скажут — какой двигает целевую, а какой топчется (у кого что дифференцируется :).
"Опыт — критерий истины" — целевая снизилась?, относительное ср.кв. отклонение составило единицы процента (соизмеримо с погрешностями измерений)?, график лёг хорошо? Гипс — параметры найдены достаточно точно!
Вот когда погрешности аппроксимации не устраивают — или
кроватиформулу меняем, илидевокметоды. Чтобы этой обоймы (4 метода) не хватало — не было такого.А там, глядишь и станет понятно о чём пост и почему излишни описания алгоритмов (вы сами привели кучу отсылок в PDF, тягаться с инетом и вики?), и почему сравнивать алгоритмы — это, как ныне ваше поколение говорит, «ни о чём», ибо всё от задач зависит.
Если вам предлагают товар, качество которого вы объективно можете определить сами (предпоследний абзац статьи и комментарий 18 февраля 2015 в 15:41), то интересовать вас станет только цена и сроки, но никак не цвет обивки багажника Mini, на котором ездит любовница соседа продавца.
Спилите мушкупочитайте-таки комментарии!Почитайте комментарии.
Зато есть слова о времени…
А зачем практику глобальный экстремум (необъятное не объять, кто ж спорит), зато, если он посмотрит на воспроизведение эксприментальных данных идентифицированной моделью, сам себе всё скажет (а заказчик заплатит влёгкую и за скорость добавит).
Вы не поверите, с 1972 пользуюсь Fortran'ом и это не алгоритм :)
Писанная на нём оптимизация работала ещё в 1977-м на перфокартах. Это сейчас она на VBA, прочитайте 4-й абзац статьи.
И, чтобы закруглить диспут и выйти из шор академического подхода (ничего против него не имею, но не в этой жизни и не в текущем бэкграунде):
Вы действительно полагаете, что прикладной математик (не академический преподаватель, а работающий «на земле»), имея давно освоенный инструмент, подходящий для решения текущих задач (ныне надо 2...5 часов, вместе с настройкой на задачу), решая очередную подобную (а с опытом они все подобные!), станет:
— проводить анализ всего к тому моменту наработанного софта под класс задач (ладно, такой анализ он делал прошлый раз, но надо же глянуть что нового появилось?);
— приобретать потенциально подходящее ПО (и не одно) и пробовать на тестовых задачах;
— глубже осваивать лучшее выбранное ПО и, наконец, решать с ним текущую задачу.
Это из какой жизни?!
Нет, он решит её привычно и быстро. И только если инструмент/результат его/заказчика не устроит, начнёт оглядываться по сторонам (какой другой «молоток» взять в руку).
Вы не обратили внимание на мою реплику 18 февраля 2015 в 11:36.
Когда начал распространяться Scilab, программой уже более 15 лет пользовался :)
А мне кажется, извините, что Вы не всё правильно понимаете:
т.е. вы сами (например, в Excel, да хоть в калькуляторе) подставляете в формулу исходные данные, полученные мною параметры модели и вычисляете любые точки на кривой. Всё и увидите, зачем Scilab?!
Решение предложила теория (разными способами), я показал, что это работает и могу помочь.
Отвечаю на то, что мне интересно. Желающие сравнивать имеют на это жизнь.