Comments 13
Для любого из них формируется исходная популяция, которая подвергается селекции и воздействию различных генетических операторов, что позволяет находить более хорошие решения.
Не очень удачная формулировка… Сразу вопросы: критерий «хорошести» и по сравнению с чем.
Что такое «консеквента»? Интуитивно понимаю нечто связанное с последовательностью… Трудно читать не понимая четко значения таких терминов. Можно было заменить чем-то более простым?
критерий «хорошести», это критерий более точного рассчета… т.е. когда получаем ошибку меньше, относительно рассчитанного значения и значения, которого хотели получить(эти значения в данный момент известны, так как тестируем на тестовых функциях, где все математически рассчитывается)
про консекветы, для понятности, был написан «список терминов»… но возможно там не приметили, поясняю — это «ТО»-часть в правилах, то что как раз система рассчитывает и сравнивает для получения ошибок.
про консекветы, для понятности, был написан «список терминов»… но возможно там не приметили, поясняю — это «ТО»-часть в правилах, то что как раз система рассчитывает и сравнивает для получения ошибок.
Действительно не заметил. Спасибо. Стало теперь понятнее.
Вопрос по существу… Данный способ подразумевает по сути обучение на тестовом наборе (желаемое значение известно заранее). Можно ли модифицировать на случай, когда этого критерия нет априори, но есть возможность синтеза косвенного критерия итерационно (задача (не)линейной фильтрации — напр., Фильтр Калмана)?
Вопрос по существу… Данный способ подразумевает по сути обучение на тестовом наборе (желаемое значение известно заранее). Можно ли модифицировать на случай, когда этого критерия нет априори, но есть возможность синтеза косвенного критерия итерационно (задача (не)линейной фильтрации — напр., Фильтр Калмана)?
Изначально это как раз обучение, для того чтобы в дальнейшем можно было применять на реальных данных, там где заранее не известно «что» и «как».
Да, методы можно модефицировать, можно комбинировать, получая какие либо гибридные методы, причем довольно часто используют именно Фильтр Калмана, плечы, нейронные сети, градиенты, но я в данный момент пытаюсь добиться схожих результатов именно с классическими моделями, изменяя метод апроксимации и генетические операторы.
Да, методы можно модефицировать, можно комбинировать, получая какие либо гибридные методы, причем довольно часто используют именно Фильтр Калмана, плечы, нейронные сети, градиенты, но я в данный момент пытаюсь добиться схожих результатов именно с классическими моделями, изменяя метод апроксимации и генетические операторы.
оу… простите опечаталась, в методах речь о пчелах*
Ссылки на модификации и комбинации есть?
www.econf.info/authors/1324.html — здесь написаны о методах и сравнениях
www.qai.narod.ru/TomskWorkshop/#101030 — здесь можно посмотреть о семинарах на тематику ИИ. В семинаре 30 окт, разговор был именно о гибридных методах, Анной Лавыгиной.
www.qai.narod.ru/TomskWorkshop/#101030 — здесь можно посмотреть о семинарах на тематику ИИ. В семинаре 30 окт, разговор был именно о гибридных методах, Анной Лавыгиной.
Во время чтения не мог отделаться от ощущения чьей-то курсовой.
Может стоило их привести в топике? Пусть даже данные не из реального мира, а представляют собой цвет, размер и шершавость сферических коней в вакууме. Если каждый шаг проиллюстрировать на каком-то примере — читаться будет намного проще.
В ходе разработки и исследования системы параметрической идентификации нечетких моделей были получены тестовые результаты на тестовых функциях, которые показали необходимость в доработке и возможной модернизации
Может стоило их привести в топике? Пусть даже данные не из реального мира, а представляют собой цвет, размер и шершавость сферических коней в вакууме. Если каждый шаг проиллюстрировать на каком-то примере — читаться будет намного проще.
увы, не курсовая, но работа моя. данные примеров не приведены, так как на мой взгляд, они еще не удовлетворяют желаемым, но я обязательно учту о наглядности, спасибо GraD_Kh
могу пока сказать, что проверяю на математических функциях:
1) f(x1,x2)=sin(2*x1/pi)*sin(2*x2/pi)
2) f(x1,x2)=x1*sin(x2)
и еще на некоторых.
могу пока сказать, что проверяю на математических функциях:
1) f(x1,x2)=sin(2*x1/pi)*sin(2*x2/pi)
2) f(x1,x2)=x1*sin(x2)
и еще на некоторых.
Мне кажется, что хорошая структура повествования только плюс. А фразы типа «чья-то курсовая» лично у меня ассоциируется с уничижением. Может, конечно, «неформат» публиковаться здесь в виде статей для изданий из списка ВАК, но хорошая структура никогда не вредит.
Sign up to leave a comment.
Применение эволюционных стратегий для идентификации параметров нечетких систем