Pull to refresh

Ограничение оптимизирующих методов в играх с противником и без

Reading time 2 min
Views 2.6K
Algorithms *
Эта статья короткое ответвление от цикла статьей по биовычислениям:
От белков к РНК, Мат. критерии, Как уменьшить число поворотов цепи?, Как оценить ход сворачивания односпиральной РНК?

В этих статьях задача сворачивания РНК представлена в новом свете — как задача теории игр. Но традиционно эта задача сейчас решается с применением различных стохастических оптимизирующих методов. А к ним относятся методы основанные на методе Монте-Карло, метод отжига, генетические алгоритмы, искусственные нейронные сети, Q-обучение, и все те которые представляют задачу как энергетическую поверхность в которой ищут экстремумы.

Казалось бы сама физика велит использовать эти методы в таких задачах как сворачивание РНК/белков. Здесь мы посмотрим почему это сильно проблемно.

Читать дальше →
Total votes 19: ↑15 and ↓4 +11
Comments 5

Оптимизация на примере. Имитационный отжиг против муравьиного алгоритма. Часть 1

Reading time 11 min
Views 27K
Algorithms *
Sandbox
Всем доброго времени суток. Недавно прочитал статью про имитационный отжиг на примере задачи коммивояжера. Картинка до и после оптимизации вызвала интерес. Чем-то подобные вещи заманивают.Также в комментариях заметил, что людям было бы интересно посмотреть на сравнение с другими видами оптимизации.


Читать дальше →
Total votes 44: ↑44 and ↓0 +44
Comments 15

Оптимизация на примере. Муравьиный алгоритм (ACS) против Метода отжига. Часть 2

Reading time 12 min
Views 19K
Algorithms *Matlab *
Продолжаю цикл статей «Оптимизация на примере». В данной статье сравниваются два эвристических алгоритма на избитой симметричной задаче коммивояжера. Сегодня чуть углубимся в данную тему и разберем определенную модификацию муравьиного алгоритма.


Читать дальше →
Total votes 23: ↑22 and ↓1 +21
Comments 7

Спартанское обучение нейронных сетей

Reading time 6 min
Views 3.8K
Python *Programming *Machine learning *

Одна из проблем обучения нейронных сетей — переобучение. Это когда алгоритм научился хорошо работать с данными, которые он видел, а на других он справляется хуже. В статье мы рассказываем, как попытались решить эту проблему, совместив обучение градиентным спуском и эволюционным подходом.


image

Читать дальше →
Total votes 9: ↑9 and ↓0 +9
Comments 4