Молодцы, хорошая работа. В будущем планируете подходы типа https://arxiv.org/pdf/2112.04426.pdf ? Чтобы и модель легче была, и фактические данные больше выдавала?
Все таки 350 итераций для 1655 вершин очень мало, может у Вас собственная какая-то разработка. Конечно, напишите, я же тогда еще реализую различные модификации в следующих статьях. Может сойдемся на каких-либо результатах)
Про муравьиные алгоритмы на Хабре совсем мало статей) Какая была модификация муравьиного алгоритма? Может скорость отжига была небольшой?) Конечно сложно судить по одному графику, но вроде бы у муравьиного алгоритма был высокий коэффициент обновления феромонов, что сильно сокращает время алгоритма, также как и вероятность нахождения глобального оптимума. В данной статье алгоритм настраивал на глобальный путь, поэтому по времени пока проиграл. Если будет желание и время, то, конечно, напишите статью, будет интересно)
Если бы метода отжига не существовало и мне бы предложили написать данный алгоритм, то я бы даже не брался. Как-то сложно поверить в него. Однако, он выдает отличные результаты. Вы правильно подметили что он универсален.
GigaChat-у до ChatGPT ещё невероятно далеко
Одна из лучших задач на Каггл как по мне)
Молодцы, хорошая работа. В будущем планируете подходы типа https://arxiv.org/pdf/2112.04426.pdf ? Чтобы и модель легче была, и фактические данные больше выдавала?
Красавцы) Продолжайте в том же духе)
А модель по "skew correction" есть? Так понял что глоабльные развороты делаете только на 90
Хорошая статья, молодцы
В поле где «Hosted inference API» впишите текст в формате: "|0|1|Привет, как дела?|1|1|"
Автор, Могёшь! Молодец)