Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!

УРА!!!. Открыли (переписали) то, что раньше называлось "поиск гиперпараметров по решётке ( grid/random search) с Байесовской оптимизацией (Bayesian Optimization)".
Пробежался по диагонали - очень плохо написана статья (полагаю оригинал), ничего не понятно, многое повторяется по 100 раз, и это только путает еще сильнее. Я добежал глазами до середины, но так и не понял о чем вообще речь. Статью как-будто писала GPT2.
Рекомендую отправить "это" в LLM, попросить сделать саммари и уже там позадавать вопросы. Это сэкономит вам время и нервы.
Подробный технический разбор реализации Autoresearch, ИИ-исследователя Андрея Карпаты