Я ~7 лет работал ML разработчиком (сейчас менеджер) и не советовал бы сразу нырять в DL. Лучше сначала понять основные принципы и алгоритмы (линейная регрессия, логистическая регрессия, ...) классического ML. Есть старый добрый курс по ML от Воронцова, которые дает неплохое представление о машинном обучении: http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_(курс_лекций,_К.В.Воронцов)
Самое прикольно в матче по Dota 2 OG vs OpenAI это использование ботом достаточно нестандартных механик, например "rage buybacks" (выкуп после смерти на любом этапе игры). Про это, собственно, комментарий в X от Greg Brockman. Вряд ли таких примеров было много в обучающей выборке, но при этом нейросеть "научилась" это использовать.
Вот неплохая статья https://towardsdatascience.com/understanding-differential-privacy-85ce191e198a, которая рассказывает про дифференциальную приватность подробнее
Вот еще одна полезная статья про фильтр Блума, кому интересно https://habr.com/ru/companies/otus/articles/541378/ с формулой для вероятности ложного срабатывания.
Я ~7 лет работал ML разработчиком (сейчас менеджер) и не советовал бы сразу нырять в DL. Лучше сначала понять основные принципы и алгоритмы (линейная регрессия, логистическая регрессия, ...) классического ML. Есть старый добрый курс по ML от Воронцова, которые дает неплохое представление о машинном обучении: http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_(курс_лекций,_К.В.Воронцов)
Самое прикольно в матче по Dota 2 OG vs OpenAI это использование ботом достаточно нестандартных механик, например "rage buybacks" (выкуп после смерти на любом этапе игры). Про это, собственно, комментарий в X от Greg Brockman. Вряд ли таких примеров было много в обучающей выборке, но при этом нейросеть "научилась" это использовать.