Господи. ты чертов монстр, чертов монстр. Я же почти шутил, когда предлагал изнасиловать эти часы. Пост пока только пролистал, поэтому на правах деревяшки спрошу, а буквы писать можно?
Начните делать задачки на питоне на codewars или hackerrank. Для начальных ступеней вашей квалификации достаточно. Когда(если) втянитесь, там уже определяйте сферу ваших дальнейших интересов, и соответствующий целовой язык+фрейворки.
В Q1 играл уже после Q2 и вообще не зацепило. В клубе, q2 + Мод chaos в 1997 для меня стал просто полетом на Марс. Насчет мультяшной графики Q2 это некоторое враньё, так игра смотрится только с 3д ускорителем (не знаю деталей, но там клубок проблем), в режиме рендеринга на CPU игра выглядит как эталон визуального стиля, собственно так и играло большинство. Как раз Q3 меня выбесил своим диснейленд-стилем, играл в него только за компанию.
> Помимо новой графики в Quake II неожиданно появился сюжет
Разве в первой не было сингла?
Wow! Creator of ColTran here. Your work is fantastic!
Can I ask some questions?
1. Your explanation helped me finally get my head around the reasons for the different results and examples in the documentation. But how should variations be managed? I did not notice in the README or in the code any such thing.
2. Is there much importance of data augmentation (tone, contrast, brightness, noise) during training?
Присоединяюсь, вручную когда корректировал погрешности специальной заливкой, заметил, что лишь небольшая часть вариантов ложиться на чб не выпирая левыми тонами.
Скорее всего можно создать точную модель, которая бы ограничивала поле вариантов для нейросети.
1. Мне кажется, что разница между разными способами перехода к ч.б. сильно ниже вариаций по другим причинам. Если бы алгоритм был предназначен для ювелирной работы с изображениями от одного постоянного источника, об этом можно было задумываться. Я не запаривался, простой grayscale по яркости. Вот влияние контраста очень сильное, это прямо проблема.
Для архитектуры типа Deoldify очень важно использовать широкий спектр искажений.
Для Vision Transformer, честно, не знаю, но интуитивно подозреваю, что это не даёт сильного улучшения. При обучении на распределенных TPU вряд ли бы они экономили.
Вы шутите так, верно? То, что такое сильное увеличение похоже на оригинал уже чудо.
> Помимо новой графики в Quake II неожиданно появился сюжет
Разве в первой не было сингла?
Can I ask some questions?
1. Your explanation helped me finally get my head around the reasons for the different results and examples in the documentation. But how should variations be managed? I did not notice in the README or in the code any such thing.
2. Is there much importance of data augmentation (tone, contrast, brightness, noise) during training?
Скорее всего можно создать точную модель, которая бы ограничивала поле вариантов для нейросети.
2. White paper: обучали на ImageNet.
В коде препроцессинга заметил только random_crop.
Для архитектуры типа Deoldify очень важно использовать широкий спектр искажений.
Для Vision Transformer, честно, не знаю, но интуитивно подозреваю, что это не даёт сильного улучшения. При обучении на распределенных TPU вряд ли бы они экономили.
При обучении таких систем качество оценивается отдельной нейросетью. Ради статьи поднимать такое как-то слишком сложно.
Похоже на программируемый луноход с МК. хабрапост про него Здесь он вроде уже в состоянии хлама