Pull to refresh
172
0

Человек смыслов -=[ в поиске работы R&D ]=-

Send message
Благодарю-с, загрузить 840 картинок — это было весело
image

Вы шутите так, верно? То, что такое сильное увеличение похоже на оригинал уже чудо.
Оригинал — это оригинальное изображение, т.е. чётче исходного изображения.
Господи. ты чертов монстр, чертов монстр. Я же почти шутил, когда предлагал изнасиловать эти часы. Пост пока только пролистал, поэтому на правах деревяшки спрошу, а буквы писать можно?
Да, именно указанные выше, Электроника 7-08 (вторичные)
интересно, а цифровые школьные часы с зеленым индикатором тоже по импульсу минуты щёлкали?
Начните делать задачки на питоне на codewars или hackerrank. Для начальных ступеней вашей квалификации достаточно. Когда(если) втянитесь, там уже определяйте сферу ваших дальнейших интересов, и соответствующий целовой язык+фрейворки.
В Q1 играл уже после Q2 и вообще не зацепило. В клубе, q2 + Мод chaos в 1997 для меня стал просто полетом на Марс. Насчет мультяшной графики Q2 это некоторое враньё, так игра смотрится только с 3д ускорителем (не знаю деталей, но там клубок проблем), в режиме рендеринга на CPU игра выглядит как эталон визуального стиля, собственно так и играло большинство. Как раз Q3 меня выбесил своим диснейленд-стилем, играл в него только за компанию.

> Помимо новой графики в Quake II неожиданно появился сюжет
Разве в первой не было сингла?
Задачи отдела АСУ ТП в Джете переложены на отдел машинного обучения? Статья выглядит как будто одно подменяют другим, вместо продуктивного симбиоза.
Wow! Creator of ColTran here. Your work is fantastic!

Can I ask some questions?
1. Your explanation helped me finally get my head around the reasons for the different results and examples in the documentation. But how should variations be managed? I did not notice in the README or in the code any such thing.

2. Is there much importance of data augmentation (tone, contrast, brightness, noise) during training?
Присоединяюсь, вручную когда корректировал погрешности специальной заливкой, заметил, что лишь небольшая часть вариантов ложиться на чб не выпирая левыми тонами.
Скорее всего можно создать точную модель, которая бы ограничивала поле вариантов для нейросети.
1. Мне кажется, что разница между разными способами перехода к ч.б. сильно ниже вариаций по другим причинам. Если бы алгоритм был предназначен для ювелирной работы с изображениями от одного постоянного источника, об этом можно было задумываться. Я не запаривался, простой grayscale по яркости. Вот влияние контраста очень сильное, это прямо проблема.

2. White paper: обучали на ImageNet.

В коде препроцессинга заметил только random_crop.

Для архитектуры типа Deoldify очень важно использовать широкий спектр искажений.
Для Vision Transformer, честно, не знаю, но интуитивно подозреваю, что это не даёт сильного улучшения. При обучении на распределенных TPU вряд ли бы они экономили.
Спасибо! Классное наблюдение, надо покопать в этом направлении.
Для высокого разрешения нужна изменённая модель, её нужно заново обучать =(
Увы, статистические оценки не подходят для оценки правдоподобности сгенерированных изображений.

При обучении таких систем качество оценивается отдельной нейросетью. Ради статьи поднимать такое как-то слишком сложно.
image

Похоже на программируемый луноход с МК. хабрапост про него Здесь он вроде уже в состоянии хлама

Information

Rating
6,559-th
Registered
Activity

Specialization

Data Scientist, Security Engineer
Lead
Generation of ideas
Problem solving
Consulting
Researching