All streams
Search
Write a publication
Pull to refresh
81
0
Send message
habrahabr.ru/post/165841/ — там много всего по теме и близлежащим.
мозг — асинхронная дичайше-распараллеленная система, там, конечно, свои правила.
посмотрим что получится из IBMовских нейрочипов…
шов сам по себе структура богатая на градиенты и всевозможные артефакты.
посмотрим, я еще пока не видел кадров с дефектами :)
я так понимаю из разговоров, что следующим заданием будет как раз поиск соответствующих дефектов :)
ок, убедили :)
эталон нужен чтобы определить толщину шва.
конечно, сам шов светлее фона, но зависимость, хоть и линейная (тоже надо проверить, может там экспонента...) может иметь различный коэффициент наклона в различных условиях. а эталон всегда имеет известный диаметр, поэтому отпадает необходимость очень точной калибровки прибора, что в полевых условиях, наверное, очень приятственно.
я писал либу, которая будет работать в другой программе. так что на вход либы уже подается массив интов.
для тестирования, конечно, пришлось самому открывать тиффы, которые оказались 16бпп градаций серого, с этим тоже пришлось повозиться. Но LibTiff от BitMiracle легко прикрутилось и вполне даже работает.
За Intel IPP спасибо, посмотрю. Но либа должна работать на любом железе :)
я минимум 6 вижу :)
но для локализации эталона 3ёх вполне достаточно
они нужны для определения толщины сварного шва.
в условиях было сказано, что масштаб известен, потом выяснилось. что известен он только приблизительно :) где-то +-10%.
Плюс к тому, я заметил, что на длинных кадрах масштаб в разных частях чуть отличался — издержки геометрии съемки.
кстати, изначально в качестве детектора я таки использовал свертку с прямоугольным вертикальным ядром примерно равным ширине толстой проволочки — описанный метод оказался лучше.
а я пробовал. это нужно сгенерить несколько масштабов, несколько углов поворта для каждого эталона и применить это во сдвигом как максимум в толщину проволочки! Т.е. если мы возьмем 5 штук по масштабу, 10 углов, 16 образцов = 800 корреляций на каждое окно!
Только на GPU. Мне же удалось, из-за специфики, свести задачу к одномерной.
говорят, в новом айфоне улучшен алгоритм — пробуйте :)
Добрый день!
а можно как-нибудь получить Вашу базу изображений, а то хочется поиграться с настройками Хаара, а самому собирать такую базу очень муторно?
Очень интересные у Вас взгляд и идеи!
С удовольствием слежу за развитием.
Спасибо!
спасибо за статью!
по-моему типы были разными:
• For the MNIST dataset, we used the following architectures [11]
– A simple fully connected, single layer network with a softmax classifier on top of it.
We refer to this network as “softmax”.
– A simple fully connected network with two hidden layers and a classifier. We refer to
this network as “FC”.
– A classifier trained on top of autoencoder. We refer to this network as “AE”.
– A standard convolutional network that achieves good performance on this dataset:
it has one convolution layer, followed by max pooling layer, fully connected layer,
dropout layer, and final softmax classifier. Referred to as “Conv”.
• The ImageNet dataset [3].
– Krizhevsky et. al architecture [9]. We refer to it as “AlexNet”.
• ⇠ 10M image samples from Youtube (see [10])
– Unsupervised trained network with ⇠ 1 billion learnable parameters. We refer to it as
“QuocNet”.

так что начало вполне себе положено.
Подразумевается, что общественность озаботится и последуют более детальные и обширные исследования.
здорово!
ждем продолжения!
да, ждем продолжения!

Information

Rating
Does not participate
Registered
Activity