Pull to refresh
22
0
Максим @Dubrovkinmaxim

User

Send message
Не разделяю вашего сарказма «средняя температура по больнице».
Да я согласен, что замерять скорость анализа сложно, но этот показатель очень важен, и о нем нужно говорить.

Я просто вхожу в команду, которая разрабатывает инструмент анализа качества кода, написанного на языке C#. Детали из-за NDA я не могу разглашать, но мы парсим сорцы, строим AST, считаем метрики, плюс у нас есть достаточно разухабистый слой анализа метаданных с внешних сборок (.dll).

И мы постоянно анализируем как влияет введение новой фичи на скорость анализа проекта (как в рамках одной тестовой конфигурации железа, так и на разных машинах), как растет время анализа при увеличение размера анализируемых проектов, какая при этом зависимость.

Возможно я некорректно задал вопрос, но я от вас пытался этих цифр добиться=) потому что мне интересно как обстаят с этим дела на других платформах
Вы писали «Статический анализ выполняется дольше компиляции».
Меня заинтересовало время анализа. Например при анализе проекта из 3-4 тысяч строк кода, на сколько время анализа превышает время компиляции?

P.s. у меня к сожалению под рукой нет cpp проекта такого размера, но вот вопрос относительно производительности" полного" анализа возник. Хотелось бы услышать в цифрах=)
Спасибо, интересно)) А бывает и так:
Вопрос на восстановление пароля «Какая любимая книга?», а на страничке VK «Любимые книги: бла, бла»
Но что-то рука не подымается их обижать=)
И еще ребят, если среди нас студенты как я,
то советую воспользоваться программой dreamspark и взять себе лицензию на Expression Studio и на саму VS. Для обучения самое оно=)
Спасибо за статью=),
что касается ресурсов, то я бы еще посоветовал:
silverlighter.ru
www.techdays.ru (с тегами Silverlight и WPF)
Да, действительно поиск может зациклиться из-за невозможности восстановить образ и при этом стек вызова переполнится. Но я намеренно упростил алгоритм, сделал рекурсию и не стал параллелить, чтобы сосредоточить внимание читателя именно на идеи=)

Ваши комментарии насчет оптимизации и обходу «узких мест» меня заинтересовали, особенно про так называемые «зацикливания», я просто как не старался не смог от этого избавиться.

Ну и конечно при моем последовательном переборе требуется много ресурсов=) Я экспериментировал с картинками 400Х400, так там уже требуется около минуты ждать.
Была идея как-то группировать пиксели при больших разрешениях, что бы требовалось меньше нейронов, но я так ее и не развил.
Ну вот предположим исходные образы те же, а попытаемся восстановить:
image
То сеть успешно «говорит» что это
image
Тут главное чтобы именно исходные образцы не были слишком похожи.
Вот если нарисовать по разному глаза, и при восстановление полностью убрать улыбку, то сеть будет пытаться восстановить именно по имеющимся различиям в образцах
Спасибо за развернутую критику и подробное указание на проблемы именования в коде=) Основной код был написан 2 года назад на 2 курсе, а я что-то не придал этому внимания, сейчас поправлю;)

Получилось прямо как в анекдоте, эта статья не должна была публиковаться, видимо была глубокая ночь, и я по классике жанра вместо «Просмотра» кликнул «Опубликовать» ) Попробую привести к приемлемому виду=)

Information

Rating
Does not participate
Location
Челябинск, Челябинская обл., Россия
Date of birth
Registered
Activity