Обновить
4
0
Vladimir@imageman

Пользователь

Отправить сообщение

Подобные атаки работают против конкретных нейросетей. Стоит немного дообучить нейросеть, а тем более обучить заново и эффективность атаки падает.

Поэтому просьба к автору сделать следующий эксперимент: на той же архитектуре ResNet-18 проводим повторное обучение (возможно на другом обучающем наборе). Получаем похожую нейросеть (с точностью 99%). И пробуем прогнать все картинки из экспериментов на первой нейросети. Почти уверен, что там, где первая нейросеть просела до 80% вторая нейросеть просядет только до 95%. Всё потому, что мы атакуем первую нейросеть.

Можно ли атаковать сразу две нейросети? Можно, но чуть сложнее.

Схематически алгоритм работы показан на картинке:

напомнило баян "Как нарисовать сову"

мы выбрали нестандартную модель

а вот тут откровенно мало информации, а ведь именно это могло бы отличить эту статью от десятка других...

Генерируется эталонный лог-файл какой-то программы (без сжатия). На основе его мы создаем словарь (посмотрите документацию по zstd сжатию). После этого мы можем эффективно сжимать новые логи (словарь постоянно хранится на диске и может не меняться). Если новая строка совсем не проходит по словарю она всё равно будет сохранена, просто коэффициент сжатия будет поменьше, вместо 1:8 к примеру 1:3.

Все записи в лог, которые произошли внутри такого блока, не отправляются в хранилища логов немедленно

по моему самый спорный момент. Потому что самая плохая ошибка внезапно всё крашит.

Предлагаю несколько другой подход. Мы пишем одновременно в три лога.

1-й лог файл самый подробный и содержит в себе debug, info, warning и error события.

2-й info и выше

3-й warning и выше

А теперь самое интересное: мы устанавливаем максимальный размер каждого лога. К примеру 1-е логи в сумме 50 мегабайт (при достижении 10 мегабайт мы начинаем новый log файл, самый старый стираем, что бы не превышать лимит размера). Аналогично задаем лимиты для 2-го и 3-го лога.

Разумеется, можно сделать 4 лога и в каждый писать только свой уровень (это уменьшит размер, но усложнит анализ логов).

Zstandard  (zstd) сжатие позволяет заранее создать словарь. при этом сохраняется возможность писать маленькими кусочками.

и тут, я подозреваю, стоит сказать про номер версии.

была такая тема, что "собака" бегает по стройке раз в N часов и отслеживает реальное строительство и план. При расхождении (а может и при отставании от графика) предупреждает.

думаю частичный ответ: "много false positive"

точно - про Дом забыл :-)

Телефон, тот ладно - там весь интернет, куча датчиков (от датчика приближения до гироскопа), несколько камер, GPS-ГЛОНАСС, нейрочипы. Уже и не назовешь "кнопочник", пусть будет умным :-) Он даже больше, нежели коммуникатор, -- Администратор скорее.

слово "технология" давно уже стало синонимом слова "магия"

Подскажите, не в последнем ли голливудском фильме по роману Айзека Азимова "Основание" математиков по сути заменили чуть ли не магами? :-)

качественно отличаются от алгоритмов классических

Я бы сказал, что "новые" алгоритмы масштабируются относительно обучаемых данных. Т.е., к примеру, быстрая сортировка одинаковая для массива из 10 чисел и для массива из миллиона чисел. А вот дерево решений для 10 и 1e6 будут существенно отличатся (в последнем случае оно будет сложнее). И дерево решений можно уже рассматривать как алгоритм (принятия решения) разработанный машиной. Т.е. мы уже пришли к тому, что машины делают алгоритмы (на основе данных, которые дает человек).

А еще бесит термин "умные часы"! Максимум "умненькие часы", и то с натяжкой.

В твоём случае я сделал бы немного иначе. Пусть ГА подбирает структуру сети, а обучение нейронки делал бы обычными методами (так быстрее). В результате работы мы получили бы самую эффективную по размеру/скорости нейросетку. Только нужно понять насколько извращенную (нетрадиционную) структуру нейросети мы хотим получить и реализовать превращение генотипа в фенотип. Функция приспособленности будет иметь несколько слагаемых: размер нейросети + скорость обучения нейросети (мы ведь хотим побыстрее учить нейросеть?) + рекорд нейросети на поле и т.п.

https://ic.pics.livejournal.com/imageman72/21748141/1529/1529_original.gif типичный график изменения лучшей особи (10 независимых опытов ГА).

Лет 20 назад вплотную увлекся ГА.

В процессе скрещивания вычислял насколько близки родители (Инцест). Чем более похожи родители, тем сильнее увеличивал коэффициент мутаций. Чем меньше похожи, тем сильнее уменьшал мутации (вплоть до 0,0001). На одной из простых задач на пару дней(?) запустил задачу подбора оптимальных параметров скорости изменения мутаций. Т.е. сделал один ГА над другим ГА. И знаете к чему пришел алгоритм? На практике это было так: ГА выходит на плато, все потомки очень похожи, в этот момент начинает резко увеличиваться число мутаций (самая лучшая особь предыдущего поколения копируется без мутаций и скрещивания, поэтому она гарантированно не пострадает). Из-за большого числа мутаций особи "взрываются" - у них сильно падает приспособленность. В этот момент коэффициент мутаций падает почти до нуля и начинается обычный отбор (с пониженной мутацией). Такие волны увеличивали шанс найти оптимальное решение. Так же в ряде случаев помогает оптимизация методом имитации отжига (или одним из градиентных методов) лучшей особи (оптимизация лидера). https://imageman72.livejournal.com/tag/ГА

А почему тег к статье "сиамские нейросети"?

получается поканально лучше. Если идет полная тренировка YOLO с самого начала, то мы спокойно можем сказать, что на вход подается не три канала (RGB), а сколько угодно.

Decision Tree, Random Forest, LightGBM, CatBoost - это все в той или иной мере основано на деревьях решений. Просто последние два метода (решения) это делают наиболее эффективно.

  1. Я правильно понимаю, что в признаки сами фотографии работ не попали, а было только описание? Это же сильно влияет на конечный результат (понимаю, dataset не ваш и вам трудно что-то сделать с этим).

  2. Немного не понял, что вы в конце сделали с пропущенными значениями? "я не стала заниматься восстановлением категориальных данных" - а что сделали?

  3. То, что за основу взяли деревья отлично. Но хотелось бы сравнение в нейросетями (точность, время обучения, время вычисления результата). Чисто для того, что бы показать, что нейросети тут проиграют (или нет).

ты скорость обучения при помощи ГА и обратного распространения ошибки сравнивал? Попробуй поищи. У ГА должно быть медленнее на несколько порядков. Можно пробовать объединять оба подхода (все равно проиграем по времени, но можем выиграть в точности).

Информация

В рейтинге
Не участвует
Откуда
Резекне, Латвия, Латвия
Дата рождения
Зарегистрирован
Активность

Специализация

ML разработчик, Инженер по компьютерному зрению
Средний
От 2 500 €
Python