Pull to refresh
253
0
Семен Козлов @sim0nsays

Пользователь

Send message
Я плохо знаком с классикой олимпиад, мой критерий был — чтобы инсайт не требовал специальных знаний и очень просто писался код. Опять же, верю что задачке сто лет в обед, просто запостили ее недавно и я ее раньше не видел.
Если вы еще таких знаете — рассказывайте обязательно!
Почему прямо не указать, что пост является переводом?
По основному посту (читал только оригинал, сорри) — забавно, что затея с feature engineering как раз показала, что его делать не надо — лучше предавать сети все, она разберётся. Ну и takeaway про мало данных тоже конечно неудивителен.
И, наконец, урок на будущее про то, что можно повысить точность, выключив категории, которые не нужны — тоже жизненный.
Ну, в реальной работе (к сожалению) такое нужно крайне немногим и крайне редко. Для меня это скорее радостная возможность вспомнить молодость и размять мозги.
Скрытый текст
и мол кроме A считаем xor всего, чтобы сравнивать со значениями в A, чтобы понять кто есть кто?
Понял. В классическом смысле нет — в посте память ограничена 4G для любого размера массива, а если копировать его для сортировки — то нет, может получиться и больше 4G. Т.е. Затраты памяти не константны. Понятием максимального размера обычно не оперируют
Ничего не понял :) можно как-то конкретнее, что предлагается? Какой конкретно CRC, как потом узнавать биты?
Смотрим уточнение под катом :)
"На выходные" — имелось ввиду, что можно подумать в бэкграунде, пока занимаешься другими делами, а код писать особо не нужно.
Под катом было более четкое ограничение — памяти всего 4K (и даже разбор тривиального "решения") Похоже уточнения под катом никто не читает, буду знать.
Ага, действительно. В моем посте — ее более краткая версия
Можно тогда более подробно описать, что происходит с A после прохода по массиву?
Кажется, вот контрпример
Это 4 трехбитных числа:
1 1 0 0
0 0 0 1
1 1 0 1
Да, нужна какая-то еще идея :)
Нет, потому что второй проход не по изначальному массиву, а по другому, константного размера. Более конкретно — "в один проход" означает, что элементы входного массива можно прочитать по разу, и только подряд, от первого к последнему
Видите там в условии — в один проход? Отсортировать массив в один проход нельзя
А какие архитектуры сети использовались в оригинальных пейперах, которые вот эти лица получали?
Ух, дочитал, спасибо за статью! В первое прочтение не осилил, но дополнительная статья (https://habrahabr.ru/post/278425/) очень помогла прочитать во второй раз.
Чуть-чуть субьективного фидбека — плиз, прописывайте более явно что является входом и выходом различных сетей.
Например, вот в этом фрагменте:
image
мне кажется важным выделить, что во время тренировки discriminator на одной и той же сети прогоняется на паре изображений, результат смешивается, и градиент считается от этого значения на все веса.
Или вот случайный шум, который подается на вход генератора — это вектор? Двумерная картинка?
Если вектор — как он приводится к двумерному массиву, чтобы convolutions начали работать?
По первому пункту — ок. Единственное, как применять равномерное распределение, если даже диапазон не определен? От -inf до +inf?

По второму — я понимаю логику, но хочу процитировать ваше прошлое сообщение.

Допустим, мы бросили монетку 10 раз, 7 из которых она упала орлом — записываем: theta[1] = 0.7. theta[1] — это наша первая оценка параметра theta. Повторим эксперимент ещё 9 раз — получим, скажем, такой набор измерений параметра: theta[1:10] = [.8, .6, .9, .8, .7, .5, .8, .8, .7, .9]. Если попробовать сгладить и нарисовать такое распределение, то получится как-то так:
[график]
При этом такое распределение как раз и соответсвует нашей оценке для возможных параметров theta — наиболее вероятно, что theta лежит в окресности значения 0.75, с меньшей вероятность — больше или меньше этого значения. К нашему набору экспертиментов можно подойти формально через биномиальное распределение (которое является всего лишь распределением не одного, а нескольких бросков монетки) как это описано в Википедии, а можно сразу заметить, что функция плотности вероятности для theta уж очень напоминает Beta распределение.

Вот этот график — он же определяется и P(X), и P(Y | X). Глядя на этот график нельзя сказать, что если он похож на какое-то распределение, то назначим P(X) таким-то. Я видимо не так понял, и под за отсылкой к Википедии скрывается какой-то дополнительный логический переход.

P.S. Наконец-то есть человек, готовый объяснять байесовскую статистику неподготовленным! Ура!
И действительно, кругом обман :(
Надеюсь, хоть уровни честно рандомные
Вот кстати DQN пытается играть в случайные уровни Марио — http://youtu.be/wfL4L_l4U9A. Видно, что он к концу часа что-то научается делать, но явно играет плохо и валится на простых для человека местах. Впрочем, всего час тренировать — неспортивно, а героев, которые тренировали сотню часов на Марио нет :(

Information

Rating
Does not participate
Location
San Francisco, California, США
Works in
Date of birth
Registered
Activity