Pull to refresh
4
0.1
Send message
А какие ещё бывают виды хостинга?
Вообще там есть разделение на стирания (когда приёмник уверен что конкретный бит пропал при передаче) и ошибки (когда приёмник уверен что конкретный бит — вот такой, а на самом деле он был противоположный). Способность кода исправлять что-либо зависит от его расстояния. К примеру код Хэмминга (7, 4) имеет расстояние 3 и способен исправить один бит (при отсутствии стираний), либо два стирания (предполагая что ошибок нет). Если к нему добавить доп. бит контроля чётности, то расстояние увеличится до 4 и код будет способен исправлять одновременно одну ошибку и восстанавливать одно стирание (к примеру если пропал тот самый бит чётности, то код может исправить ошибку в первых 7 битах и восстановить стёртый бит чётности).
А не слишком много места это потребует? Судя по инфе с вики, каждому кошельку соответствует 512 битный адрес (открытый ключ). Если принять что каждый житель Земли (7 млрд) имеет кошелёк, то на хранение информации только об адресах (но не о средствах на счёте) нужно примерно 64*7=448 гигабайт места.

А ведь на той же вики сказано, что сам Сатоши рекомендовал для обеспечения анонимности создавать для каждой транзакции отдельный кошелёк.
Я думаю, стоит также упомянуть ещё один результат из оригинальной статьи: решения в целых положительных числах для нечётных N (в примере N = 4) не существует. Что автоматически открывает новые просторы для троллинга.
О, а задам и я вопрос. Вот я допустим только что родившийся человек. Допустим я вырос, отучился бесплатно, и вот я устроился на свою первую работу. Я завожу свой первый кошелёк, и видимо я должен сказать адрес кошелька работодателю, правильно? Таким образом все работники компании знают адрес кошелька компании и могут увидеть транзакции к другим работникам, т.е. знать примерно сколько зарабатывают другие сотрудники компании, без имён но с цифрами. И если в одной из транзакций кому-то со счёта компании кидается очень большая сумма, то можно обоснованно предположить что это кошелёк владельца компании, к примеру, или ген. директора.

Далее. Я к примеру хочу купить дом. Для этого я даю владельцу дома адрес своего кошелька. Т.к. дом — вполне конкретное недвижимое имущество, то выходит что продавец теперь знает что вот по данному адресу проживает человек с такой зарплатой. А если этот продавец покупал машину в том же магазине, что и я, то он знает что у меня есть и какая-то конкретная машина — ведь эта инфа общедоступна, дабы любой мог проверить её, а не только владельцы ключей.

Далее. По факту любые магазины могут совершать транзакции со всеми, т.е. инфа что вот этот конкретный адрес есть кошелёк какой-нибудь Пятёрочки, по факту будет общедоступной. Т.е. продавец теперь знает что я покупаю на свою зарплату, а по временам поступления транзакций в сеть он может определить когда я хожу в магазин.

Не нарушает ли это всё анонимность?
В шестой формуле 1000 — это число шагов этапа самоорганизации?

Значение
self.minsigma
у вас всегда равно 1

Константу
minlr
вероятно, имеет смысл определять в
__init__()
, а не в
training_op()
, ибо последняя вызывается много раз, а конструктор всего один.

Tensorflow ругается на имя Learning rate в
lr_summary = tf.summary.scalar('Learning rate', lr)


Судя по коду,
dim
не размер решётки, а квадратный корень из числа нейронов. Размер решётки всегда равен 1, согласно значениям матрицы
self.positions


Вместо того, чтобы везде вызывать
self.dim.eval()
можно ввести обычную питоновскую переменную для хранения этого значения, и инициализировать её в конструкторе.
критерий минимума Евклидова расстояния (что эквивалентно максимуму скалярных произведений


Конечно же, если вектора весов нормированы.
Насколько я понимаю, нет никакой «его библиотеки и его алгоритма». Автор взял готовый питоновский модуль face_recognition (кстати интересная вещь, надо посмотреть), который основан на плюсовой библиотеке dlib. Некие ребята тестили эту штуку на LFW и получили озвученную точность. А автор просто написал враппер, который позволяет поднять веб-сервер с красивеньким интерфейсом для всего этого.
Раз уж в названии статьи есть слово «vs», то можно было бы привести хоть какой-нибудь референсный результат для НС. А то в названии НС есть, а в статье нет. Про препроцессинг непонятно. Фичи делали сами (тогда где код? зачем сохранять их в текстовый формат?) или взяли готовые (откуда?)?
На всякий случай: старое название было «Будь в курсе»?
ВК упорно предлагает мне именно эту строку при попытке кинуть ссылку на стену.
Для линейно сепарабельного случая конкретно такая пропорциональность весов вполне может иметь место. А более сложные случаи однослойный персептрон и не должен охватывать.
Простите, их там нет. Автор берёт m производных таргет-функции по \omega_k, приравнивает каждую к 0 и получает таким образом ровно m линейных уравнений. Если вы знаете способ добавить дополнительные уравнения, то опишите его, пожалуйста.
Не буду высказывать свои сомнения по поводу вашего метода, выше уже отписались, и я полностью согласен что пока это просто регрессия. Надеюсь, в будущих публикациях тема раскроется.

Пока немного позанудствую по формулам:
1) В выражении для ошибки вы написали сумму от i до m, а не от 1 до m.
2) В том же выражении: если вы используете индекс i для точек выборки и пишете его при переменной x сверху, то можно и при переменной y писать его сверху.
3) В выражении для производной вы берёте производную не по \omega_j, а по \omega_k.

Спасибо! Жду следующую статью.
Для нахождения m коэффициентов \omega_k нужно m линейных уравнений.
А зачем брать мини-батчи? Коэффициенты СЛАУ можно же посчитать сразу по всей выборке, это просто операция суммирования. Решение СЛАУ будет итеративным если размерность пространства фич m будет большой. Если она маленькая, то можно использовать LU разложение.
А сколько времени требует один обсчёт решения? Если порядка секунды, то можно просто перебрать 2^13 вариантов. Займёт сутки примерно.
Статья интересная. Я даже и не знал что scipy можно использовать для решения задач линейного программирования.

Пара непонятностей. Видится мне что ограничение 1 можно убрать (ибо оно выполняется автоматически при наличии ограничения 2). Ограничение 4 вовсе неясно, почему именно от нуля до одного? Может быть, просто больше нуля?

И почему ваша модель не учитывает возможность закрытия магазинов, коль такое упомянуто в задаче? Оно понятно что ILP всунуть не получится, но ведь можно решить ослабленную задачу и показать какой получается ответ. Ведь не факт что решение ILP даст те же выводы, что и ваше решение.
Статья интересная, но хотелось бы упомянуть пару нюансов. Правило что при \lambda=\mu система сваливается в бесконечную очередь за конечное время верно только для случайных систем. Если у вас система детерминированная (D/D/1), то она легко рассчитывается аналитически и работает даже с очередью конечной длины в режиме насыщения. Многие формулы в ТМО выводятся для систем вида M/M, т.е. пуассоновских потоков. Если у вас есть логи, можно проверить верно ли это распределение для вашей системы. Если у вас система очень похожа на детерминированную (сообщения приходят через одинаковые периоды времени + небольшое дрожание), то возможно что она вполне будет работать в режиме насыщения. Более того, в ТМО как правило рассматривают системы без обратной связи, т.е. сервер не может влиять на источники событий. В вашем же случае это видится вполне возможным: когда размер очереди на сервере превышает определённый порог, посылать источникам сообщения обратную связь с просьбой замедлиться.
А как вы поймёте что свет везде включен?
Ниже найдена формула P(D|k) и при её интегрировании от 0 до единицы получится константа, которая не зависит от А и B.


Я извиняюсь, это как вообще? Wolfram Число сочетаний там вылезает.

Information

Rating
2,361-st
Registered
Activity