Как стать автором
Обновить
43
0
Николай Мальковский @malkovsky

Математик

Отправить сообщение
Да, fig можно отрисовать/сохранить. Но в моем случае дело немного в другом: если бы мне нужно было просто отрисовать фигуру, то достаточно было бы просто написать там `plt.show()`, но у меня была цель еще и как-то проанимировать алгоритмы, для этого я сохранял fig в список и потом анимировал его с помощью ipywidgets.
Я про такую задачу мало что знаю, попробуйте посмотреть вот эту статью
Ровно это объяснение я даю в самом начале под спойлером, во второй конфигурации 16 белых и 16 черных клеток
Вы уже раза 3 написали, что Фишер-Йетс не подходит (к слову большое спасибо, я знал этот алгоритм, но не знал, что он именной), но совершенно непонятно почему. Исходя из той задачи и того исходного решения, которое вы описали, создается ощущение, что подходит абсолютно любой алгоритм равномерной генерации перестановок. Все, что нужно сделать — это запомнить seed.
Хмм… скорее всего это ровно то, что рассказывается в статье, уверен, что это фольклор. Тарьян вообще кучу всего придумал, наиболее близкое по теме — это скорее всего алгоритм нахождения компонент сильной связности, если применить его к ациклическому графу, то он сделает на нем топологическую сортировку, а потом обнаружит, что все компоненты состоят из одной вершины.
Очевидным недостатком данной модели является также то, что для подготовки корпуса, в котором сделано выравнивание, требуются очень значительные усилия, профессиональные переводчики должны не просто перевести текст, но и указать, какое слово является переводом какого.

А как же автоматическое выравнивание? Собственно решение от IBM
Нет, сама по себе библиотека дает прекрасный результат.

Вы вообще на него смотрели? Сгенерированной фраза
«Но на тебе я ставлю точку, это точно, Вот мое тебе «пока». Я говорю тебе в ответ: Что еще тут непонятно?»
покрывается (с переходом на слове «тебе»)
«Но на тебе я ставлю точку, это точно, Вот мое тебе «пока». Я говорю тебе»
и
«тебе в ответ: Что еще тут непонятно?»
которые присутствует в обучающем тексте.

Результат очень слабый. Если хотите использовать марковские цепи для генерации текста, то хотя бы разберитесь в том, как работают нграмные языковые модели, но вообще вроде как не секрет, что нейронные сети сейчас вне конкуренции на подобных задачах
С начала февраля мониторю страничку от John Hopkins University
Новостей там нет, но в плане интерактивной карты она точно более информативна
Вышел на неё, кажется, по хабру
Читать разумеется удобней, но тут предполагается текста для обучения систем распознавания речи, а там как раз предпочтительней, чтобы текст в точности соответствовал тому, что было произнесено, без сокращение и прочего
«для каждого очередного… помечает кратные ему» это как минимум вложенный цикл, это не похоже на O(1)

Внутренний цикл действительно не O(1), при нахождении простого k внутренний цикл делает (n-k*k)/k итераций. Вероятность, что число k является протым — это k/ln(k). Дальше немного базового матана и вы получаете оценку для базового решета Эратосфена O(n loglog(n)).

Есть более оптимальная реализация со сложностью O(n), о ней даже в прошлом году писали на хабре

P. S. alez13 Вы потратили время на изложения своего потока мыслей не удосужившись до это сделать минимальные действию по изучению вопроса (поискать в гугл, ну или на хотя бы на хабре). Это основная причина, почему вашу статью приняли в штыки.
Хмм, а почему в случае отсутствие безопасных клеток сделать так, что любая открытая небезопасная клетка не взрывалась?
Если вы пишите статью, предполагая, что читать её будете только вы сами, но при этом выставляете на общее обозрение некоторому сообществу, то отрицательная оценка этой статьи — закономерный результат.
В интернете нет ни одного форума, участники которого были бы заинтересованы в получении результатов совместной научно-теоретической деятельности

Зачем же вы тогда тратите свое время на то, чтобы писать что-то на форуме в интернете?
поэтому мне нет смысла соблюдать эти формальности
Для людей, которые профессионально занимаются наукой (да и не только), эти формальности позволяют быстрей и эффективней находить полезную для них информацию.
Хотелось бы всё-таки рассчитывать на минимум компетенции участников обсуждения

В таком случае вам стоит освоить минимальную компетенцию автора публикации: из первого абзаца должно быть понятно, какова цель этой публикации, о чем она. Без этого условия публикацию не будут читать, какой бы прорывной и гениальной она не была (и это действует не только на хабре).
e-maxx.ru/bookz/files/cormen.pdf
исключительно в образовательных целях
Наверно я не с той стороны зашел. Тут уже достаточно много написали про то, что исходная задача (быстрый поиск порядковой статистики) вроде как решается добавлением дополнительного поля в узел, которое отслеживает суммарный размер поддерева с корнем в этом узле, в том числе и обычное декартово дерево. Неявное декартово дерево я больше привел в качестве примера, где эта величина вычисляется и используется.
Советую обратить внимание на Декартово дерево (treap, cartesian tree). В разделе про «неявные декартовы деревья» описана реализация массива со вставкой в середину за O(log(n)). В том варианте, который там предложен, нет возможности доступа по ключу, только по индексу, но не думаю, что это сложно будет сделать.

Вообще, как тут уже писали, кажется, что ваша задача решается любым деревом путем хранения в вершине размера поддерева.

P. S. Чтобы понять, о чем вообще эта статья, нужно заглянуть под кат. Не надо так писать. Публикация — это не просто изложение потока мыслей.

выжимка основных результатов

Я могу понять, зачем в МО может понадобится знание теоремы Ферма, но учитывая то, что вы про градиентный спуск ничего не доказывали, то её наличие в статье не особо понятно. А вот зачем в статье теоремы Ролля и Лагранжа? Они не понадобятся даже если кто-то, прочитав эту статью, решит разобраться в обосновании градиентного спуска или его основных модификациях.
Я думаю, это удобно: зайти на Хабр и быстро посмотреть

Представьте, что каждый пользователь хабра по прохождению какого-нибудь курса будет писать по 1-2 статьи-конспекта, думаете это будет удобно?

P. S. Мне кажется, что сам конспект довольно хорош, но мне непонятно, зачем вы его пишете здесь на хабре.
Кажется вы путаете симплекс-метод для задачи ЛП (о котором идет речь в статье) с методом Нелдера-Мида
Что примечательно — на википедии по этому поводу специальный эпиграф, видимо часто путают

This article is about the linear programming algorithm. For the non-linear optimization heuristic, see Nelder–Mead method.

Not to be confused with Dantzig's simplex algorithm for the problem of linear optimization.
Статья хорошая, проделана довольно большая работа, однако вынужден согласиться с x67 — не совсем понятно, чем ваша статья лучше описаний в методичках (к слову я рекомендую первоисточник — книгу Д. Данцига по линейному программированию), чем она их дополняет?

Почему вы ничего не написали про то, как найти начальный базисный план? Вы сами писали симплекс-метод, так что не могли не натолкнуться на эту проблему. К примеру в python/scipy реализован двухфазный симплекс-метод, который в первой фазе как раз ищет начальный базис. Вообще для демонстраций он очень удобен, так как выдает всю последовательность точек, в которых побывал, можно заодно с ним и сравнение сделать.

Еще, кажется, у вас половина формул написаны нормальным TeX-шрифтом (видимо через встроенный в хабраредактор?), половина скриншотами формул не очень хорошего качества, если нужно, могу помочь это поправить.

Возможно вам будет интересно посмотреть (а может даже и что-нибудь оттуда взять) на мой черновик, который я использовал для анимаций траекторий разных оптимизационных методов.

Надеюсь, вы учтете это, когда соберетесь писать еще статьи. Удачи!
По 3) есть один важный момент: на самом деле в ML используются стохастический градиентный спуск и его модификации, обычный градиентный спуск в ML бесполезен. Просто оказывается гораздо эффективней разбить данные скажем на 100 частей и сделать 100 итераций градиентного спуска учитывая на каждом шаге только одну часть нежели сделать одну итерацию на всех данных. В обоих случаях вычислительные затраты практически идентичны.

Информация

В рейтинге
Не участвует
Откуда
Санкт-Петербург, Санкт-Петербург и область, Россия
Дата рождения
Зарегистрирован
Активность