Pull to refresh

Comments 26

Да, Making of the Fly здорово прогремела в интернете. Для тех, кто пропустил: habrahabr.ru/blogs/crazydev/118114/

Но я бы больше боялся ошибок производственных алгоритмов: фармацептических, биологических и химических.
В той истории (про книгу) было бы интересно посмотреть на переполнение и покупку книги за отрицательную цену, жаль что с вероятностью 100% не продали бы по отрицательной цене.
Не думаю, что переполнение сработало бы так. К тому же я почти уверен, что цены unsigned
Если вообще целое число.
Наверняка целое. В Amazon врятли совсем идиоты сидят
Так скрипты не амазоновские ведь, а двух магазинчиков, которые друг на друга ориентировались. А что там у них — кто знает :)
Ну вот у Apple был недавно случай, когда: Разработчик заплатил 122 раза за копию «Льва»
А где можно подробно почитать про Demand Media и Google?
в какой-то статье в журнале «Хакер» было про Demand Media. Поищите у них на сайте.
"Один из алгоритмов Goldman Sachs был опубликован в интернете"

Кто-нибудь знает где скачать? :)
Компьютеризация и, соответственно, применение алгоритмов — это ведь к лучшему. Не понимаю этот страх перед прогрессом.
Алгоритмы колоссально упрощают жизнь и гораздо реже совершают ошибки, чем люди. Человеческий фактор дает о себе знать.

Взять хотябы пример из статьи с рекоммендациями к фильмам. Рекоммендательные сервисы основываются на моих предпочтениях,
… тогда как друзья рекомендуют фильмы, исходя из их собственных вкусов.

извиняюсь, случайно отправил.
>Алгоритмы колоссально упрощают жизнь и гораздо реже совершают ошибки, чем люди

и это плохо. любое развитие — всегда результат ошибки. если бы ДНК всегда реплицировалась со 100%ой точностью, эволюции бы не было

>Взять хотябы пример из статьи с рекоммендациями к фильмам. Рекоммендательные сервисы основываются на моих предпочтениях,

и вы не открываете для себя ничего нового до тех пор, пока не жмете на рендом. а как работает рендом в рекомендациях — тоже нужно еще выяснить.
> любое развитие — всегда результат ошибки. если бы ДНК всегда реплицировалась со 100%ой точностью, эволюции бы не было

Нет не любое, ошибки при репликации ДНК часто ведут к смерти, это не похоже на развитие. И как будто алгоритмы не эволюционируют.

> и вы не открываете для себя ничего нового до тех пор, пока не жмете на рендом.

Вы так говорите как будто это плохо. Рекомендательные сервисы на то и рекомендательные, что они рекомендуют то, что вам может понравиться, а не просто с потолка берут какие то значения.
>Нет не любое, ошибки при репликации ДНК часто ведут к смерти, это не похоже на развитие.

у вас с логикой все хорошо? любое развитие — следствие ошибки.
вы же говорите о том, что не любая ошибка ведет к развитию.
Я бы смягчил формулировку. Не ошибки, а выхода за рамки предложенного, изменения оснований. Мутацию нельзя назвать ошибкой, это изменение под воздействием среды, «шаг в сторону».
> любое развитие — следствие ошибки.
Это что, аксиома? Если я не согласен с этим, это не значит что у меня проблемы с логикой. ошибка в днк часто ведет к смерти, это развитие по вашему?
Понимаешь, твои предпочтения для подобных систем не являются статистически значимыми, они учитывают их в рамках больших чисел и применимых законов матстатистики.

Если я ищу английскую киноклассику 60-х годов будет ли система советовать мне подходящие фильмы? Лишь отчасти и если фанатов английской киноклассики 60-х годов достаточно много, чтобы сформировать какой-то явный кластер. Это при учете, что там используются более или менее навороченные алгоритмы, которые умудряются исходя из кучи параметров формировать кластеры, а включен ли в явном виде в эти параметры год выпуска? Если нет — результат будет серьезно размытым, так как он плохо выражается через другие. А учитывают ли они то, что у актера в главной роли основное амплуа комедийное, но в твоих любимых фильмах он играет драматическую роль или еще более сложные варианты?

А если я ищу очень самобытную музыку, когда буквально одним альбомом или парой треков на нем направление начинается и тут же исчерпывается?

Собственно это и излагает автор лекции, любой алгоритм есть продолжение видения его автором изучаемого предмета. Если он хороший ученый или аналитик он начнет с крупных сущностей и факторов, но если строить алгоритм на них мелкие то «острые» в статистическом плане вариации поведения пользователя будут размыты, сглажены как ненормальные ошибки. Если он начнет вдаваться в детали, то у алгоритма есть шанс «потонуть» в плане стабильности работы для основной массы пользователей, а это недопустимо, так что в жертву всегда будут принесены люди, ищущие что-то весьма оригинальное, существующие же массовые тренды будут усилены многократно, какие бы обратные экспоненты не применялись к тому, что измеряет их вкусы.

Нет, конечно есть перспективы в области архитектурно замороченных нейросеток, которые пророчат нам системы, которые, не забывая про типичные паттерны поведения будут не меньше значение придавать даже штучным совпадениям (сегодня искал английскую классику, завтра смотрел трейлеры какого-то киберпанка и таких всего пятеро из миллиона), но пока вести с фронтов откровенно печальные.
UFO landed and left these words here
Например, я покупаю в книжном интернет-магазине книги из разделов «научная фантастика», «вычислительная математика», «иммунология» — для себя, и какое-нибудь «мыло» по просьбе подруги, чтоб за доставку не переплачивать. Алгоритм определения моих предпочтений мне после этого предлагает тонну мыла, что-нибудь на срезе математики и медицины и популярной фатнастики. Ему невдомек, что иммунологию я покупал из-за автора, выч.мата мне достаточно одной, но качественной книги, а научная фантастика мне нравится определенного типа. И надпись «те, кто интересовался тем же, часто покупают ...». А мне плевать на «тех же». Модель «меня» настолько примитивна, что в 90% случаях наши мнения расходятся. И самое плохое — я не знаю, по каким критериям оценивают меня и на каких основаниях мне дают именно эти рекомендации, а значит не могу оценить адекватность модели.
Бояться не нужно, нужно знать!
Алгоритмизация нашей жизни происходит уже даже без непосредственного участия машин, тут уже речь об алгоритмизации нашего мышления. Тут можно копать глубже, если уж так посмотреть-то традиции, суеверия, и т.д.-классический признак стандартных алгоритмов.

Оффтоп: Лично у меня вообще вкусы настолько разноплановые, что все подобные сервисы по изучению моих пристрастий с ума сходят))
> они проложили кабель длиной 1300 км
> по прямой линии между Нью-Йорком и Чикаго
Автор (не переводчик) драматизирует — мог бы просто сказать что приватная сеть и величину задержек.

Вот пресс-релиз www.spreadnetworks.com/media/12084/low%20latency%20wave%20services%206-14.pdf

В июне 2011 стали предлагать гарантированную задержку 14,75мс по многомодовому волокну.
Плюс есть отдельное волокно для тестов — 13,33мс, что даёт расстояние примерно 4000км.
А также фраза
>> To build this network, Spread Networks literally trenched
>> a long-haul route on the shortest possible path
>> connecting these two financial centers."
подтверждает, что нет никакой прямой линии сквозь земную кору ;]
Only those users with full accounts are able to leave comments. Log in, please.