2 раза сталкивался с такой ситуацией. Пытаюсь расплатиться нечипованной картой (только магнитная полоса), а POS запрашивает PIN. Я отказываюсь вводить — транзакция отклоняется (вариант с подписью не предлагается).
Тем не менее интересен сам порядок цифр. Я до этого не сталкивался с практическим machine learning. Есть только базовые теоретические знания и желание перейти к практике (есть ряд подходящих задач). Всюду говорят, что обучение может занять значительное время, но непонятно: значительное — это сколько?
20 секунд для массива из миллиона элементов и 100 features — это нормально, много, мало? Или при использовании неоптимизированнных однопотоковых алгоритмов для подобных массивов следует ожидать часов и дней на тренировку сети?
Поэтому производительность контретно этого случая может быть показательной (алгоритм, библиотеки, и особенности реализации известены, нужно лишь сделать поправку на железо).
Не понял, откуда картинка берётся? К компьютеру вроде не подключен. Или по Wi-Fi работает? Т.е. драйверы какие-то нужны. Тогда для каких операционок? Мобильник можно подключить?
В статье написано, что если хакерам удалось установить вебсервер, то технически нет никаких преград заставить взломанный сервер (не nginx) заниматься и прочей деятельностью, присущей классическим ботнетам, как то рассылкой спама, DDOS атаками, и т.д. Однако в настоящий момент этому нет никаких подтверждений.
Нет всё на разных серверах. iframe'ы вставляют на страницы хакнутых сайтов. А этот iframe уже ссылается на сервер, контролируемый хакерами, откуда, после ряда редиректов, происходит загрузка вредоносных кодов.
DoS был. Но не у Гугла, а у StopBadware. На них ссылка была с гугловской страницы, которая объясняла, что на сайт лучше не переходить — там бяка, а с вопросами обращаться в StopBadware. Вот куча народу и обратилось к ним. А их сайт на такой аншлаг расчитан не был. В обычной жизни к ним ходят в сотни, а то и в тысячи раз реже, чем в эти 40 минут.
На счёт iPhone точно подмечено. На сколько я знаю суть иска Perfect 10, он продают свои фотографии для загрузки на мобильники, а превьюшки в поиске делают их бизнес менее рентабельным (если не сказать больше), так как можно в Image Search получить картинку «мобильного» качества и размера не платя при этом никаких денег.
А вообще этот судебный процесс — обходной манёвр. У них главный враг — пираты, вытащившие их фотографии с платного сайта и разместившие их в свободном(или не очень) доступе. А поисковики — один из основных путей нахождения бесплатных копий фотографий. Вот они и пытаются всячески заставить поисковики не выдавать в результатах пиратский контент.
А так как поисковикам в автоматическом режиме трудно различать, где законный контент, а где незаконный, они борятся с ним пост-фактум. с каждым урлом по отдельности, и зачастую после соответствующих экспертиз и судебных решений. В общем не эффективно, учитывая с какой скоростью сворованные фотографии распространяются по сети.
Вот правообладатели с немалыми деньгами на адвокатов и ищут обходные манёвры, чтоб уменьшить поток посетителей с поисковиков на пиратские сайты. А адвокатам лишь дай цель прикопаться — вот и получаются иски по принципу «Так не доставайся же ты никому!»
Но Гугл тоже не прост. В Европе они не на своём поле играют, а в штатах после неоднозначных судебных решений им удавалось выигрывать апелляции.
Ну тут вопрос не в бизнес-модели этих сервисов (она мне тоже не вполне ясна), а в том, что они тоже стараются наполниться за счёт нерегистрируемых пользователей. Расчёт у них в первую очередь на вирусную модель, так как человек закачавший файл, поделится ссылкой как минимум с ещё одним человеком, а тот, если понадобится, в следующий раз может быть тоже выберет этот же сервис и, в свою очередь, разошлёт ссылку по своим знакомым. А так как порог входа минимальный (нужно лишь закачать свой файл), то такая модель работает.
Ну дальше уже работают другие законы. Кто первый раскрутился и при этом смог обеспечить стабильную работу сервиса под увеличившейся нагрузкой, тот и подмял под себя большую долю этого сегмента. Для новых сервисов вирусная модель уже не будет хорошо работать, так как многие люди, получившие ссылку на скачивание, уже знают и возможно используют другие подобные сервисы. Тут новичкам ещё придётся доказывать, чем они лучше, чтоб на них переключились.
Первое, что приходит на ум — file sharing и picture sharing сервисы.
Например RapidShare и TinyPic.com — чтоб закачать свои файлы и получить ссылку для скачивания, регистрация не нужна
Присоединяюсь. Не будет аськи — найдутся другие способы балду пинать. Закрутят гайки ещё сильней — атмосфера на работе заметно ухудшится. Народ будет больше поглядывать налево, подыскивать другую работу.
Сам в офисе уже давно не работаю, но в иностранных фильмах часто можно увидеть, что вместо курилки там народ трепится и социализируется вокруг диспенсера или кофе-машины.
Видел статистику, что среди сайтов, на которых можно подцепить троянов, порнушные и варезные сайты составляют не больше 10%. Остальные же — обычные сайты любых тематик, которые были незаметно для владельцев взломаны. Трояны были в своё время найдены даже на сайтах ООН и какой-то службы английского премьер-министра.
В общем, подцепить заразу сейчас можно всюду. Повода для паранойи ещё нет, но и расслабляться не стоит, считая, что опасность исходит лишь от сайтов сомнительного содержания.
Спасибо., за ссылку. Почему-то эту статью я пропустил…
Кстати она совершенно не отрицает того, что я написал в этом посте.
Статья начинается с того, что они говорят, что они уже сканируют JavaScript и Flash на предмет обнаружения ссылок.
А в описании алгоритма генерации URL's для сабмита GET форм, сказано, что для заполнения текстовых полей googlebot автоматически подбирает слава, найденные на сайте, на котором размещена форма. Поэтому следовало бы ожидать, что он проиндексирует страницу с URLом с заполненым параметров, а не с пустым (благо слов на на сайте достаточно и у бота не должно было возникнуть проблем с выбором ;-)
Как объяснить такое?
20 секунд для массива из миллиона элементов и 100 features — это нормально, много, мало? Или при использовании неоптимизированнных однопотоковых алгоритмов для подобных массивов следует ожидать часов и дней на тренировку сети?
Поэтому производительность контретно этого случая может быть показательной (алгоритм, библиотеки, и особенности реализации известены, нужно лишь сделать поправку на железо).
P.S. Кстати, сколько всего признаков получилось?
Ясно, что есть проблемы, но не указан их порядок.
Т.е. хочется узнать
1. размер тренировочного массива данных (приблизительное количество записей в логах)
2. сколько времени заняла тренировка сети.
В статье написано, что если хакерам удалось установить вебсервер, то технически нет никаких преград заставить взломанный сервер (не nginx) заниматься и прочей деятельностью, присущей классическим ботнетам, как то рассылкой спама, DDOS атаками, и т.д. Однако в настоящий момент этому нет никаких подтверждений.
конструкцию ...dumb(): pass" автоматически прочитал как dumbass ;-)
А вообще этот судебный процесс — обходной манёвр. У них главный враг — пираты, вытащившие их фотографии с платного сайта и разместившие их в свободном(или не очень) доступе. А поисковики — один из основных путей нахождения бесплатных копий фотографий. Вот они и пытаются всячески заставить поисковики не выдавать в результатах пиратский контент.
А так как поисковикам в автоматическом режиме трудно различать, где законный контент, а где незаконный, они борятся с ним пост-фактум. с каждым урлом по отдельности, и зачастую после соответствующих экспертиз и судебных решений. В общем не эффективно, учитывая с какой скоростью сворованные фотографии распространяются по сети.
Вот правообладатели с немалыми деньгами на адвокатов и ищут обходные манёвры, чтоб уменьшить поток посетителей с поисковиков на пиратские сайты. А адвокатам лишь дай цель прикопаться — вот и получаются иски по принципу «Так не доставайся же ты никому!»
Но Гугл тоже не прост. В Европе они не на своём поле играют, а в штатах после неоднозначных судебных решений им удавалось выигрывать апелляции.
Ну дальше уже работают другие законы. Кто первый раскрутился и при этом смог обеспечить стабильную работу сервиса под увеличившейся нагрузкой, тот и подмял под себя большую долю этого сегмента. Для новых сервисов вирусная модель уже не будет хорошо работать, так как многие люди, получившие ссылку на скачивание, уже знают и возможно используют другие подобные сервисы. Тут новичкам ещё придётся доказывать, чем они лучше, чтоб на них переключились.
Например RapidShare и TinyPic.com — чтоб закачать свои файлы и получить ссылку для скачивания, регистрация не нужна
В общем, подцепить заразу сейчас можно всюду. Повода для паранойи ещё нет, но и расслабляться не стоит, считая, что опасность исходит лишь от сайтов сомнительного содержания.
Кстати она совершенно не отрицает того, что я написал в этом посте.
Статья начинается с того, что они говорят, что они уже сканируют JavaScript и Flash на предмет обнаружения ссылок.
А в описании алгоритма генерации URL's для сабмита GET форм, сказано, что для заполнения текстовых полей googlebot автоматически подбирает слава, найденные на сайте, на котором размещена форма. Поэтому следовало бы ожидать, что он проиндексирует страницу с URLом с заполненым параметров, а не с пустым (благо слов на на сайте достаточно и у бота не должно было возникнуть проблем с выбором ;-)