Это сейчас очки с «большой камерой» не вводят в заблуждение. И смартфон с 6-ю камерами не вводит. Но если бы такой закон существовал лет 20 назад, то до сих пор сидели бы с каким-нибудь Nokia 3310, потому что в новых телефонах — камера, куча памяти на флешке под диктофон, GPS, все дела. А если бы существовал 30 лет назад, то и Nokia 3310 не было бы, т.к. телефон должен быть красный, с диском и трубкой на проводе, иначе «вводит в заблуждение». И камера должна быть размером с чемодан и трещать при съёмке, иначе вводит в заблуждение.
Я не понял, о какой именно городской легенде идёт речь:
Гугл сделал из Хромов ботнет, через который «исключительно люди» посещают и вручную мониторят все бинарники и лендинги?
Хром каждого пользователя отсылает в Гугл всё, что скачивает для «исключительно людей»?
В Хроме есть какая-то доп. функциональность для «исключительно людей» в стиле «прокликай 1000 ссылок, которые мы предложим, и получи $1»?
Во-первых, это всё чушь (с вероятностью 99.9%). Во-вторых, это не опровержение, не подтверждение, и вообще никаким боком не связано с моим постом: куча вполне легитимных ботов в Сети вполне легитимно и открыто кладут с прибором на robots.txt.
Когда очень надо, чихать хотел и Google, и Яндекс, и все прочие на robots.txt. Не только зайдут, но ещё и анонимно, маскируясь под пользователя. Просто потому, что иначе не сделать хоть сколько-нибудь работающий SafeBrowsing и не проконтролировать адекватность страниц, на которые ведут рекламные объявления. Если не ходить под robots.txt и не маскироваться, то первый же школьник догадается спрятать очередной «Internet speed booster» с трояном под robots.txt или отдавать заготовленный «хороший» landing только *bot'у, а всем остальным — какое-то говно, которое нарушает все правила рекламного сервиса.
Есть и другие легитимные активности, которые намеренно и в открытую игнорируют robots.txt для выполнения своей функции.
Статья называется «Наша проблема…», а автор из Гугла.
В гугле нет проблемы конфликта версий. В общем репозитории одна версия. А про обновления в статье есть: нужно соблюдать баланс, т.к. обновлять слишком редко — затраты на само обновление (стремятся к затратам на добавление новой зависимости) и риск не получить обновление безопасности, а обновлять слишком часто — относительно мелкие, но частые затраты на review приехавших изменений. Можно поэкспериментировать с новыми версиями, и обновить, если оно того сто́ит.
А чем это отличается от обычного монорепа? Например, тот же svn уже стопицот лет умеет partial checkout, и каждый подкаталог, и даже файл можно выкачать нужной ревизии. Только, в отличие от git'а, выкачивается не вся история, а только нужная ревизия.
Уникальность результатов и предвзятость — совершенно разные вещи.
В поиске одновременно(!) идёт большое число (сотни) экспериментов (A/B тестирование). Каждый (!) пользователь участвует в нескольких сразу. Набор экспериментов для каждого уникален, с хорошей точностью. Поэтому да, результаты уникальны.
Эксперименты пользователю назначаются случайно, на основе hash(ID), который присваивается даже анонимному пользователю при первом обращении. Но случайное исправление выдачи ≠ предвзятость.
Значит Gmail — плохой пример в данном конкретном случае. Ибо бурная деятельность тут происходит не на уровне JS, а как раз на тех уровнях, где статическая типизация. И JS мог развиться до любых высот, но есть груз легаси в инструментах компиляции и потребность запускаться на legacy-браузерах.
Вытащить информацию о типе можно и в питоне, например. Питон — строго типизииованный, но не статически. К слову, в стиле duck typing можно херачить на, наверное, любом языке с достаточно мощным reflection'ом, например на Go.
Так Gmail-то как раз — про статическую типизацию. Исходно там были всякие Java+GWT и Closure со включённой строгой типизацией при компиляции. Финальный JS, который грузится на клиент — машиногенерённый, как байткод Java, который, к слову, тоже не особо statically typed со своими дженериками через object.
А как узнать среднерыночную стоимость скиллов? Объявления о вакансиях не предлагать, там заниженные данные. Кроме того, наиболее интересные предложения вообще не появляются в общем доступе с ценами, вроде того же Гугла.
Тигр был лучше Т34 объективно, но войну проиграл. Lamborghini лучше Lada, но популярнее Lada. И всё это не по идеологическим причинам, а вполне по экономическим.
Так же и со всеми языками, операционками и прочим софтом. Всё было обусловлено экономически. Требовалась ОС, которую можно кастомизировать, и дешевле оказался кривой Linux, чем коммерческие UNIX'ы. ЯП выигрывают, когда появляется много раб. силы соответствующей квалификации по соответствующей цене.
Баян-таки случился IRL!
https://xkcd.com/327/
Это цитата из статьи. Я округлил процентов на 10-20 всего. :)
60000 руб. / 30000 посещений = 2 копейки/посещение. В 100 раз дешевле, чем у конкурентов!
Я не понял, о какой именно городской легенде идёт речь:
Во-первых, это всё чушь (с вероятностью 99.9%). Во-вторых, это не опровержение, не подтверждение, и вообще никаким боком не связано с моим постом: куча вполне легитимных ботов в Сети вполне легитимно и открыто кладут с прибором на robots.txt.
Есть и другие легитимные активности, которые намеренно и в открытую игнорируют robots.txt для выполнения своей функции.
Статья называется «Наша проблема…», а автор из Гугла.
В гугле нет проблемы конфликта версий. В общем репозитории одна версия. А про обновления в статье есть: нужно соблюдать баланс, т.к. обновлять слишком редко — затраты на само обновление (стремятся к затратам на добавление новой зависимости) и риск не получить обновление безопасности, а обновлять слишком часто — относительно мелкие, но частые затраты на review приехавших изменений. Можно поэкспериментировать с новыми версиями, и обновить, если оно того сто́ит.
А чем это отличается от обычного монорепа? Например, тот же svn уже стопицот лет умеет partial checkout, и каждый подкаталог, и даже файл можно выкачать нужной ревизии. Только, в отличие от git'а, выкачивается не вся история, а только нужная ревизия.
Ага, и рабочий стол асбестовый.
Уникальность результатов и предвзятость — совершенно разные вещи.
В поиске одновременно(!) идёт большое число (сотни) экспериментов (A/B тестирование). Каждый (!) пользователь участвует в нескольких сразу. Набор экспериментов для каждого уникален, с хорошей точностью. Поэтому да, результаты уникальны.
Эксперименты пользователю назначаются случайно, на основе hash(ID), который присваивается даже анонимному пользователю при первом обращении. Но случайное исправление выдачи ≠ предвзятость.
Значит Gmail — плохой пример в данном конкретном случае. Ибо бурная деятельность тут происходит не на уровне JS, а как раз на тех уровнях, где статическая типизация. И JS мог развиться до любых высот, но есть груз легаси в инструментах компиляции и потребность запускаться на legacy-браузерах.
Вытащить информацию о типе можно и в питоне, например. Питон — строго типизииованный, но не статически. К слову, в стиле duck typing можно херачить на, наверное, любом языке с достаточно мощным reflection'ом, например на Go.
Так Gmail-то как раз — про статическую типизацию. Исходно там были всякие Java+GWT и Closure со включённой строгой типизацией при компиляции. Финальный JS, который грузится на клиент — машиногенерённый, как байткод Java, который, к слову, тоже не особо statically typed со своими дженериками через object.
Тогда в городе нужно двигаться не быстрее 5 км/ч и автомобили не нужны — пешком быстрее и здоровее.
Так Роскомпозор для этого и создавался, а не для политцензуры.
Будет. Потому что сейчас заносят только «не те».
А как узнать среднерыночную стоимость скиллов? Объявления о вакансиях не предлагать, там заниженные данные. Кроме того, наиболее интересные предложения вообще не появляются в общем доступе с ценами, вроде того же Гугла.
Тигр был лучше Т34 объективно, но войну проиграл. Lamborghini лучше Lada, но популярнее Lada. И всё это не по идеологическим причинам, а вполне по экономическим.
Так же и со всеми языками, операционками и прочим софтом. Всё было обусловлено экономически. Требовалась ОС, которую можно кастомизировать, и дешевле оказался кривой Linux, чем коммерческие UNIX'ы. ЯП выигрывают, когда появляется много раб. силы соответствующей квалификации по соответствующей цене.