Pull to refresh

Comments 156

В чем то повезло, так как проблема сразу видна и можно начинать ее решать.
А у нас вот на прошлой неделе была менее приятная история. KAV внес в свой черный список один из десяти наших урлов запросов к бекенду, причем только один и именно тот, который работал в корзине на этапе финального оформления заказа.
Заметили случайно. Неделя ушла на ожидание когда уберут. 3 года все было ок, и на тебе. Пользователи, у которых стоял KAV не сообщали об этом, наш мониторинг детектировал эту ситуацию как отсутствие связи с сервером.
UFO just landed and posted this here
Заглянул недавно в свой список понравившихся видео и список «посмотреть позже» в Ютубе, а там дыры в виде «Видео удалено», «Видео недоступно» и т.п.
Поэтому, решил таки скачивать видосики постепенно. Пусть лежат на винте.

И на гугловый аккаунт ничего не завязываю, никаких авторизаций и т.п. Ведь банить они любят, и банят сразу всё, что связано с акком. И даже «аффилированные» аккаунты.
Меня так Гугл на какое-то время банил в Адсенсе, сняв монетизацию со всего канала, по причине — «ваш аккаунт связан с аккаунтом-нарушителем». Кто этот нарушитель — не уточняется. На канале ни одного страйка, ни одного нарушения вообще. На имейлы никто не отвечает, на роботизированные имейлы отвечает робот со ссылками на правила адсенса, юутба и видеокурс «как делать свой, оригинальный контент». Через какое-то время разбанили, но монетизация не включилась, и пришлось ждать месяца три, пока она включится (я уже решил, что это такая форма бана и нужно регать новый, вместе с новым адсенсом на паспорт моей собаки). Но потом включилось назад.
По моему личному опыту, это совершенно стандартная практика организации службы поддержки в американских компаниях. Недавно имел феерический опыт общения со службой поддержки Ebay: сообщил им об ошибке в программе на сервере, которая неверно детектировала наличие ссылок на сторонние сайты в моём письме покупателю (ссылок не было). В ответ на это мне позвонили из службы поддержки и, после тщательной проверки моей личности, моих товаров, моего номера телефона и прав на аккаунт, с удовлетворением сообщили, что с моим аккаунтом всё в порядке. Разумеется, исправлять ошибку в софте никто и не собирался. В ответ на моё заявление, они начали проверять меня и мой аккаунт, а не себя и свой софт. Но у Ebay хотя бы с живым человеком есть шанс поговорить, а PayPal просто с автоответчиком отправляет переписываться. И так примерно везде.
image
Отсюда вывод: монополисты — зло, им плевать на людей. Кто-то из менеджмента PayPal прямо говорил, что жалобы для них — это как скрип колёс едущей телеги.
Про PayPal не правда. Общался голосом с техподдержкой. На русском.
Я тоже так считал. Но время идет. Гугл захвачен инопланетянами :)
Так вот кто кушает оперативку в хроме!
UFO just landed and posted this here
Я вижу, что в Google меняется в сторону максимизации прибыли за счет уменьшения расходов на все и вся.
Насколько я вижу, все успешные случаи спасения — только через прессу.
UFO just landed and posted this here
Я года четыре назад заметил, когда они гугл мэпс испохабили. Тренд уже тогда был заметен.

У налоговой РФ есть ровно один канал связи по вопросам работы интеренет сервисов: форма обратной связи на сайте. Соответственно, когда лежит, например, сервис регистрации кассовых аппаратов, ты можешь только писать обращения через форму, на которые робот отвечает, что оно будет рассмотрено в течении месяца. Всё чудесатей и чудесатей.

UFO just landed and posted this here
А вот не факт. Посмотрите на рынок ОСАГО. Крупные страховые не только не пытаются конкурировать друг с другом, но ещё и пытаются избавиться от невыгодных клиентов.
UFO just landed and posted this here
Нет, не сговор, просто следствие спускания сверху тарифов вместо рыночного регулирования.

И в случае налогов будет аналогичная ситуация: во многих случаях накладные расходы, связанные со взиманием налогов, будут превышать сами налоги.
UFO just landed and posted this here
А не проще ли часть налогов объединить, часть — отменить.

Проще, конечно. Но государство обычно действует ровно наоборот.

накладные расходы выше ожидаемого дохода с налогов — вообще не взимать их? Зачем разводят бюрократию?

Замечательные примеры — письма из налоговой на три-десять копеек, да даже рублей, письма от приставов на такие же суммы. При стоимости самого письма, без учёта работы над ним сотрудника (точнее, наверняка не одного) — 16-60 рублей… :(
UFO just landed and posted this here
К сожалению, это реальность. Довелось поработать в бюджетных учреждениях, сам это видел воочию и тоже спрашивал — «вы упоролись чтоли, из-за десяти рублей, отправлять письмо стоимостью двадцать?!»
Проблема в том, что сотрудник (часто «запуганный») отступить от порядка не способен, даже не осмелится сообщить об этом «нонсенсе» руководству, да и руководство иногда боится отступить. Зато криво-косо потратить выделенные средства — влёгкую, потому что это остаётся «внутри», а подчинённые не сдадут (боятся же).
UFO just landed and posted this here
Да там и у руководства в башке умудряются уживаться «взаимоисключающие параграфы» (даже не двойные, а тройные, а иногда, аж четверные, стандарты). С одной стороны оно хочет знать всё, контролировать всё и рулить всем, с другой — не хочет не только слушать, но и слышать о чём либо, кроме хвалебных од или трижды никому (и ему самому) не нужных отчётов. Сотрудник должен работать не как лучше, быстрее, оптимальнее или другими способами, а так, как я сказало!
При этом только в одной организации, руководитель (видимо сказывалась «старая закалка» или он просто был вот такой — правильный), руководил именно ради эффективности, экономии и т.д. А иногда, даже заставлял отказываться от реально копеечной экономии средств, ради быстрейшего выполнения задачи, в итоге экономя может не средства, но время других сотрудников, ожидающих её решения. А я просто из-за отсутствия опыта, не мог охватить всю панораму :) Но это было давно, все «новые» руководители заняты реально какой-то хернёй. С одной стороны их можно было бы понять, над ними же висят «проверки», «надзоры» и чёрт в ступе. А с другой, они не принимают улучшений, которые по определению не могут возбудить проверку, не привлекут надзор.

А когда появляется человек говорящий прямо, например достало одного из сотрудников или пришёл новый, работает он не очень долго. Вместо рассмотрения его предложений — чуть не истерики, вида «да, как ты смеешь (сопляк)?!» или «царь я или не царь?!». Старые сотрудники, даже трижды специалисты, иногда одумываются, им надоедает биться лбом в стену, они просто уходят. Иногда правда громко хлопнув дверью, а в руководстве происходят перестановки или слёты :D
UFO just landed and posted this here
Я помню, что многие считали монополистом Microsoft, но она никогда так грязно не пользовалась своим положением, как Google или Oracle.

В те времена, когда MS царствовала — писалось ровно обратное.
Не удивлюсь, что это писали и вы в том числе.
> Microsoft, но она никогда так грязно не пользовалась своим положением, как Google или Oracle.
Ну да, конечно… Классический пример — это docx формат.
Классический пример — это docx формат.

Не соглашусь.
Это их собственный формат, их собственное дело как там они его внутри крутят.

А вот их браузер — будет примером получше.
> А вот их браузер — будет примером получше.
По такой же логике: это их собственная ОС, их собственное дело что они там внутри предустанавливают.
гугл давно уже не торт — поройте на досуге о банах приложений в гугл плейе
Согласен.
Но есть разница, что в гугл плэй вы сами программы несете.
Можете нести их в другое место.
А GSB это практически бан на весь Интернет
одно уточнение — по факту за пределами гугл плея оказалось жизни нет… т.е. какие-либо установки из других мест даже не в пределах погрешности
так и есть, только GP дает инсталы, на остальные магазины лучше даже время своё не тратить
А GSB это практически бан на весь Интернет

Бан в Google Play — это практически бан на весь Android.
А ведь ещё и весь гугловый аккаунт обычно отправляется туда же.

UFO just landed and posted this here
Тоже столкнулся с подобной проблемой.
В разное время была потребность создать в консоли Google Play 2 проекта тестовых.
Оба небыли даже никогда опубликованы, и даже страницы не заполнены для публикации. Но однажды (через несколько лет после их создания) пришел гугл-робот и оба их заблокировал, поставив аккаунт на грань блокировки… Без каких-либо объяснений или хотя бы ссылок на то что эти приложения нарушали. Хотя повторюсь — ничего нарушать они в принципе даже не могли. Ибо оба были не дооформленными проектами

Старые проекты блокируются из-за новых галочек в свойствах проекта. При установке новых галочек блокировка снимается. Со мной так делали несколько раз. Правда найти неустановленные галочки все сложней — консоль делают боги дизайна пользовательского интерфейса.

Если вы потеряли прибыль из-за гугла — фиксируйте потерю и подавайте в суд(лучше не российский). Возможно вам что-то компенсируют.
неплохо было бы подать коллективный иск, иначе это слишком дорого.
Продолжайте писать в спортлото.
Продолжайте писать в спортлото.

Прецедентов с успешными коллективными исками полно.
Почитайте историю возникновения общества охраны прав потребителей в США.
Многое для себя откроете. Там было очень непросто, но они победили-таки в судах над корпорациями.
Я думаю тут посыл был в том что автор после всего этого вместо того что бы обратится в жадную адвокатскую контору с предложением чутка погреть руки на коллективном иске пишет статью на хабре (т.е. пишет в спортлото).
«В этой стране» нет «коллективных исков».
В этой стране и гугла-то нету.
Вы же не думаете что гугл станет судиться с вами в этой стране?
А вы хоть когда-нибудь судились не в России? Вы знаете, сколько стоят адвокаты? Почему вы думаете, что ваш адвокат будет лучше гугловского и вы выиграете?
Почему вы думаете, что ваш адвокат будет лучше гугловского и вы выиграете?

Ну теоретически адвокат действительно может оказаться лучше гугловского. Но на практике — любая крупная корпорация может достаточно долго затягивать процесс, пока у вас не кончатся деньги на адвоката, после чего вы отзовете свой иск.
Меня удивляет массовость этих комментариев про «да здравствует самый гуманный и справедливый суд в мире (любой, кроме российского)»? Только под этим постом их несколько.
UFO just landed and posted this here
Почему бы и нет? Вот только такого адвоката, который согласится работать за будущий процент, причем достаточно туманный — найти непросто, особенно если хочется опытного. Это все же может оказаться, что год или два проработаешь задаром, а потом окажется что companyname выигрывает к тебя в суде, и нужно обращаться в суд высшей инстанции, и еще 2 года работать за идею. Я не знаю как на самом деле обстоят дела, но чисто умозрительно — мне поиски такого адвоката кажутся проблематичными.
UFO just landed and posted this here
Ну я так понимаю во всяких там штатах это работает так:
1. Идем в крупную адвокатскую контору (или как они там называются).
2. Рассказываем там что злая корпорация со стопятидесятизначными доходами обидела целую кучу маленьких людей.
3. Контора говорит «ни слова больше» и начинает готовить Class Action suit, в т.ч. искать как можно больше потерпевших.
4. Большая злая копроция в случае положительного решения вопроса облагается штрафом в % от годовой прибыли (что бы корпорации больно было) с которого все пострадвшие и их адвокаты получают компенсации.

ЕМНИП адвокаты такие дела любят и вцелом относятся к ним как банки к инвестициям с рисками.
Ну вот то что я прочитал — там часто берутся за такие дела, связанные с травмами и получением страховки или возмещения ущерба за травму. Думаю потому что в таких делах высока вероятность выигрыша. А вот как оно с делами касательно таких моментов как с статье — не очень ясно, берутся ли за процент или предпочитают другие формы оплаты.
В Firefox вы Google Safe Browsing не найдете.
И это совершенно логично, поскольку графический интерфейс настроек предназначен для массового пользователя, который не знает, да и не собирается узнавать, что такое GSB. Разумеется, там понятное и человеческое описание.

А если вы хотите настроек для профи, то и ищите safebrowsing в соответствующем месте — в about:config.
Не берусь дискутировать на тему, что лучше массовому пользователю.
Надеюсь, статья будет полезна для заинтересованных лиц.
М-да… Там по этому слову куча настроек…
Вспомнилось…
opennet, «Опубликованы результаты аудита системы обновления Firefox»
Анонимм: ну ессьно, не аудит же самого браузера проводить, особенно на предмет шпионажа за пользователями…
macfaq: Это теперь телеметрия называется.

(с) bash.im
Про телеметрию как раз спрашивают, а про защитника нет.
Вот кто бы сказал, как заставить гугл адекватно интерпретировать свои же Mobile Friendly тесты… А то Live Page Test стабильно уверяет, что страницы Mobile Friendly, тесты на других ресурсах тоже прекрасно проходят, а валидатор уже который раз талдычит, будто там content wider than the screen и clickable elements too close together. В гуглогруппах на это многие жалуются, а ответа, как обычно, нет. :(
А у вас CSS в виде внешнего файла или встроенный на страницу?
Если внешний, то возможно файл вовремя не загрузился.
Лучше основную верстку встраивать как Inline CSS.
Файл внешний. Но они ж почти у всех внешние. Да и неправильно это — вставлять в каждую страницу одно и то же. Неужто у гугла такой убогий индексатор, что не обновляет CSS вместе с HTML?
Индексатор не будет ждать долго. Если файл не загрузился за опреденное время, то CSS на странице не будет и все будет Inclinвыглядеть просто ужасно.
Inline CSS для основных стилей позволяет показывать страницу без ошибок красиво и минимально увеличивая ее вес.

Я Вас умоляю. :) У меня объем CSS — 3 кб, а самой большой страницы — 15 кб. :)
Я вчера ошибся. Технология называется Embedded CSS, а не Inline.
Дело может быть не в объеме файлов, а в том что для загрузки CSS требуется отдельное сетевое соединение.
Поэтому для ускорения загрузки и надежности все важное записывают в код самой страницы.
Да кто записывает-то, покажите пальцем?

И «все важное» для mobile friendly — это как раз и будет полный объем используемых стилей. Вы вообще о чем?
Так вы попробуйте вначале, прежде чем ругаться. Может быть, дельный совет.
Такой совет по определению не может быть дельным, иначе 95%, если не больше, существующих сайтов не проходило бы гугловских проверок. Это из разряда «протри фары, попинай колеса». :)
У них проверки вероятностные, легко можно наскочить на ложное срабатывание. Ну в общем, это у вас проблемы, решайте как знаете :)

Я решил помочь тем, что указал на ошибку в рассуждениях, и то как делал бы я: тер бы фары, пинал колёса, молился бы богам разных религий, менял бы реакт на ангуляр, и существует вероятность, что это поможет.

Имхо, это стремительно становится чуть ли не единственной возможной стратегией фоллбэка в мире, где всё управляется нейросетками, и никто уже не сможет сказать — почему именно было принято то или иное решение, оно ведь не «почему», а «так получается».
Я в курсе, что вероятностные. Но запихивать в микроскопические HTML-файлы еще более микроскопические CSS — это последнее, что имеет смысл делать в этой ситуации. Вероятность того, что HTML-файлы будут стабильно грузиться быстро, а CSS — отваливаться по таймауту, сама по себе исчезающе мала, а вероятность того, что это будет происходить только с определенными страницами, не затрагивая остальных — еще более ничтожна.

Если же следовать вышеуказанным «рекомендациям», то можно дойти и до перестановки местами коммутативных тегов, изменения количества пробелов между словами, и подобных методов случайного тыка.
Я написал только потому, что у меня была несколько раз такая же проблема. И в тесте я вижу, что Google не подгрузил CSS.
Поэтому и предложил попробовать.
Но Вы можете не обращать внимания на мой совет.
Возможно, у Вас другая проблема.

Сейчас я вижу, что многие (особенно нагруженные сайты) используют Embedded CSS.
А также Compass CSS для создания картинок-спрайтов. А также внедрения картинок прямо в HTML.
Все это популярно на высоких нагрузках сайтов. Если для чтения страницы нужно требуется создать 20-30 сетевых соединений ( HTML страница, картинки, скрипты, шрифты), то сервер может легко исчерпать лимит доступных соеднинений.
Все это может иметь смысл, но лишь в том случае, если в работе валидатора наблюдается хоть какая-то случайность. В моем же случае, подчеркиваю, Live Page Test стопроцентно успешный, а отложенная валидация столь же стопроцентно неуспешна после почти десятка попыток.
Вероятность того, что HTML-файлы будут стабильно грузиться быстро, а CSS — отваливаться по таймауту, сама по себе исчезающе мала

Я такое наблюдаю довольно часто, когда CSS и HTML лежат на разных серверах.

Это когда с другого сервера импортируется дизайн? У меня, слава богу, все свое. Что, впрочем, не мешает гуглу стабильно лажаться уже второй месяц. :(
Почему же? Оба сервера свои. Один для статики, один для динамики.
А смысл? Какой нужен объем стилевых правил, чтобы использование отдельного сервера дало ощутимый эффект?
Не могу ответить на данный вопрос — не являюсь веб-программистом. Но то, что практически каждый относительно крупный портал раздаёт статику с отдельного сервера с отдельного домена — факт.
Там же не только CSS. Как правило, это cdn компании, там и картинки, и CSS, и JS-ки.
Ну это ж их собственный выбор. Большинство новомодных сайтов откровенно перегружено лишней визуальной информацией и анимацией, поскольку главной целью ставит не решение проблем посетителя, а навязывание ему целей, выгодных компании. Ради этого нехай и возятся со всей сопутствующей лабудой. Реально полезный сайт от такого разделения выиграет очень редко — там гораздо важнее разделение по контенту, явно востребованному посетителем.
Какой валидатор?
Вас должно беспокоить только то, что пишется в GSC (Google Searсh Console).
Если вы говорите про онлайн тест от гугла, она работает уже больше чем пол года через пень колоду, и его результаты ни на что не влияют. На них можно не обращать внимание.
Гугловский валидатор, активизируемый из той самой GSC.

Тамошний же Live Page Test работает как раз адекватно — показывает примерно то же, что и любой браузер в окне того же размера, и его выводы совпадают с выводами всех прочих онлайн-тестировщиков страниц.
Так внутренний голос пробивается сквозь самоцензуру :)
UFO just landed and posted this here
Оффтоп - история с антивирусами
Как-то раз я написал утилиту-лаунчер, которая подменяет в клиенте WoW адрес новостей при запуске. Утилита заняла около 200кб, что мне откровенно не нравилось, поэтому я перенес код на VC6, прикрутил кусочки кода от libctiny и откомпилил с /NODEFAULTLIB. В итоге получилось 3072 байт exe файла, все отлично работало, пользователи счастливы. Ну а затем Avira забила тревогу, а вслед за ней и другие антивирусы: минимальный размер, VirtualProtectEx, подключение к чужому процессу — явные признаки малвари. Я не мог изменить «опасный» характер работы программы, но и антивирусы были не особо умны в те времена, поэтому все подозрительные импорты я заменил на GetProcAddress, а названия функций побил XORом. Трюк обманул половину антивирусов, кроме особо настойчивых, размер подрос до 4кб. Я боролся с ними еще несколько дней, пока мне не прислали красивую иконку для программы — вместе с этой иконкой программа занимала 25кб и успешно проходила проверку всех антивирусов, включая и VirusTotal.
святая иконка, раз бесов изгнать сумела!
та же фигня. написал несколько прог, у которых стандартная библиотека была заменена на простую самописную. правда, в чужие процессы они не лезли. и всегда находилась пару тупых антивирусов, которые находили в них что-то подозрительное. но так как проги были бесплатные и даже без доната, незаметных галочек в установщике и мелкого шрифта в политике конфиденциальности, то я на эти ложные срабатывания клал член.
Лет 10-15 назад был случай еще интереснее.
Антивирус Касперского вдруг решил, что самописный bat-файл — это вирус. Вчера вируса не было, а сегодня — появился! В батнике, делающем бэкапы и останавливающем серверное приложение! Пришлось добавлять в исключения.
А в один прекрасный момент антивирус решил, что в главном .exe-шнике этого приложения завелся вирус. Дата обновления антивирусных баз — позавчера, приложения — месяц. Почему сработал сегодня, а не вчера? Добавил в исключения, но через месяц антивирус его снова скушал. Тот же файл!!! Почему, как — непонятно, да и давно это было. Помню, что писал инструкцию: если сервер утром не работает, проверить что «поймал» антивирус.
Я вам больше расскажу — хотите за 10 минут времени создать проблемы почти любому сайту (ну кроме крупных, жирных и очень известных)?
Добро пожаловать на phishtank.
Регистрируем 8-10 аккаунтов (потребуется только емейл для подтверждения), выбираем понравившийся сайт, добавляем его с одного аккаунта в базу фиштанка (для усложнения жизни владельцу можно в форму при добавлении какое-нибудь письмо с рекламой гей-порно с карликами засунуть).
Оставшимися аккаунтами голосуем за фишинг, пока нам не напишут «This is phish site!».
Готово. Сидим и ждем. Хотя для закрепления успеха можно добавить и http:// и https:// и со слешем на конце и без слеша, или с двумя слешами. А если совсем времени много, то еще и ссылки можно на сайте подобавлять. Зачем? А вот зачем:

Через 6-12 часов подтягивается Аваст и берет оттуда данные. Через 24-48 часов данные расползаются по всевозможным «антивирусам» — comodo, bit defender, clean mx, CRDF, CyRadar… Откуда потом подсасывает данные долбаный virustotal.
Разумеется, НИКТО не проверяет достоверность данных, всем глубоко похрен.

И как результат, большинство «антивирусных» расширений для браузеров, бесплатных антивирусов и другого ПО начинает на указанный сайт ругаться всевозможными способами, от красных табличек, до полноценных страниц, вещающих о том, что сайт страшно опасен и перейти туда смерти подобно.

И чтобы разгрести эти авгиевы конюшни, приходится каждому из этих «антивирусов» писать в техподдержку. На КАЖДУЮ ссылку! Аваст реагирует довольно быстро, остальные тупо складывают известный орган.
Но даже если сойдутся звезды и получится вычистить сайт из баз антивирусов, то «мега-ресурс» virustotal совершенно это не заботит. Нет тебя в базе phishtank'а? Да пофиг, когда-то же был, будем показывать что есть. Нет тебя в bit defender? Не беда, все равно покажем, что был.
Соответственно, любое ПО или сервис, ориентирующийся на virustotal, будет до скончания веков показывать, что на сайте все плохо. Можно долго и планомерно долбить этот убогий ресурс и может быть повезет оттуда вылезть. Но может и не повезти.
Спасибо!
Не знал про него.

Сталкивался с urlhaus.abuse.ch.
Достаточно только Twitter аакунт, чтобы начать броться с вирусами и в том числе можно совершенно анонимно и бездоказательно обвинить любой файл.
Эти друзья рассылают письма хостерам, которые принимают все за чистую монету и блокируют аккаунты.
Да я тоже несколько месяцев назад узнал. После того, как школоте отказали в оплате за «защиту от DDoS-атак», те безуспешно погрызли несколько сайтов и обозлившись добавили их в этот фиштанк по описанной схеме, а оттуда это расползлось повсюду. До сих пор половина сайтов на вирустотале висит и никто из тамошних админов не чешется что-то делать.
Пришлось переезжать на другие домены, с перетягиванием ссылочной массы, т.к. посещения упали в разы.

Вот вам и «свободный интернет, регулируемый сообществом». На вирустотале кстати можно еще подгадить сотней-другой голосов и/или каментов в разделе комьюнити. Разумеется, с примитивнейшей регистрацией через почту. Вроде тоже влияет на рейтинг.
virustotal в 2012 году был перекуплен Google.
Сочувствую. Надо бороться.
Был опыт бодания с Гугловым антивирусом.
На что ругался
Опытным путем выяснилось, что вредоносным помечался js код, где была отправка sendBeacon с содержимым в виде base64(json данных). На эти же данные но без base64 не ругался. Судя по всему, какие-то символы в json совпали с сигнатурой. Идиотизм, в общем.


Оказалось, что быстрее всего Гугловый антивирус реагирует на страницы, продвигаемые в adsense. Регистрирует домен, делаем на нем страницу, где загружается (или есть ссылка) на «вредоносный» файл и добавляем в рекламую кампанию.

На некоторые вещи реакция идет в течение минуты (модерацию не успевает проходить). Видимо, если «вредоносная» сигнатура есть в самом коде. Остальное практически наверняка проверяется в течение суток (если «вредоносное» содержится в каких-то вызовах проверяемого кода).

Что было стабильно — банился весь домен. И любые загрузки с такого домена потом маркируются вредоносными сразу же. Даже через полгода после «тестов» (тестируемый код был с него удален сразу же).

Что тут сказать, спасибо что не доменными зонами сразу банит. Отлаживать 20кБ кода (с десятками разных запросов и обращений к ресурсам) в таком режиме было очень весело.

С содроганием представляю такой ложный детект в каком-то популярном скрипте, который используется на множестве сайтов. Для любого коммерческого сервиса это почти верная смерть. По крайней мере, если сами сайты из-за этого «лягут» с красной плашкой и пойдут прочие сакнкции.
Спасибо за информацию.
Корень проблемы в том, что свой «эвристик» детект GSB выдает за 100% точный.
Хотя это всего лишь повод посмотреть специалисту.

Google Safe Browsing как-то несколько лет назад забанил свой googleapis.com, с которого многие грузили JQuery и т.п.
У меня гугль стал помечать мой сайт опасным после того как я отказался от загрузки гугловских шрифтов и сменил их на локальные (были причины). Аккурат через пару дней — «аяяй, ваш сайт завирусован». Что только не делал — не получилось убрать нотификейшн.
Многие съехали с хостинга скриптов гугла на CloudFlare CDN.
Так это же самый настоящий Выключатель Интернета.
Припоминаю, были несколько лет назад какие-то конфликты у антивируса Аваст с программами на старой версии компилятора Delphi. Антивирус ругался при попытке запуска неподписанной программы с съемного носителя. Даже если эта программа содержала один единственный Return. А при запуске с жесткого диска или с сетевого — никаких вопросов у него не возникало.
Вылечилось это просто, при обновлении версии Аваста.

Ну вот мой личный опыт общения с гуглом:

Несколько лет назад я в составе команды занимался разработкой девайса для автоматизации пищевой промышленности. Команда состояла из пяти человек (кто-то делал слаботочную электронику, кто-то силовую, кто-то чертежи рисовал, лично я там софтом занимался). И все мы не рядом находились, а почти в разных городах. Встречались раз в неделю. В результате, по просьбам трудящихся, вся техническая информация о потрохах этого прибора, которая была необходима для взаимодействия разных членов команды (начиная от распайки разъемов, цветов проводов, форматов файлов, синтаксиса команд, кодов сообщений об ошибках, и заканчивая алгоритмами и математическими формулами для обработки данных) хранилась у нас в виде набора документов Google. Ссылки на документы были у всех заинтересованных, то есть все могли быстро уточнить необходимые детали, а также имели возможность что-то добавить/подправить при необходимости. И все мы были счастливы, пока…
… в один не очень прекрасный момент тов Гугль закрыл нам доступ к одному из этих документов. Втихаря, вероломно и без объявления войны. Под тем предлогом, что документ «содержит противоправную информацию».
Пришлось писать в службу поддержки. Дня через два точно так же втихаря доступ к документам вернули. Что уж там Гугль там нашел такого «противоправного» — осталось для нас тайной. То ли им не понравилась формула для пересчета напряжения термопары в температуру, то ли мои выкладки по решению систем уравнений подозрительными показались. (А там весь документ в таком духе и был составлен)

Могли бы и извиниться, вообще-то. Видимо, настроить бота чтобы письмо отправить, оказалось для них слишком сложно.

Но в нашем случае проблема решилась просто: телефонным звонком коллеге и отправкой по е-mail копии документа. А вот когда сервис блокируют — это и врагу не позавидуешь.

Я еще помню время, когда от Google приходили человеческие ответы и знаю людей, которые тоже их получали :-) Давно это было.
Появилась тенденция миграции с Gmail на Protonmail.
Ага! Значит, я мигрировал по этому маршруту не просто так, а вместе с тенденцией. Надеюсь, что тенденция не слишком широкая, потому что широкие тенденции в итоге убивают хорошие сервисы и приходится опять мигрировать…
На самом деле они и сейчас отвечают. Тем кто платит им бабульки.
У меня была подобная проблема, с Microsoft SmartScreen и программой, написанной на Delphi. Так глубоко, как автор, я не копал — установок было мало, профита было ровно 0, просто забил на это дело. ПО не было подписано — соответствующий сертификат покупать я не собирался ни тогда, ни сейчас.
Новые программы без подписи автоматом получают предупреждение «редко используемая программа» и блокируются как Google так и Microsoft.
Т.е. вымогают покупать воздух у профессиональных торговцев воздухом.
В письме от Google предлагали отправить апелляцию, что я немедленно и сделал.
Через два часа пришел ответ, что апелляция отклонена.

И никаких комментариев к ответу.

Знакомо, знакомо. Google… Google never changes.
Как раз Гугл сильно изменился. Только не в лучшую сторону.

Отличный прецидент, чтобы подать на Google в суд за ущерб деловой репутации.

Каждый хороший юризд знает — слово пренциндент пишецо только так!
«Корпорация добра» она такая. Она лучше вас знает, что для вас является добром.

Что? Ваше мнение отличается? Пожалте в бан, если вы не с нами, вы против нас. А значит — зло.
Как организовать полную слежку, как узнать абсолютно любой адрес, куда пользователь заходит, и когда? Хэши почти всех url в сети знает именно Google и по-совместительству FBI, с которым Google открыто сотрудничает и у которого на территории США находятся огромные Data-центры. Нужно хэшировать URL'и браузера и отсылать их в Google.
Всё якобы чисто, это же не посещаемые URL'и отсылаются, верно? Отсылаются только хэши. Но см. выше, что знает Google о хэше каждого url в интернет.
Но не думайте, это не слежка, это «Safe Browsing». Всё только для пользы. Даром!
P.S.
Коня данайцы вкатили примерно на ~1300 году до нашей эры, т.е. 3319 лет назад.
Жрец Лаокоон, увидев этого коня и зная хитрости данайцев, воскликнул: «Что бы это ни было, а бойтесь данайцев, даже дары приносящих!» (Quidquid id est, timeo Danaos et dona ferentes!) и метнул копьё в коня…
Google уверяет, что проверяет URL сайтов только по хэшу и локально на клиенте, а не на сервере.

И это уверение можно проверить (в Firefox/Chromium) прежде чем разводить теории заговора и теории тотальной слежки. У google safe browsing версии 4 (от мая 2016 года) два варианта api — https://developers.google.com/safe-browsing/v4/Lookup API(клиент отсылает полный адрес без каких-либо хэшей! ) и Update API (клиент скачивает базу и проверяет по ней локально — для быстрой и частой проверки, в частности в браузерах).


Firefox использует локальную базу — https://wiki.mozilla.org/Security/Safe_Browsing/V4_Implementation (зайдите в каталог с профилем firefox и проверьте путь safebrowsing/google4/{goog-phish-proto,goog-unwanted-proto,goog-malware-proto,goog-downloadwhite-proto,goog-badbinurl-proto}.{metadata,pset} — должно быть около 6 МБ).
Chromium использует локальную базу https://www.chromium.org/developers/design-documents/safebrowsing — "Checking the safe browsing database is a multistep process. The URL is hashed and a synchronous check against the in-memory prefix list is done. If no match is found, the URL is considered safe immediately. If the prefix matches, an asynchronous request is made to the safe browsing servers for a list of all full hashes matching that prefix. Once the list is returned, the full hash is compared against the list and the URL request can be continued or cancelled."


В предыдущих версиях и в Update API применяются вероятностные структуры. Ранее это были локальные фильтры блумаhttps://www.quora.com/Why-did-chromium-move-away-from-Bloom-Filters-in-Safe-Browsing и собственные вариации на данную тему https://bugs.chromium.org/p/chromium/issues/detail?id=71832.
Проверяемый адрес сначала локально ищется в фильтре или в базе, и только в случае получения ответа "Возможно адрес содержится" производился запрос хэша к серверам гугла (такие фильтры могут давать ложноположительные срабатывания).


Хэширование у них тоже странное — https://developers.google.com/safe-browsing/v4/urls-hashing — из полного адреса отрезаются лишние поля и символы, затем генерируется 5 сокращений для имени хоста и 6 сокращений для пути на сайте. В роли хэша выступают первые 4 байта от SHA256 (4 млрд возможных значений), т.е. по данному огрызку хэша обязательно будут коллизии и итоговое сравнение полных хэшей производит браузер.
https://developers.google.com/safe-browsing/v4/update-api#checking-urls


To check if a URL is on a Safe Browsing list, the client must first compute the hash and hash prefix of the URL (see URLs and Hashing). The client then queries the local database to determine if there is a match. If the hash prefix is not present in the local database, then the URL is considered safe (not on the Safe Browsing lists).

If the hash prefix is present in the local database (a hash prefix collision), the client must send the hash prefix to the Safe Browsing servers for verification. The servers will return all full-length SHA 256 hashes that contain the given hash prefix. If one of those full-length hashes matches the full-length hash of the URL in question, then the URL is considered unsafe. If none of the full-length hashes match the full-length hash of the URL in question, then that URL is considered safe.

Схемы работы старой версии API (фильтр блума, при совпадении отправляем серверу огрызок хэша, получаем полные хэши с таким префиксом от сервиса и проверяем полные хэши локально) — https://habr.com/ru/company/yandex/blog/127265/ "В Яндекс отправляются только префиксы хешей некоторых масок, которым соответствуют URL просматриваемых страниц, это происходит примерно в 1% случаев просмотра страниц."


Можете открыть developer tools + wireshark + ssl proxy при посещении http://testsafebrowsing.appspot.com/ и изучить реальные запросы.

прежде чем разводить теории заговора и теории тотальной слежки.

Странно что любезно снабжая публику ссылками, вы это делаете выборочно, как вам заблагорассудится. Забывая дать ссылки на
https://ru.wikipedia.org/wiki/Агентство_национальной_безопасности#Другие_программы_слежения
(таблица справа «Программы слежения АНБ», под печатью АНБ)
https://en.wikipedia.org/wiki/PRISM_(surveillance_program)
и почему-то в этом случае небрежно называя давным-давно известные факты © «теории заговора и теории тотальной слежки».

Моя реплика будет базироваться исключительно на вашем сообщении.

Логическая посылка №1:
— «Checking the safe browsing database is a multistep process. The URL is hashed and a synchronous check against the in-memory prefix list is done. If no match is found, the URL is considered safe immediately.

Я её всё же объясню, а то вдруг не всем это понятно.
Если будет совпадение, т.е. match is found, url будет not safe, а отсюда отсылка хэша url на сервер, в результате которой сервер узнает о посещаемом url.

Логическая посылка №2:
Хэширование у них тоже странное
т.е. по данному огрызку хэша обязательно будут коллизии


Логика:
ЕСЛИ («обязательно будут коллизии» = TRUE) И («match is found, visit server» = TRUE)
ТО —?
Что в итоге, какова импликация?
А такова, что утверждение:
Google уверяет, что проверяет URL сайтов только по хэшу и локально на клиенте, а не на сервере.
Проверку не прошло. Из-за намеренно введенных частых коллизий хэша, посещаемые сайты отправляются на серверы, а вовсе не всегда проверяются локально.
Утверждение о полной локальной проверке ложно.

Локальная проверка вроде бы и существует как класс. Вот только она намеренно сделана слабой, так что в итоге хэш всё-таки приходится отсылать на сервер. Но не всегда.

Есть и вторая „линия обороны“. Она базируется на недостаточной грамотности в вопросах статистики и криптографии. А именно — на непонимании вопроса легкости восстановления полного хэша по его передаваемой части. Так что если на серверы поступает фрагмент, существует возможность восстановления полного хэша и как следствие — url. Может быть даже не сразу, и скорее всего это делается даже не внутри Google, так что формально он «чист».
match is found, url будет not safe, а отсюда отсылка хэша url на сервер

Клиент (в случае совпадения в своем фильтре) отсылает 4 первых байта от хэша (префикс). Сервер видит от клиента лишь 4 байта и отвечает списком хэшей из базы с данным префиксом, окончательное сравнение полных хешей — локальное.
Можно предположить, что в интернете страниц значительно больше чем 4 млрд (2013 — 30 трлн стр.), т.е. точные ссылки не должны отправляться.
Предлагаю провести эксперимент с локальным sslstrip прокси и перехватить списки отправленных через POST префиксов в https://safebrowsing.googleapis.com/v4/fullHashes:find?.. при визите на подстраницы testsafebrowsing.appspot.com. Либо включить отладку chrome://net-internals ( chrome://net-export + https://chromium.googlesource.com/catapult/+/master/netlog_viewer/). Очень интересно проверить реальное количество одновременно отправляемых префиксов и их размер (по коду вроде от 4 до 32 байтов, точнее разобрать без отладчика не могу).


Вот часть описания:
https://developers.google.com/safe-browsing/v4/update-api#checking-urls


If the hash prefix is present in the local database (a hash prefix collision), the client must send the hash prefix to the Safe Browsing servers for verification. The servers will return all full-length SHA 256 hashes that contain the given hash prefix. If one of those full-length hashes matches the full-length hash of the URL in question, then the URL is considered unsafe.

Вот исходный код https://cs.chromium.org/chromium/src/components/safe_browsing/browser/safe_browsing_url_checker_impl.cc?g=0&l=214
https://cs.chromium.org/chromium/src/components/safe_browsing/db/v4_local_database_manager.cc?g=0&l=796


void V4LocalDatabaseManager::ProcessQueuedChecks() {
  DCHECK_CURRENTLY_ON(BrowserThread::IO);

  // Steal the queue to protect against reentrant CancelCheck() calls.
  QueuedChecks checks;
  checks.swap(queued_checks_);

  for (auto& it : checks) {
    FullHashToStoreAndHashPrefixesMap full_hash_to_store_and_hash_prefixes;
    if (!GetPrefixMatches(it, &full_hash_to_store_and_hash_prefixes)) {
      RespondToClient(std::move(it));
    } else {
      pending_checks_.insert(it.get());
      PerformFullHashCheck(std::move(it), full_hash_to_store_and_hash_prefixes);
    }
  }
}

PerformFullHashCheck вызовет void V4GetHashProtocolManager::GetFullHashCachedResults
https://cs.chromium.org/chromium/src/components/safe_browsing/db/v4_get_hash_protocol_manager.cc?g=0&l=383 и наступит


  //     Case 2: The prefix is not in the cache.
  //             We need to send a request for full hashes.
      const HashPrefix& prefix = matched_it.hash_prefix;
      ...
            unique_prefixes_to_request.insert(prefix);
 prefixes_to_request->insert(prefixes_to_request->begin(),
                              unique_prefixes_to_request.begin(),
                              unique_prefixes_to_request.end());

затем https://cs.chromium.org/chromium/src/components/safe_browsing/db/v4_get_hash_protocol_manager.cc?g=0&l=305


 data:  The 32-bit hash prefix of any potentially bad URLs. The URLs themselves are not sent.

Удалось получить дампы запросов через chrome://net-export + https://netlog-viewer.appspot.com/#events. Теперь требуется декодировать protobuf запрос к v4/fullHashes:find? и извлечь ответ сервера. Этим инструментом можно вручную проверить количество запросов к gsb во время обычной работы.

Но это не самое страшное.

Беда в том, что ошибка не единичная. От нее страдаю не только я.


Это как раз вам повезло.
На единичное обращение они не отреагируют.

А вот на массовое — другое дело.

Так что вам очень повезло, что ошибка массовая.
Не совсем понятно, с чем вы согласны. Все же, «массовость» означает обычно больше чем несколько единиц.

Давайте выскажем догадку, как может быть спроектирована система Google в общих чертах.
Система обладает эвристикой. Исходный параметр эвристики — рейтинг страницы (т.е. расчетная позиция среди всех страниц/сайтов сети, Google ее ведет).
Должен существовать нижний шумовой порог. Он, как минимум, порядка нескольких единиц, (2..3), иначе система будет непригодна.
Граница срабатывания эвристически-адаптивна и для «мелочи» она будет опять же ничтожна, в пределах десятка. Это будет никак не «массовость», не тысячи, не сотни и даже не десятки.
А отсюда — в случае сайтов с малым рейтингом срабатывание легко вызвать «руками». Выше это подтверждают.
Согласен с тем, что повезло.
Сразу вспомнился случай с антивирусом NOD32, который на одном из поддоменов моего сайта нашёл вирус в .txt файле и подумал, что неплохо было бы из-за этого добавить домен вместе со всеми поддоменами в чёрный список. И видимо от них же яндекс подхватил инфу о вредоносности домена и добавил соответствующую плашку в выдаче. В итоге, от момента удаления файла и до того, как домен удалили из базы прошло около двух недель переписки с саппортом. Ну и конечно же, никаких уведомлений, предупреждений, предложений обжаловать от NOD32 не поступало. О проблеме узнал от своих пользователей.
О проблеме узнал от своих пользователей.

Которые по счастию оказались достаточно лояльными и достаточно настойчивыми и достаточно заинтересованными в вашем сайте.
У меня такая же проблема случилась с читалкой подписок, установленной на личный VPS и доступной по паролю только мне по IP-подобному URL. Блокирует мне доступ к сайту с "Send visitors to harmful websites". Как быстро это починить я не знаю, просто скипаю красный экран каждый раз. Очень «удобная» функция.
Вот дела, да уж, тут не позавидуешь тому кто столкнется. Похоже на плохую реализацию хорошей идеи. А чей то бизнес может притормозить.
Уже который год бодаюсь с Гуглом из-за такой же проблемы. И главная беда в том, что в отчёте по безопасности Гугл не предоставляет ни единой ссылки, ни единого примера хоть какой-то проблемы. Что именно Гугл считает вредоносным — определить так и не удалось.
Напишите какой у вас WNC проблемы?
Пробовали отправить через Chrome, Report an Issue?
Как насчёт того, чтобы просто заблокировать все IP-адреса гугла на своём ресурсе? Нет гугловых ботов — нету и никакой критики содержимого сайта, зачем вам мнение гугла о ваших продуктах, когда его не спрашивают?
Если не смущает, что тогда сайт пропадёт из поиска, тогда да, можно так делать.
Может, просто прописать в robots.txt запрет конкретно на скачиваемые файлы? Или робот GSB игнорирует указания из robots.txt?
GSB видит какие файлы и откуда скачивают пользователи.
Robots их не касается.
С антивирусами всегда так было. Не знаю насчет гугла, но еще лет 5-10 назад, когда я писал софт под Windows, антивирус на хостинге постоянно ругался на разные системные DLL, лежащие в архиве с программой:
В ходе плановой проверки на Вашем аккаунте было обнаружено подозрительное, потенциально вредоносное, содержимое.
Ниже приведены пути к найденным файлам, а также их описание:
/home/user/www/site1/public_html/.../archive.rar (Rar.Suspect.WinDoubleExtension-rarpwd-3)

Это является нарушением п. 7.2. Приложения № 3 к Публичной оферте:
«Заказчику запрещается публиковать или передавать любую информацию или программное обеспечение, которое содержит в себе компьютерные
«вирусы», иные вредоносные программы или способно нарушить нормальную работу компьютеров, доступных через сеть».

Правда проблема решалась письмом в службу поддержки в стиле «мамой клянусь тут вируса нет», этого было достаточно. Для такого гиганта как гугл оно понятно, не сработает.
На позапрошлой неделе получил письмо от Google с аналогичным содержанием.
Ругался на обфусцированное приложение .NET, которое лежало на фтп уже лет 6.
Написал о проблеме на форумах Google с предложением предоставить исходники и настройки обфускации в случае необходимости, но ответа так и не получил, поэтому решил не рисковать, и просто удалил файл :(
UFO just landed and posted this here
Зашифруйте c помощью PGP и отправляйте.
Варианты с фолсами по Delphi и Inno Setup были и раньше известны.
Кто-то поюзал инсталлятор для создания вирусов (естественно, не один раз) и теперь Google считает это за вирус. Потому что зачастую это действительно вирус. Похожие истории уже были, вроде.
Я тоже так подумал сначала.
Но тогда пострадало бы еще много программ.
Предполагаю, что детект идет по поведению на сайте и по предположениям нейросети.
Вопрос, а если выкладывать сами файлы на популярные хранилища, гитхаб и тому подобные?
Давайте тут соберём коллекцию мейлов (а можно и телефонов) всех гугловых менеджеров любых уровней, чтоб жертвы идиотизма могли им спамить о проблеме.

Ларри Брин, +7 925 162-94-00, larry@google.io

Вешайте на сайт плашку с инструкциями как и почему отключить GSB во всех браузерах. Не в качестве противодействия их деятельности конкретно против вас, а в качестве способа хоть немного уменьшить популярность их некачественного и шпионящего сервиса.
Если инстуркция будет висеть на заблокированном сайте — ее никто не прочитает.
И любые инструкции читает минимальное число пользователей.

Дополнительная галочка при установке немного эффективнее.
Так сайт вы по-любому захотите разблокировать, так что наверно он всё же будет незаблокированным спустя какое-то время. Так что это будет инструкция на незаблокированном сайте.
Читает может и мало кто, но если много где вешать — вероятность прочтения (и вероятность отказа от GSB, которая ещё ниже, но связана с первой) повышается.
С тех пор как Яндекс заносил один из моих сайтов в заражённые вирусом (в поиске сайт был помечен как опасный), ничему не удивляюсь. Как оказалось — эти сведения брались яндексом по результатам исследования левого ресурса(!).
Последний раз Яндекс так-же необоснованно занёс один из сайтов в бан (Дорвей), решилось за пару дней через переписку с техподдержкой. При этом оснований вообще никаких не было, голые страницы html без js. Тогда я подумал, ну раз уж у Яндекса такая жесть, вся надежда на Гугл…
Была такая же проблема с Яндексом. Начал выкидывать сайт из поиска, в консоли ссылался на дорвейные страницы, которых не было (какие-то левые ссылки, как будто с другого сайта). Подал аппеляцию (или как это там называется, в общем отправил сайт на перепроверку), первый раз отклонили, второй раз подтвердили.
GSB пожалуй победитель в номинации «Самое бесполезное творение человека». Всегда, когда он срабатывал на моей памяти — это был False Positive случай, при этом явная малварь всегда чиста.
Согласен на 100%.
За 11 лет существования GSB видел его алерты считанное число раз на хакерских форумах.
Все сайты с вредной нагрузкой, майнеры, адварь живет привечаючи.

меня дома Гугл тролит своей капчей, регулярно, а РКН в прошлом году тролил Амазон; монополист будет беспределить, так устроен этот грёбаный мир, но самое странное и беспощадное — отсутствие обратной связи, безответственность крупных игроков.


файлы с установкой видимо, лучше хостить на специальных площадках, где репутация домена условно-высокая по версии этих самых монополистов… Есть такие сервисы? Может, на CDN?


по технике: такого рода системы (типа GSB) действительно запоминают URL, порой без проверки фактического содержимого (см ниже), но у них дифференцированный (и совершенно непрозрачный) подход к репутации сайта/домена, причем "вредоносные" ссылки на странице резко ухудшают домен, цепная реакция. Опасайтесь также выкладывать что-либо на новые, недавно зарегистрированные домены, это может вызвать ещё больше срабатываний.


Почему не проверяют содержимое? Увы, сейчас проверить вредоносность выполняемого файла очень ресурсоемко (из-за криптооберток), и VirusTotal вообще никакой гарантии не даёт, только вероятность.


Удачи Вам.

Может кто-то уже предлагал выше, но всё же. Если первопроблема именно в ссылках (а потом уже в файлах) — возможно стоит попробовать генерировать уникальные ссылки для скачивания. Может каждую загрузку страницы, может каждые 100 скачиваний.
Тогда GSB будет постоянно их помечать как новые и, может, подозрительные, но не будет такого трафика на одну ссылку чтоб однозначно помечать их как опасные.

Ещё можно попробовать отдавать файлы через метод POST вместо GET — роботы-то вроде не должны делать POST-запросы.
У Ammy Admin видимо такая же проблема с GSB, поэтому они не дают скачивать файлы со своего сайта с использованием Chrome и Firefox. При этом сам сайт вредоносным не помечен.
Ждем исков к Гуглу с требованием заблокировать не даже не рутрекер а sci-hub и все зеркала, сайты вида whereisscihub.now.sh — тоже блокировать (за ссылки).
Ну и отдельных исков (уже от Роскомнадзора) чтобы блокировали ну очень опасную для детей информацию (вроде списка наркотиков в EVE Online, если кто-то не играл — да, в игре они прописаны, прямо сказано что использование — незаконно по внутримировым правилам, и дают далеко не только бонусы, просто в некоторых случаях — оно того стоит) не только в поиске (о чем уже пробуют) а прямо через этот API.

А вообще был и положительный опыт несколько лет назад — на сайте лежал подписанный .exe-файл, качался пользователями (малым количеством но с разных мест), файл запакован VMProtect'ом (честно купленным), внутри куча вещей системного уровня (например — 'объяснение' вообще левому процессу что на диске якобы есть определенные файлы и надо бы их обработать) + лазание в сеть. От пользователя оно не маскировалось. И никаких проблем. Максимум — фолсы от редких антивирусов вида «запакованный файл».
ИИ шагает по планете…
Хорошо еще, что на северах РФ батареи отопления им не управляются.
Тоже столкнулся с подобной проблемой.
GSB переклинило и он заблокировал новый разрабатываемый сайт компании с сообщением «Deceptive site ahead».
Сайт размещен на отдельном домене, закрытый для индексации через robots.txt. И GSB заблокировал весь домен, а не отдельные страницы. Кстати, с такой блокировкой домена все письма, в которых если любая ссылка (даже текстом) на этот домен — прямиком идут в спам! По крайней мере в gmail. Gmail даже не дает их отравить! С такими возможностями GSB может напрочь уничтожить любой бизнес в интернете…
И возвращаемся к проблеме, в Search Console указывается одна опасная страница c «Harmful content» — вход в админку.
По данным Virustotal поблему видел только GSB (Phishing site).
Получается 3 разных, в чем-то противоречивых, сообщения:
— в браузерах: Deceptive website ahead
— в Google Search Console: Harmful content
— в Virustotal (GSB): Phishing site
Для решения проблемы закрыли страницу входа в админку паролем через htaccess и отправили в Google Search Console запрос на проверку, через 3 дня пришел ответ, что Гугл больше не видит никаких проблем и все хорошо. За это время многие антивирусы пометили сайт как фишинговый и пока не торопятся убирать пометку. Пока как-то так…
В итоге конкретную причину так и не удалось выяснить! Есть какие-нибудь предположения?
И еще волнующий для меня вопрос — как подобная блокировка влияет на позиции в Гугл? Есть какая-нибудь информация или может свои наблюдения?
Позиции вначале не ухудшаются, но гугл может писать, что файл опасен прямо в выдаче.
Если проблема не решается, то сайт может падать в выдаче.

Вижу, что многие путают Google Crawler и GSB.
Бесполезно закрывать сайт через robots.txt.
GSB получает ссылки через данные от браузера.

Гугл наглядно показывает, что заменять обычных людей ИИ нельзя. Ладно какой-то сайт заблокировали, это не смертельно (во всяком случае, пока). А что будет, если поручить скайнету ядерное оружие принимать какие-то более ответственные решения, а оно начнёт так же чудить?
Sign up to leave a comment.

Articles