Как стать автором
Обновить

Комментарии 19

Ну это прям киберпанк который мы заслужили. Протесты на реддите как волны на воде влияют и на другие компании.

НЛО прилетело и опубликовало эту надпись здесь

Так каким образом это на Гугл повлияло?

Ну была страница в общем доступе, проиндексированная, Потом ее спрятали, а Гугл об этом не знал и продлжал показывать в выдаче. Простой клик по ссылке ее не показывал, но можно было воспользоваться сохраненным кешем.

Какие проблемы возникли у Гугла? Юридические претензии, фигли он показывает "скрытое и не предназначенное для публичного показа"? Так он и не знает, чего там сейчас скрыто (может то же самое, а может другое). Он показывает то, что было общедоступным. Аналогичная ситуация вполне возникнут с сохраненными копиями во всяких "веб архивах".

Выкинуть такие страницы из поисковой выдачи "как можно быстрее" - ну такое. "Сохраненные копии" мне лично нужны как раз на случай, если, похоже, там что-то полезное нашлось, но сайт в данный момент недоступен.

НЛО прилетело и опубликовало эту надпись здесь

Ну логично, что у вас не открылась приватная страница. На это админы Реддита и рассчитывали (в качестве шага для достижения реальных целей).

Я не понимаю,как она сказалась на Гугле (возможно также бинге и прочих). Статья-то про "отразилась на поисковике Google" (а не на пользователях). Вот если бы, к примеру, "их паукт ломанулся все переиндексировать и рухнул"...

Но это не к вам, конечно, вопрос, а к автору.

НЛО прилетело и опубликовало эту надпись здесь

"гугл не может отобразить результат" - да вроде показывает превьюшки и дает оценить, насколько это может быть полезно. Все, как обычно.

Или вы имеете ввиду "пользователь не может увидеть всю статью, перейдя по ссылке с гугла"?

Если последнее, то а как это должно было выглядеть? Совсем удалить из выдачи - такое мне бы не понравилось:

"Сохраненные копии" мне лично нужны как раз на случай, если, похоже, там что-то полезное нашлось, но сайт в данный момент недоступен.

То, что доступ к сохраненным копиям у них спрятан и для вас неудобен - нехорошо, конечно. Но с реддитом не связано, для остальных временно недоступных страниц так же, я полагаю. Если же страницы будут недоступны достататочно долго, они из выдачи пропадут со временем. Но это опять же не проблема/вина гугла, на мой взгляд.

Reddit отправляет Cache-control: no-cache в хедерах, гугл, емнип, эти хэдеры уважает и не кэширует (или делает вид)

Для этой страницы нет сохранённой копии. Когда кэш есть, рядом с кнопками Privacy settings и How Search works кнопка Cached

НЛО прилетело и опубликовало эту надпись здесь

А что гугл сделает? Будет хранить копии постов и комментов с реддита и других сайтов? Кто ж им даст то? Непаханное поле для адвокатов будет.

Кеш гугла существует уже лет 20. Многие пробывали судиться, но всех судьи послали — основная причина "не нравится поисковик гугла — настрой robot.txt чтобы бот гугла куда не нужно не приходил"

не нравится поисковик гугла — настрой robot.txt чтобы бот гугла куда не нужно не приходил

Забавное замечание. Регулярно получаю от Google письма с информацией о проблемах на сайтах. Обычно сообщение типа: "У вас проблема с robots.txt. Мы проиндексировали страницу, запрещённую в этом файле. Пожалуйста, исправьте этот файл, чтобы сайт лучше индексировался в нашей поисковой системе и занимал более высокие позиции.".

Сам поисковик нравится. Пользуюсь регулярно.

Если вы читали инструкцию — то гугл может а теории индексировать запрещеные в robot.txt страницы (чтобы найти другие незапрещенные страницы), но не показывает результаты в результатах поиска.

новый поисковый фильтр под названием «Перспективы», который будет отображать дискуссионные форумы и видео из социальных сетей, таких как TikTok, YouTube, Reddit и Quora.

Переведу на понятный язык: за счет внутрисайтовой модерации (как самим сообществом, в т.ч. голосованием, так и автоматизированным) не попадает в выдачу откровенный SEO-спам, который по-прежнему обитает на своих доменах с прикрученной со всех боков рекламой. Дальше будет только хуже с полуавтоматизированной генерацией текстов. Русскоязычный сегмент уже до этого загадили машинными переводами, на подходе английские сайты за авторством ChatGPT и их машинные переводы на русский.

Остается только констатировать, что подход белого списка в Brave Search получается единственным трезвым на данный момент, если не придумать работающий способ голосования на стороне поисковика (как? по паспорту? proof-of-work?)

Так уже давно голосуют, если по ссылке переходят и там задерживаются, значит там не сео.

Мне кажется, оно копирайтинг никак не отличает он нормального контента. А то я всё больше и больше вижу сайтов с однотипным макетом, сверху типичная как в Mediawiki коробка с оглавлением, а дальше пошло-поехало.

Далее, если я открываю по 5 вкладок за раз? С блокировщиками трекеров и т.п.?

Что-то не очень понятно какие-такие слабые стороны Гугла. Ссылки стали битыми, причëм тут Гугл? Ну только если, что может стоило проверять небитость ссылки и битые спускать в выдачи вниз например.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории