и нет ни какого способа автоматически это дело разделить
Уверен, что способов предостаточно, на самом хабре неоднократно были статьи на эту тему и вопрос оптимизации поиска поднимается постоянно, предлагается множество решений, но очевидно сами поисковики в этом не заинтересованы. И вот очередная статья все о том же, в комментариях обсуждаются одни и те же проблемы, но изменений никаких
Согласен, в таких условиях могут зайти новые игроки на рынок, что в долгосрочной перспективе заставит их поубавить аппетиты. Главное понимать, что тут никакого альтруизма, только бизнес, а то сейчас что не новость, так все белые и пушистые стоят плечем к плечу против майнеров..
Отличный момент для тех у кого есть возможность. На фоне дифицита можно продать любую видеокарту и не важно что они будут делаться на одном заводе, их все равно не хватает, а сверхприбыль покроет любые затраты. К тому времени когда(если) все устаканется уже займут свою нишу и перетянуть на себя дулю рынка. Борьба с майнингом тут вообще второстепенна, а по факту даже вредна.
все, что я хотел, это оспорить идею достаточности единственного источника, которую вы высказали.
Единственный источник в современных реалиях не уместен, точнее он возможно уместен какое-то время, пока не найдут обходные пути, поэтому моя идея это скорее дополнение, а не замена.
Вообще я не думаю что поисковики не знают как сделать более точную сортировку, скорее им это не выгодно вот и все, нам остается только надеятся что нас услышат
Если личный черный список, то да, вполне неплохо, а вот если будет учитываться для всей выдачи, то закончится обычными манипуляциями сеошников, для которых откроется очевидная цель. Мы бореся с ветряными мелницами, любую идею сеошники перевернут сног на голову и заставят работать на себя, главное усложнить им эту задачу и сделат неочевидной.
И поймите наконец-то что, что одно не исключает другого.
up. уже ответил по поводу черного списка:
это тоже гадание так как неизвестно по какой причине занесли сайт в черный список и даже если причину можно указать не факт что это правда.
Вот именно, что блеклист - это явный интеншен, а не гадание на кофейной гуще.
Совсем нет, это тоже гадание так как неизвестно по какой причине занесли сайт в черный список и даже если причину можно указать не факт что это правда.
Если я продолжил поиск - это не значит, что я не нашёл искомого. Если прекратил поискт - не значит, что что-то нашёл.
Если пользователь провер на сайте больше 30 секунду не значит что на сайте есть полезная информация. Если пользователь вернулся на сайт не значит, что он этого хотел. Список можно продолжать бесконечно. Мы видим что алгоритмы не идеальны и требуют доработок.
Часто даже оказывается, что наиболее релевантный результат - предпоследний посещённый.
Для гугл аналитики эта информация вполне доступна, как я выше написал они прекрасно знаю на каком сайте находится пользователь и что делает.
А накрутка правдоподбных аккаунтов для блеклистинга - довольно дорогое удовольствие.
А накрутка поведения от правдоподоных аккаунтов еще дороже
И давайте незабывать что одно не исключает другого.
Если в библиографии больше одной ссылки, то что-то не так со всеми, кроме последней?
Немного разные вещи, но я понимаю ваш посыл.
Я предложил очень упрощенную схему, на деле это целый список факторов, которые конечно же должны учитывать и параллельный серфинг, но если условно из 10 человек которые перешли по первой предолженной ссылке все 10 продолжают поиск, то это уже звоночек. Давайте не забываь, что почти на каждом сайте стоит гугл аналитика которая дает довольно объемную картину по тому, в какой момент, что делает пользователь и на каком сайте.
Блеклист это контролируемый процесс, в этот список можо занести сайт по любой причине, непонравилась картинка в шапке или цвет текста не тот, а отлеживание поведения дает меньше возможностей к манимуляциям и усложняет процесс накруток.
Чтобы некий сеошник начал накрутку по блек листу, ему надо запустить бота и дать простую команду "занести в черный список", в то время как на отслеживание поведения ему понадобиться научить целому ряду поведенческих факторов, которые еще и расстянуты по времени, это довольно сильно ударит по карману, плюс неоднозначность самого процесса усложнит задачу, так как о работе алгоритмов можно только догадоваться.
UP. сейчас следят за тем, сколько времени пользователь провел на сайте и мы видим к чему это привело, длинные бесполезные тексты, поэтому такой подход однозначно надо менять и определять качество этих текстов
Я думаю надо искать не хорошие сайты, а плохие. То есть, если человек после посещения какого-то сайта, продолжает поиск, то значит с этим сайтом что-то не так и не важно на каком сайте остановился поиск, достаточно следить хотябы за самыми верхними, чтобы они опускались в выдаче и на их место становились другие.
Пф, я в году так 2018-м в офис устроился, сел за ПК и был в шоке, отходишь на пару минут и пк засыпает, время не тикает, в итоге просто физически невозможно отработать 8 часов, чтобы уйти вовремя, те кто там уже работали даже на перерыв не вставали, просто сидели обложившись печеньками, чтобы "пораньше" уйти. На 3 дня меня хватило, убежал не оглядываясь
Как раз такие всратые статьи с кучей бесполезного текста, которые ничем не заканчиваются и заставляют проводить на странице дольше времени, как по мне нужно отслеживать не то сколько времени пользователь провел на сайте, а то продолжил ли он серфинг дальше по этому запросу после того как посетил сайт, такие реакции сразу бы дали понять какие сайты льют воду. Учитывая что метрики есть почти на каждом сайте это вполне реально.
Уверен, что способов предостаточно, на самом хабре неоднократно были статьи на эту тему и вопрос оптимизации поиска поднимается постоянно, предлагается множество решений, но очевидно сами поисковики в этом не заинтересованы. И вот очередная статья все о том же, в комментариях обсуждаются одни и те же проблемы, но изменений никаких
Согласен, в таких условиях могут зайти новые игроки на рынок, что в долгосрочной перспективе заставит их поубавить аппетиты. Главное понимать, что тут никакого альтруизма, только бизнес, а то сейчас что не новость, так все белые и пушистые стоят плечем к плечу против майнеров..
Отличный момент для тех у кого есть возможность. На фоне дифицита можно продать любую видеокарту и не важно что они будут делаться на одном заводе, их все равно не хватает, а сверхприбыль покроет любые затраты. К тому времени когда(если) все устаканется уже займут свою нишу и перетянуть на себя дулю рынка. Борьба с майнингом тут вообще второстепенна, а по факту даже вредна.
Даже читать про полет волнительно, сложно даже представить эмоции участников
Лучше бы так и продолжалось, современные ноуты совсем не надежные, а цены космос
Это ноут с процессром i7? Ну так это даже по современным меркам вполне не плохое железо.
narrowdesign вообще мазилу на лопатки кладет на вполне нормальном железе)
Думаю это очень индивидуально. Для моей жены оптимально раз в квартал, а я сколько ни ходил на чистки, мне говорят, что чистить нечего.
Единственный источник в современных реалиях не уместен, точнее он возможно уместен какое-то время, пока не найдут обходные пути, поэтому моя идея это скорее дополнение, а не замена.
Вообще я не думаю что поисковики не знают как сделать более точную сортировку, скорее им это не выгодно вот и все, нам остается только надеятся что нас услышат
Разница в объективности.
У меня не режется, не вижу в этом смысла, вместо релевантной рекламы получать нерелевантную? Ну такое.. Для выборки не нужны 100% пользователей.
Если личный черный список, то да, вполне неплохо, а вот если будет учитываться для всей выдачи, то закончится обычными манипуляциями сеошников, для которых откроется очевидная цель. Мы бореся с ветряными мелницами, любую идею сеошники перевернут сног на голову и заставят работать на себя, главное усложнить им эту задачу и сделат неочевидной.
И поймите наконец-то что, что одно не исключает другого.
up. уже ответил по поводу черного списка:
Совсем нет, это тоже гадание так как неизвестно по какой причине занесли сайт в черный список и даже если причину можно указать не факт что это правда.
Если пользователь провер на сайте больше 30 секунду не значит что на сайте есть полезная информация. Если пользователь вернулся на сайт не значит, что он этого хотел. Список можно продолжать бесконечно. Мы видим что алгоритмы не идеальны и требуют доработок.
Для гугл аналитики эта информация вполне доступна, как я выше написал они прекрасно знаю на каком сайте находится пользователь и что делает.
А накрутка поведения от правдоподоных аккаунтов еще дороже
И давайте незабывать что одно не исключает другого.
Немного разные вещи, но я понимаю ваш посыл.
Я предложил очень упрощенную схему, на деле это целый список факторов, которые конечно же должны учитывать и параллельный серфинг, но если условно из 10 человек которые перешли по первой предолженной ссылке все 10 продолжают поиск, то это уже звоночек. Давайте не забываь, что почти на каждом сайте стоит гугл аналитика которая дает довольно объемную картину по тому, в какой момент, что делает пользователь и на каком сайте.
Блеклист это контролируемый процесс, в этот список можо занести сайт по любой причине, непонравилась картинка в шапке или цвет текста не тот, а отлеживание поведения дает меньше возможностей к манимуляциям и усложняет процесс накруток.
Чтобы некий сеошник начал накрутку по блек листу, ему надо запустить бота и дать простую команду "занести в черный список", в то время как на отслеживание поведения ему понадобиться научить целому ряду поведенческих факторов, которые еще и расстянуты по времени, это довольно сильно ударит по карману, плюс неоднозначность самого процесса усложнит задачу, так как о работе алгоритмов можно только догадоваться.
UP. сейчас следят за тем, сколько времени пользователь провел на сайте и мы видим к чему это привело, длинные бесполезные тексты, поэтому такой подход однозначно надо менять и определять качество этих текстов
Так сейчас и до упора не полистать, 2-3 страницы и начинается какой-то беспорядочный мусор
Я думаю надо искать не хорошие сайты, а плохие. То есть, если человек после посещения какого-то сайта, продолжает поиск, то значит с этим сайтом что-то не так и не важно на каком сайте остановился поиск, достаточно следить хотябы за самыми верхними, чтобы они опускались в выдаче и на их место становились другие.
Пф, я в году так 2018-м в офис устроился, сел за ПК и был в шоке, отходишь на пару минут и пк засыпает, время не тикает, в итоге просто физически невозможно отработать 8 часов, чтобы уйти вовремя, те кто там уже работали даже на перерыв не вставали, просто сидели обложившись печеньками, чтобы "пораньше" уйти. На 3 дня меня хватило, убежал не оглядываясь
Как минимум опыт
Как раз такие всратые статьи с кучей бесполезного текста, которые ничем не заканчиваются и заставляют проводить на странице дольше времени, как по мне нужно отслеживать не то сколько времени пользователь провел на сайте, а то продолжил ли он серфинг дальше по этому запросу после того как посетил сайт, такие реакции сразу бы дали понять какие сайты льют воду. Учитывая что метрики есть почти на каждом сайте это вполне реально.