Pull to refresh

Comments 24

Сдается мне, что через несколько лет интернет будет чуть менее чем полностью забит мусором, сгенерированным нейросетями, и найти в нем что-то полезное будет практически невозможно. Надо срочно сохранять все, созданное людьми, на оффлайн носители.

Честно говоря, уже и сейчас трудно найти что-то в гугле, потому что выдача забита мусором «коммерческих партнеров» и всякими сео-оптимизациями

После того как гугл порезал выдачу до 10 страниц (а по некоторым запросам вообще до трех), найти что-то не тривиальное вообще стало принципиально невозможно. Сюда же можно добавить и новости - найти новости прошлых годов можно только случайно или точно зная заголовок.

В гугле трудно что-то найти т.к он выдаёт какую-то чушь, как минимум последний год, и сео оптимизации вряд ли имеют к этому отношение. Раньше не было подобного, сейчас явные проблемы и с новыми фичами и с банальным поиском

Теперь чаще вижу такое. Заходишь на поиск, ищешь решение проблемы, а там поддомен из pages.dev (или другое) содержимое наполненное бесполезной сгенерированной чушью.

Найти контент, который старше десяти лет, тоже непросто. Интересные темы перессказывают на актуальных платформах, но не всё. Можно потерять жемчужины из блог постов, которые не интересны массовой аудитории.

UFO just landed and posted this here

Судя по блогам сеошников, на которых я подписан, люди уже массово генерят говностатейные сайты и дорвеи этими нейросетями. Некоторые кучу денег в прошлом году подняли, при этом испортив поисковую выдачу тысячам людей, разумеется.

Уже забивают и гораздо быстрее чем ожидается, я в уткопоиске ищу например инструкцию как разобрать такую то клавиатуру, а в ответ на первой странице ссылки с универсальным ответом сгенерированным чат гпт.

Воистину гугл в очередной раз доказывает что дна нет.

Как я скучаю за их поиском из 2007, когда правильно сформировав запрос можно было найти практически все

В 2007 году пользователей интернета было меньше, их технические навыки в среднем были выше, и требования к поисковику у них были немного другие. Думаю, Гугл просто следует за спросом.

Хокинг вроде рассказывал, что в его синтезаторе речи использовалось самописное авто-дополнение, потому что ему было неудобно пользоваться готовыми системами, рассчитанными на малограмотных пользователей.

Как я скучаю за их поиском из 2007,

Какой знаменательный год

Оно же просто проксирует запросы в гугл. Проблема же в общем качестве и количестве результатов гугла, а не только в сео/цензуре.

Учитывая что labs доступны только в us, мне кажется это замечательно. Аналогичная функция в бинге весьма удобна. Правда и реализация в бинге мне нравится больше - там ии результат не перед обычными, а справа.

Кажется пора на другие поисковики по чуть-чуть переходить

Пользовался гуглом до 2016-го. Потом обратил внимание на отличие результатов поиска с Яндексом, где Я. опережал по релевантности информации, которая нужна мне, без цензуры.

Правда Яндекс в последние года чаще скрывает ресурсы из-за ереси законов, но всё ещё лучше.

На нём ещё YaGPT, но не мешает.

Думаю если продолжат закручивать гайки, то перейду на другой поисковик.

В своём же Яндекс диске они тотально испортили поиск. Найти файл по имени теперь нельзя. Оно ищет по непойми-как сформированному искусственным интеллектом индексу.

На какие? Altavista.com?

Интересно, можно ли сделать распределенный поисковик, в котором каждый участник, заходя на страницу, автоматом индексирует ее, вручную проставляет полезность и попутно формирует какой-то кусочек общей базы - а при запросе ключевые слова ищутся как торрент в DHT, из распределенной сети возвращаются результаты по каждом слову и ищутся пересечения уже на компьютере запрашивающего?

Блин, уже все есть ;) https://habr.com/ru/articles/212407/

https://yacy.net/

Других нет. Всё, что пролетает по новостям - по факту проксируют запросы в гугл/бинг. Отдельные же мелкие, но полноценные поисковики не покрывают даже трети интернета - и искать в них обычно нечего.
Яндекс в целом не особо хорошо индексирует иностранное. Да и качество поиска заметно хуже, чем на русском.
Китайские поисковики - нацелены на Китай и внешнюю сеть даже если и индексируют, то в результатах эти домены всё равно не видны.
Сейчас еще появилась волна индексаторов разных левых компаний, которые дико грузят сайты, их теперь пострадавшие тупо блочат по ip, т.к. правила robots.txt те не соблюдают. Но они все поголовно заточены под всякие ИИ и тоже бесполезны.
А больше в мире ничего и нет.

Кому не нравится гугл, сейчас время расцвета поисковиков, даже инди-разработчики делают достойные индексаторы, потому что технологии так дошли. Вот например небольшой обзор https://danluu.com/seo-spam/, к тому что там рассматривается могу добавить perplexity.ai (лично пользуюсь, но прям хорошие результаты там в основном в про режиме). Ну и есть ещё парочка специализированных, для поиска и ревью по научным статьям, например.

Насчёт поиска научных статей был бы благодарен за пару конкретных ссылочек, если можно 🙏

https://www.undermind.ai/home/ -- свеженькое, коллеги хвалят, сам ещё попробовать не успел.

https://elicit.com/ -- поиск, помощник для быстрого ревью новых областей, поиск похожих концепций в других направлениях.

https://www.explainpaper.com/ -- это помощник читать уже найденное, можно попросить нейронку объяснить непонятное, расшифровать термин, пересказать простыми словами и т.д.

Ну и понятно стандартные google scholar / semantic scholar / libgen / anna's archive.

Спасибо, очень полезно! (не могу, к сожалению, лайкать, - что-то с кармой, пока не разобрался).

Sign up to leave a comment.

Other news