Комментарии 24
Сдается мне, что через несколько лет интернет будет чуть менее чем полностью забит мусором, сгенерированным нейросетями, и найти в нем что-то полезное будет практически невозможно. Надо срочно сохранять все, созданное людьми, на оффлайн носители.
Честно говоря, уже и сейчас трудно найти что-то в гугле, потому что выдача забита мусором «коммерческих партнеров» и всякими сео-оптимизациями
После того как гугл порезал выдачу до 10 страниц (а по некоторым запросам вообще до трех), найти что-то не тривиальное вообще стало принципиально невозможно. Сюда же можно добавить и новости - найти новости прошлых годов можно только случайно или точно зная заголовок.
Найти контент, который старше десяти лет, тоже непросто. Интересные темы перессказывают на актуальных платформах, но не всё. Можно потерять жемчужины из блог постов, которые не интересны массовой аудитории.
Судя по блогам сеошников, на которых я подписан, люди уже массово генерят говностатейные сайты и дорвеи этими нейросетями. Некоторые кучу денег в прошлом году подняли, при этом испортив поисковую выдачу тысячам людей, разумеется.
Воистину гугл в очередной раз доказывает что дна нет.
Как я скучаю за их поиском из 2007, когда правильно сформировав запрос можно было найти практически все
В 2007 году пользователей интернета было меньше, их технические навыки в среднем были выше, и требования к поисковику у них были немного другие. Думаю, Гугл просто следует за спросом.
Хокинг вроде рассказывал, что в его синтезаторе речи использовалось самописное авто-дополнение, потому что ему было неудобно пользоваться готовыми системами, рассчитанными на малограмотных пользователей.
Как я скучаю за их поиском из 2007,
Какой знаменательный год
Давно пользуюсь https://www.startpage.com/
Учитывая что labs доступны только в us, мне кажется это замечательно. Аналогичная функция в бинге весьма удобна. Правда и реализация в бинге мне нравится больше - там ии результат не перед обычными, а справа.
Кажется пора на другие поисковики по чуть-чуть переходить
На какие? Altavista.com?
Интересно, можно ли сделать распределенный поисковик, в котором каждый участник, заходя на страницу, автоматом индексирует ее, вручную проставляет полезность и попутно формирует какой-то кусочек общей базы - а при запросе ключевые слова ищутся как торрент в DHT, из распределенной сети возвращаются результаты по каждом слову и ищутся пересечения уже на компьютере запрашивающего?
Блин, уже все есть ;) https://habr.com/ru/articles/212407/
Других нет. Всё, что пролетает по новостям - по факту проксируют запросы в гугл/бинг. Отдельные же мелкие, но полноценные поисковики не покрывают даже трети интернета - и искать в них обычно нечего.
Яндекс в целом не особо хорошо индексирует иностранное. Да и качество поиска заметно хуже, чем на русском.
Китайские поисковики - нацелены на Китай и внешнюю сеть даже если и индексируют, то в результатах эти домены всё равно не видны.
Сейчас еще появилась волна индексаторов разных левых компаний, которые дико грузят сайты, их теперь пострадавшие тупо блочат по ip, т.к. правила robots.txt те не соблюдают. Но они все поголовно заточены под всякие ИИ и тоже бесполезны.
А больше в мире ничего и нет.
Кому не нравится гугл, сейчас время расцвета поисковиков, даже инди-разработчики делают достойные индексаторы, потому что технологии так дошли. Вот например небольшой обзор https://danluu.com/seo-spam/, к тому что там рассматривается могу добавить perplexity.ai (лично пользуюсь, но прям хорошие результаты там в основном в про режиме). Ну и есть ещё парочка специализированных, для поиска и ревью по научным статьям, например.
Насчёт поиска научных статей был бы благодарен за пару конкретных ссылочек, если можно ?
https://www.undermind.ai/home/ -- свеженькое, коллеги хвалят, сам ещё попробовать не успел.
https://elicit.com/ -- поиск, помощник для быстрого ревью новых областей, поиск похожих концепций в других направлениях.
https://www.explainpaper.com/ -- это помощник читать уже найденное, можно попросить нейронку объяснить непонятное, расшифровать термин, пересказать простыми словами и т.д.
Ну и понятно стандартные google scholar / semantic scholar / libgen / anna's archive.
Google начала добавлять ответы ИИ в результаты поиска без согласия пользователей