Обновить

Что такое LLMS.TXT и почему эксперты продают бесполезный файл

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели7K
Всего голосов 10: ↑8 и ↓2+7
Комментарии12

Комментарии 12

У вас проф-деформация. Этот файлик не для SEO. AI-браузер сейчас просто получает и выкачивает ту прямую ссылку, которую даёт пользователь. Ему вообще на ваш сео на...ть (как же хорошо звучит!)

Для чего этот файл? Для удобного получения информации РАЗОМ. Вот к примеру:
https://mastra.ai/llms.txt

https://mastra.ai/llms-full.txt

Модель, вычитывая лишь один файл такая:

Более того, существуют проекты, типа https://context7.com/ , которые выдают подобный (по факту учебный!) контент динамически. И даже raw url у них такой же, к примеру:

https://context7.com/shadcn-ui/ui/llms.txt

Весело девки пляшут) Но речь о GEO - попадание в ответы нейросетей. Когда пользователь спрашивает "Кто лучший GEOшник в России?" он не дает никаких ссылок LLM-моделям.
А они откуда-то берут информацию и дают источники информации.

Откуда?) Из своей "базы знаний" и из поисковых систем.

В том то и дело что речь про попадание, причем не в корпус языка (тут этот файл не нужен) а в ответы. Если у нейронки (не паука нейронки!) будут вопросы, она в теории сможет зайти и самостоятельно посетить этот урл. Если захочет, конечно. Речь вообще не про парсинг и не про попадание в индекс, и получение данных с картинок тут не причем.

Речь про попадание в ответы нейросетей. Захочет или нет пользоваться и делать запрос - дело другое, но mcp поиска вполне может подобным заняться. И кстати говорю про дип ресерчи и подобное, обычные ответы + ai ответы в том же Гугле вообще другая история.

В общем не надо путать индексацию (сбор корпуса языка) и работу живой модели. Этот файл для второго, а статья про первое.

А кто в здравом уме будет помогать парсерам забирать контент со своего сайта? Вроде разумно наоборот всячески им мешать.

Например роботам поисковых систем?)

Роботы поисковых систем дают ссылки на вас и приводят к вам живых людей. То есть дают вам деньги. А вот парсеры ллмок не дают вам ничего, наоборот забирают ваши деньги.

Логично разделить их хотя бы по IP и нещадно банить все парсеры ллмок.

  1. Нейросети дают в 5 раз более конверсионный трафик чем поисковый или контекстный

  2. Нейросети встроены в Гугл и Яндекс и их никак не отделить.

Они не дают трафика. Они специализируются на удержании пользователя у себя. По крайней мере для большинства сайтов.

Поисковым роботам можно, другим нельзя. Отделить очень легко. У известных поисковых роботов известные пулы айпи адресов.

Если нейросети начнут давать трафик примерно как поисковики конечно к ним надо относиться так же. А сейчас смысл писать статью про качества чайников если твои ссылки на магазин пользователь не увидит? И баннеры не увидит. В итоге лучше всего по прежнему вести пользователей к себе рекламой или сео. А парсеры сетей банить, пусть они хуже отвечают.

Очень странные рассуждения с учётом что 60% информационных запросов в Гугле и Яндексе сопровождаются ответами нейросетей и занимают эти ответы больше половины первого экрана

С ними сайты ничего не сделают. Можно только лоббировать законы. Блочить поисковики себе дороже. Вообще я думаю что законы рано или поздно подстроят. Мол искать можно, учить нельзя. Без отдельного разрешения от сайта.

А вот все остальную шушеру блочить милое дело. От них точно никакой пользы владельцам сайтов.

Запреты заперты. Кругом запреты)

Нет. Обычная забота о своем бизнесе.

Сайты для людей. Чтобы они рекламу смотрели в покупали всякое.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации