для примера: в поиске Яндекса крутят поведенческий фактор, принцип: заходят боты на ТОП 10 сайтов по фразам нужным, которые выглядят как пользователи - выходят сразу. нагуливают профиль, на другом подобном сайте - сидят долго - сайт повышается в выдаче.
но я вот про что - таких ботов пишут на Zennoposter или BAS или просто у кого то свои фермы на андройд устройствах (что редко) - просто посмотрите что это за продукты, эти боты видят контент визуально на сайте.
В вашем случае - про технологическое решение - в большинстве случаем просто блочатся заходы с HTTP 1.1 и 1.0 или делается капча. Такая часть отсекается. Только тут нужно учитывать что боты яндекса и гугла тоже используют устаревший HTTP 1. 1 - и им нужно давать приоритет.
Тогда надо, чтобы у всего был собственный API да, это в теории могут сделать крупные ИИ боты, но смысл? Все хотят собирать информацию и монетизировать, условно ИИ бот Васи Пупкина не будет в деле.
Ваши действия похожи на автоматические - у Вас скорее всего айпи не постоянный (дома например), такая плашка может быть часто с мобильного оператора, так как айпи у вас постоянное разные оператор дает, и условный бот для ПФ - ходил с него и делал автоматизированные действия)
Это действительно работает, но если трафик посетителей из РФ - то на данный момент Cloudflare не лучшее решение - многие пользователи просто не доходят до Вашего сайта, наверное знаете почему?)
Всё верно, robots.txt умер - ИИ стремятся выкачать всю информацию с сайта, создать на него нагрузку, а взамен - пожалуйста! Только вот обычные владельцы сайтов - это еще не понимают и пытаются блокировать ботов как раз через этот файл - в интернете документация старая.
Раньше через Cloudflare настраивали фильтрацию и разгружали сервер от этого шлака, сейчас уже свои аналоги Cloudflare через прокси сервер. Тут Важно знать официальных ПС ботов - и не блокировать их.
Многие пишут в комментариях правила для блокировки по User Agent - но можно задать любой агент пользователя. Далеко ходить не буду, deepseek не использует очевидный User Agent, блок по: Название провайдера:Huawei-Cloud-SG ASN:136907
Во пример дипсика, но у меня блок не по ASN а по стране в этом случае:
Всех через .htaccess не заблочишь, сайт начнет тормозить - обработка правил каждый раз происходит при заходе пользователя - проходя все строки.
Скинул ему короткую песенку, ничего он не понял. в 4.5 версии хотя бы какие то слова слышал, и то не те что в песенке. Часто отвечает на своём родном, записал ему голосом задание - напечатал то ли на англ то ли на китайском. Сыровато.
из + - картинки описывает хорошо.
Если сравнивать с тем же дипсиком, то на мой взгляд он в разы лучше - допустим для кода и текста. И лимиты у него самые большие - что я встречал.
Реклама ради рекламы? Так я вижу этот пост, уж простите.
По теме: Вообще удивлен что у ChatGPT ещё нет такого варианта монетизации и она вполне оправдана. С бесплатных пользователей - нужно получать профит, с одними ограничениями далеко не уедешь. Человек может создать, два / три аккаунта и сжечь больше электричества и мощностей, а показ рекламы - будет всегда.
Тоже самое ждет Gemini - с их крупной рекламной сетью - может даже в приоритете будет материал с сайта, где заключено соглашение - тип мы показывает контент, а ты $ (не 70% как в Adsense) а меньше, но мол разрешай нашему боту брать контент - но это из истории моих хотелок.
Да и пусть охраняются) Люди кто размещает схожий контент будет делать подобное новое изображение или ссылаться на сервис, или оплата - если там такое сотрудничество. Это "авторское право" - с учетом реалии, никому не нужно, кроме авторов.
Через 1-3 года - авторское право - уйдёт в прошлое. ИИ всё скопировал и собрал, и собирает , анализируя что создают пользователи. Другие пользователи на этой основе создадут чуть другое и так далее.
Началось с обычных сайтов статейников, они больше не нужны - до них мало кто доходит. В будущем будут ИИ агенты (что сейчас же есть), которые на основе соц.сетей - изучая спрос потребителей - сами будут писать статьи.
Тот же гугл дискавери - он рекомендует сайты по интересам, а будет писать сам статьи под аудиторию и показывать рекламу, внутри своей экосистемы - без посредника.
не соглашусь. Технологическое решение для кого?
для примера: в поиске Яндекса крутят поведенческий фактор, принцип: заходят боты на ТОП 10 сайтов по фразам нужным, которые выглядят как пользователи - выходят сразу. нагуливают профиль, на другом подобном сайте - сидят долго - сайт повышается в выдаче.
но я вот про что - таких ботов пишут на Zennoposter или BAS или просто у кого то свои фермы на андройд устройствах (что редко) - просто посмотрите что это за продукты, эти боты видят контент визуально на сайте.
В вашем случае - про технологическое решение - в большинстве случаем просто блочатся заходы с HTTP 1.1 и 1.0 или делается капча. Такая часть отсекается. Только тут нужно учитывать что боты яндекса и гугла тоже используют устаревший HTTP 1. 1 - и им нужно давать приоритет.
Тогда надо, чтобы у всего был собственный API
да, это в теории могут сделать крупные ИИ боты, но смысл? Все хотят собирать информацию и монетизировать, условно ИИ бот Васи Пупкина не будет в деле.
Ваши действия похожи на автоматические - у Вас скорее всего айпи не постоянный (дома например), такая плашка может быть часто с мобильного оператора, так как айпи у вас постоянное разные оператор дает, и условный бот для ПФ - ходил с него и делал автоматизированные действия)
Это действительно работает, но если трафик посетителей из РФ - то на данный момент Cloudflare не лучшее решение - многие пользователи просто не доходят до Вашего сайта, наверное знаете почему?)
да так и есть, тут фильтровать нужно: капчами или блокировками по: ASN сетям, странам, отпечаткам и другим функционалом
всё правильно, свой ресурс разгрузить от лишнего мусорного трафика, а за счет своего мусорного материала - монетизироваться по максимуму)
Всё верно, robots.txt умер - ИИ стремятся выкачать всю информацию с сайта, создать на него нагрузку, а взамен - пожалуйста! Только вот обычные владельцы сайтов - это еще не понимают и пытаются блокировать ботов как раз через этот файл - в интернете документация старая.
Раньше через Cloudflare настраивали фильтрацию и разгружали сервер от этого шлака, сейчас уже свои аналоги Cloudflare через прокси сервер. Тут Важно знать официальных ПС ботов - и не блокировать их.
Многие пишут в комментариях правила для блокировки по User Agent - но можно задать любой агент пользователя. Далеко ходить не буду, deepseek не использует очевидный User Agent, блок по: Название провайдера:Huawei-Cloud-SG ASN:136907
Во пример дипсика, но у меня блок не по ASN а по стране в этом случае:
Всех через .htaccess не заблочишь, сайт начнет тормозить - обработка правил каждый раз происходит при заходе пользователя - проходя все строки.
И будет на базе Gemini, да?) Полезное устройство, если это будет своего рода помощник и подобие переносной алисы (сопряжение с телефоном).
да тоже самое в плане песни)
Скинул ему короткую песенку, ничего он не понял. в 4.5 версии хотя бы какие то слова слышал, и то не те что в песенке. Часто отвечает на своём родном, записал ему голосом задание - напечатал то ли на англ то ли на китайском. Сыровато.
из + - картинки описывает хорошо.
Если сравнивать с тем же дипсиком, то на мой взгляд он в разы лучше - допустим для кода и текста. И лимиты у него самые большие - что я встречал.
Очень интересно как все ИИ будут монетизировать свои продукты, в особенности Google (у него на мой взгляд картина будет лучше)
Реклама ради рекламы? Так я вижу этот пост, уж простите.
По теме: Вообще удивлен что у ChatGPT ещё нет такого варианта монетизации и она вполне оправдана. С бесплатных пользователей - нужно получать профит, с одними ограничениями далеко не уедешь. Человек может создать, два / три аккаунта и сжечь больше электричества и мощностей, а показ рекламы - будет всегда.
Тоже самое ждет Gemini - с их крупной рекламной сетью - может даже в приоритете будет материал с сайта, где заключено соглашение - тип мы показывает контент, а ты $ (не 70% как в Adsense) а меньше, но мол разрешай нашему боту брать контент - но это из истории моих хотелок.
Да и пусть охраняются) Люди кто размещает схожий контент будет делать подобное новое изображение или ссылаться на сервис, или оплата - если там такое сотрудничество. Это "авторское право" - с учетом реалии, никому не нужно, кроме авторов.
Не только про статейники - но с этого всё началось, просто высказал с чем сталкиваюсь. Это касается любой сферы.
Через 1-3 года - авторское право - уйдёт в прошлое. ИИ всё скопировал и собрал, и собирает , анализируя что создают пользователи. Другие пользователи на этой основе создадут чуть другое и так далее.
Началось с обычных сайтов статейников, они больше не нужны - до них мало кто доходит. В будущем будут ИИ агенты (что сейчас же есть), которые на основе соц.сетей - изучая спрос потребителей - сами будут писать статьи.
Тот же гугл дискавери - он рекомендует сайты по интересам, а будет писать сам статьи под аудиторию и показывать рекламу, внутри своей экосистемы - без посредника.