Как будто бы, прикольно иметь граф распространения ссылок в реальном времени. Гугл по независящим от себя причинам и так с каждым годом владеет все меньшим процентом данных о поведении юзеров в сети. Зачем ускорять этот тренд?
Сетка дейтинг сайтов, ориентированная на северную Европу. Если еще название холдинга может что-то сказать, то конкретные домены точно ничего не скажут. Практически весь траффик от аффилиатов по СРА, что и побуждало нечестных на руку вебмастеров размешивать свой траф ботами, дабы повысить итоговую выплату
Может, в соседнем доме таки ферма стояла и всю округу зашкварила? У одной базовой станции, в зависимости от оператора и конфигурации его сети, может быть единый IP адрес, а клиенты все через NAT сидеть. Ибо ну очень странно, чтобы столь базовую и стандартную конфигурацию, да еще и столь устойчивую к фингерпринтингу, так гугл невзлюбил...
взятый юзер ведёт себя всегда приблизительно одинаково
Как правило, там все намного прозаичнее. Например, достался динамический IP, с которого вчера публичная прокси, или выходная нода тора работала, - все, отдувайся за плохую карму. Или какая-то особенность в работе браузера из-за нестандартного железа/расширения есть. Врядли прям поведение триггерит
Примерно, как, когда купил сим карту с плохой кармой, и постоянно коллекторы звонят
суют эту капчу где ни попадя, заставляя всех подряд разгадывать картинки
Не совсем так. Как правило, ставят невидимую капчу. Она проводит базовый скоринг, главным образом, смотря, есть ли кука гугла, но, также, и на другие факторы, вроде упомянутых вами, но не показываясь юзеру. Если базовый скоринг не пройден, тогда уже анальные кары начинаются.
...или специальное, скрытое версткой, поле в форме, которое ни один нормальный юзер НЕ заполнит, ибо глазами его не видит (реальный пример с дейтинг индустрии, хотя, сейчас вот думаю, что могло тех, у кого автозаполненние, за ботов считать)
Но, вообще, если серьезно, то все вышеперечисленные подходы, наоборот, намного проще для роботов, чем велосипеды. Уверен, что новое поколение роботов с большими моделями под капотом без проблем заполнитт любую форму, не парся HTML, а запуская полноценный браузер, и смотря на него оптическим анализатором. Навскидку, для последних поколений капч, где все картинки с подвохом и покрыты шумом, надо куда более серьезная нейронка, чем для анализа формы и управления мышью
ну, кстати, да были б роботы-медвежатники доступны к заказы на алиэкспрессе по цене $100 за контейнер роботов, и, как замки, так и отношение к хранению ценностей дома, были б совсем-совсем другими
А вот и нет. Не может мгновенно появится хороший маркетплейс, служба такси, или эскорт сервис. В первом случае нужны продавцы, во втором водители, в третьем телки. Пользоваться маркетплейсом, где с вероятностью 90% нужного товара не будет, или службой такси, где ближайшая машина как правило в 15 минутах езды, мало кто будет. Таже история, как и с мессенджером, только вершины сети двух типов, а не одного
все так там HLS, или что-то вроде него без проблем вставляется реклама отдельным чанком правда, если там реально HLS, то тег сброса потока нужен, и, в теории, умная баннерорезка может по этому тегу понимать, где вставленный фрагмент
С другой стороны, гугл может задетектить моменты смены кадра (чтобы плавность не терять воспроизведения), и поразрезать чанки в этих моментах, и наводнить сбросами потока щедро весь видеоряд. Тогда у баннерорезок будет проблема понять, где реклама
Почему акции все ещё дороже, чем полтора месяца назад, и все ещё market cap $74.22B? Неужели нет перспектив исков накидать за убытки так, чтобы на 0 это недоразумнние умножить, и акционерам достался именно 0, ибо все активы, включая офисные стулья и кулеры, ушли на оплату юристов и выплаты истцам? Серьёзные ведь клиенты с серьёзными командами юристов. Будет очень обидно, если клиенты отряхнутся и продолжат оплачивать подписку.
PS: помню, эту срань мне поставили на корпоративный ноутбук. Блокнот начал по 5-8 секунд запускаться, ибо каждый исполняемый файл хешировался и не подгружался в память, пока сервер не ответит, что его в базах нет. Из-за этого нормально пользоваться можно было, только выключив интернет, и проблема исправилась только тогда, когда техподдержка перевела эту срань в "девелоперский" режим с постпроверкой
Вообще, интересно, нельзя ли синтаксис языка жёстко закрепить в процесс генерации токенов сетью?
Чтобы сеть не генерировала следующий токен из полного многообразия языка, а получала на каждом слове short-list возможных токенов, рассчитаный по грамматике языка программирования?
Странно, что за 10 лет тарифы у хецнера выросли, а не упали. Как будто бы, целая вечность прошла; процессоры (особенно десктопный Ryzen, который так любим хецнером), память и диски за те же деньги и энергопотребление шагнули очень внушительно. Если они повысили цены за те же услуги на 50%, то там должна наценка раза в 2-3 вырасти, учитывая комбо из и повышения цен и удешевления себестоимости, а наценки в хецнере большой нет и не было никогда...
Интересно, есть ли подходы с генерацией кода через рекурсивный вызов LLM с переходом от общего к частному?
Условно, первый раз модель не пишет код, а пишет шаги алгоритма крупными мазками + сигнатуры методов на каждый шаг
Потом каждый шаг подаем на второй уровень, где эта же модель (с отдельным контекстом на каждый шаг с первого уровня) генерирует подробное описание со входами и выходами функции
На третьем - уже пишется код под ТЗ второго. То есть, чтобы в итоге получить код, шел не один вызов к модели, а столько, сколько надо шагов. Если алгоритм нужен очень объемный, то еще и шаги над шагами.
То есть, чтобы каждый конкретный вызов работал с предельно малым контекстом
Вот тут не соглашусь в корне, увы. Описанная ситуация далеко не так страшна, как кажется. Одиночный фриланс с многими заказчиками (а не поддержанием одного проекта 10 лет) прощает адский говнокод. Ибо достаточно просто копировать фрагменты со старых заказов и каждый раз один раз доводить франкенштейна до стабильного состояния в момент сдачи.
Где реально нужна качественная архитектура, так это B2B продукт с кастомизацией под каждого клиента. Ибо надо найти идеальный баланс, чтобы одновременно достаточно гибко удовлетворить каждого, но при этом, все ещё сохранить возможность одновременно исправить баг сразу у всех, если он в общем функционале. Ну и да, работа с разными клиентами по разным версиям API сюда же, внедрение новых фич, которые дублируют кастомные наработки для некоторых клиентов... Много ловушек, в которые попадают практически все, ибо в первые годы любого такого продукта без говнокода не выжить, а понять момент, когда точки масштабирования стабилизировались, и переписать заново не у всех выходит
Вот сколько раз вижу одно и тоже. Стоит кому-то сказать непопулярную мысль, как в него сразу же летят минусы. Оправдывает ли он ее, или порицает, старается внедрить в умы, или просто объясняет ход мысли и стратегию врага, - никого не волнует. Зачем убивать гонца, принесшего плохую мысль?
Вообще, странно, зачем
Как будто бы, прикольно иметь граф распространения ссылок в реальном времени. Гугл по независящим от себя причинам и так с каждым годом владеет все меньшим процентом данных о поведении юзеров в сети. Зачем ускорять этот тренд?
Это как? Условно, чтобы я мог на хабре оставить просто коммент, либо, коммент, подписанный моим приватным ключом?
Сетка дейтинг сайтов, ориентированная на северную Европу. Если еще название холдинга может что-то сказать, то конкретные домены точно ничего не скажут. Практически весь траффик от аффилиатов по СРА, что и побуждало нечестных на руку вебмастеров размешивать свой траф ботами, дабы повысить итоговую выплату
Может, в соседнем доме таки ферма стояла и всю округу зашкварила? У одной базовой станции, в зависимости от оператора и конфигурации его сети, может быть единый IP адрес, а клиенты все через NAT сидеть. Ибо ну очень странно, чтобы столь базовую и стандартную конфигурацию, да еще и столь устойчивую к фингерпринтингу, так гугл невзлюбил...
Как правило, там все намного прозаичнее. Например, достался динамический IP, с которого вчера публичная прокси, или выходная нода тора работала, - все, отдувайся за плохую карму. Или какая-то особенность в работе браузера из-за нестандартного железа/расширения есть. Врядли прям поведение триггерит
Примерно, как, когда купил сим карту с плохой кармой, и постоянно коллекторы звонят
Не совсем так. Как правило, ставят невидимую капчу. Она проводит базовый скоринг, главным образом, смотря, есть ли кука гугла, но, также, и на другие факторы, вроде упомянутых вами, но не показываясь юзеру. Если базовый скоринг не пройден, тогда уже анальные кары начинаются.
...или специальное, скрытое версткой, поле в форме, которое ни один нормальный юзер НЕ заполнит, ибо глазами его не видит (реальный пример с дейтинг индустрии, хотя, сейчас вот думаю, что могло тех, у кого автозаполненние, за ботов считать)
Но, вообще, если серьезно, то все вышеперечисленные подходы, наоборот, намного проще для роботов, чем велосипеды. Уверен, что новое поколение роботов с большими моделями под капотом без проблем заполнитт любую форму, не парся HTML, а запуская полноценный браузер, и смотря на него оптическим анализатором. Навскидку, для последних поколений капч, где все картинки с подвохом и покрыты шумом, надо куда более серьезная нейронка, чем для анализа формы и управления мышью
ну, кстати, да
были б роботы-медвежатники доступны к заказы на алиэкспрессе по цене $100 за контейнер роботов, и, как замки, так и отношение к хранению ценностей дома, были б совсем-совсем другими
как понять, сайт реально нужен, или там, за капчей, пустышка сеошная с говнотекстом из искомых ключей?
А вот и нет. Не может мгновенно появится хороший маркетплейс, служба такси, или эскорт сервис. В первом случае нужны продавцы, во втором водители, в третьем телки. Пользоваться маркетплейсом, где с вероятностью 90% нужного товара не будет, или службой такси, где ближайшая машина как правило в 15 минутах езды, мало кто будет. Таже история, как и с мессенджером, только вершины сети двух типов, а не одного
все так
там HLS, или что-то вроде него
без проблем вставляется реклама отдельным чанком
правда, если там реально HLS, то тег сброса потока нужен, и, в теории, умная баннерорезка может по этому тегу понимать, где вставленный фрагмент
С другой стороны, гугл может задетектить моменты смены кадра (чтобы плавность не терять воспроизведения), и поразрезать чанки в этих моментах, и наводнить сбросами потока щедро весь видеоряд. Тогда у баннерорезок будет проблема понять, где реклама
Что с этим миром не так?
Почему акции все ещё дороже, чем полтора месяца назад, и все ещё market cap $74.22B? Неужели нет перспектив исков накидать за убытки так, чтобы на 0 это недоразумнние умножить, и акционерам достался именно 0, ибо все активы, включая офисные стулья и кулеры, ушли на оплату юристов и выплаты истцам? Серьёзные ведь клиенты с серьёзными командами юристов. Будет очень обидно, если клиенты отряхнутся и продолжат оплачивать подписку.
PS: помню, эту срань мне поставили на корпоративный ноутбук. Блокнот начал по 5-8 секунд запускаться, ибо каждый исполняемый файл хешировался и не подгружался в память, пока сервер не ответит, что его в базах нет. Из-за этого нормально пользоваться можно было, только выключив интернет, и проблема исправилась только тогда, когда техподдержка перевела эту срань в "девелоперский" режим с постпроверкой
Вообще, интересно, нельзя ли синтаксис языка жёстко закрепить в процесс генерации токенов сетью?
Чтобы сеть не генерировала следующий токен из полного многообразия языка, а получала на каждом слове short-list возможных токенов, рассчитаный по грамматике языка программирования?
Вроде в ответ на это и ввели эту шляпу с обновляемыми кодами
Странно, что за 10 лет тарифы у хецнера выросли, а не упали. Как будто бы, целая вечность прошла; процессоры (особенно десктопный Ryzen, который так любим хецнером), память и диски за те же деньги и энергопотребление шагнули очень внушительно. Если они повысили цены за те же услуги на 50%, то там должна наценка раза в 2-3 вырасти, учитывая комбо из и повышения цен и удешевления себестоимости, а наценки в хецнере большой нет и не было никогда...
Интересно, есть ли подходы с генерацией кода через рекурсивный вызов LLM с переходом от общего к частному?
Условно, первый раз модель не пишет код, а пишет шаги алгоритма крупными мазками + сигнатуры методов на каждый шаг
Потом каждый шаг подаем на второй уровень, где эта же модель (с отдельным контекстом на каждый шаг с первого уровня) генерирует подробное описание со входами и выходами функции
На третьем - уже пишется код под ТЗ второго. То есть, чтобы в итоге получить код, шел не один вызов к модели, а столько, сколько надо шагов. Если алгоритм нужен очень объемный, то еще и шаги над шагами.
То есть, чтобы каждый конкретный вызов работал с предельно малым контекстом
И как, нашлись в итоге умные ребята с картой на бомжа, которые один раз положили, после чего на следующий день во всех банкоматах города сняли?
Вот тут не соглашусь в корне, увы. Описанная ситуация далеко не так страшна, как кажется. Одиночный фриланс с многими заказчиками (а не поддержанием одного проекта 10 лет) прощает адский говнокод. Ибо достаточно просто копировать фрагменты со старых заказов и каждый раз один раз доводить франкенштейна до стабильного состояния в момент сдачи.
Где реально нужна качественная архитектура, так это B2B продукт с кастомизацией под каждого клиента. Ибо надо найти идеальный баланс, чтобы одновременно достаточно гибко удовлетворить каждого, но при этом, все ещё сохранить возможность одновременно исправить баг сразу у всех, если он в общем функционале. Ну и да, работа с разными клиентами по разным версиям API сюда же, внедрение новых фич, которые дублируют кастомные наработки для некоторых клиентов... Много ловушек, в которые попадают практически все, ибо в первые годы любого такого продукта без говнокода не выжить, а понять момент, когда точки масштабирования стабилизировались, и переписать заново не у всех выходит
Вот сколько раз вижу одно и тоже. Стоит кому-то сказать непопулярную мысль, как в него сразу же летят минусы. Оправдывает ли он ее, или порицает, старается внедрить в умы, или просто объясняет ход мысли и стратегию врага, - никого не волнует. Зачем убивать гонца, принесшего плохую мысль?
Эксперимент 100 тысяч лет показал, что "оставаться людьми" = убивать, воровать, использовать любой способ отнять ресурс