Самое крупное изменение - в чистой прибыли (355% Y2Y за 3 кварталы; а если первые 9 месяцев сравнивать, то вообще был убыток на 4,1 млрд в 2024 году, а в 2025 40,1 млрд - чистая прибыль, из них 34,6 млн были в 3 квартале).
Как считаете, Яндекс изменил с 3 квартала стратегию на максимизацию чистой прибыли? Если да, то к чему это приведет на рынке рекламы и других затронутых категорий. Жду дисскусий в комментах, интересно поразмышлять)
Появление контента, созданного искусственным интеллектом (ИИ), в интернете достигло паритета с материалами, написанными настоящими людьми.
В Axios выяснили, ссылаясь на аналитический отчёт фирмы Graphite, занимающейся поисковой оптимизацией, что доля ИИ-статей на короткое время превзошла человеческую генерацию, но сейчас объёмы выровнялись.
Согласно последним данным, представленным Graphite, в общем объеме новых публикаций в сети доля контента, созданного ИИ, составляет 52%, что незначительно превышает 48% материалов, написанных людьми.
Специалисты Graphite провели анализ 65 тысяч веб-страниц, индексированных с 2020 по 2025 годы. Отмечается, что резкий подъем доли материалов, сгенерированных ИИ, начался в 2023 году, что совпало с выходом на рынок чат-бота ChatGPT в конце 2022 года.
Несмотря на общее увеличение объёмов генерации, результаты поисковой системы Google показывают существенный перекос в пользу человеческого труда. Фирма установила, что 86% статей, которые отображаются в результатах поиска Google, созданы людьми. На долю ИИ приходится лишь 14% такого контента. Более того, когда материалы, созданные искусственным интеллектом, все же попадают в выдачу, они, как правило, располагаются на более низких позициях по сравнению с публикациями, написанными людьми.
Яндекс приостановил работу сервиса поиска по патентам
Сервис «Яндекс.Патенты», запущенный в партнерстве с Роспатентом в 2019 году, стал недоступен для пользователей. При попытке перехода на сайт сервиса открывается страница-заглушка с уведомлением о временной недоступности.
В пресс-службе Яндекса ряду СМИ подтвердили, что обновление сервиса было приостановлено еще летом 2025 года. В компании объяснили это подготовкой «ряда улучшений для пользователей, у которых есть необходимость поиска патентов».
По данным техногиганта, до прекращения работы сервисом ежедневно пользовалось около 30 000 человек. На текущий момент вся информация из базы патентов остается доступной через основную поисковую выдачу «Яндекса».
SEO — бессмертная база без которой не работает сайт
1C Франчайзи пришёл в сентябре 2024 на рекламу. Хотел продвигаться по Москве и Московской области. С помощью рекламы загрузить работой отдел продаж. Но мы не взяли проект в работу. И вот почему.
Сайт был не готов к рекламе: не было нужных страниц, форм заявок, цен, отзывов и т.п. Провели SEO-аудит и выкатили огромное количество правок. До решения проблем с сайтом работать с рекламой отказались.
Основные проблемы по итогам аудита:
Ошибки в вёрстке
Ошибки в навигации
В Яндекс Метрике настроены только автоцели
Проблемы с коммерческими факторами и юзабилити
И т. п.
После доработки сайта и настройки базового SEO, запустили рекламу. За 2 месяца завалили заявками отдел продаж заказчика так, что пришлось приостановить рекламу.
Как Google оценивает контент: скрытые метрики поискового доверия
При выдаче информации Google нередко опирается на скрытые метрики доверия — внутренние сигналы, которые оценивают не просто текст, а репутацию источника, авторитет автора, надежность бренда и даже «пограничность» самой темы.
Иногда корпорация приподнимает завесу тайны над своими алгоритмами, и это позволяет нам чуть лучше представить логику работы поисковика. Вот несколько метрик, о которых мы знаем из утечек и открытых источников:
Question Fringe Score. По одним данным, это оценка того, насколько запрос находится на периферии известного Google пространства знаний — редкий, нетипичный, «длиннохвостый». По другим — оценка потенциальной опасности контента.
Trust Bias. Это внутренний коэффициент доверия к источнику. Обычно высокий Trust Bias получают государственные домены, крупные медиа, старые сайты без санкций и спама, площадки, которые регулярно цитируют другие доверенные источники.
Chard Signals. Скорее всего, это репутационная сетка, где Google хранит «ауру» людей и брендов. Сигналы включают тональность и контекст их упоминаний, ссылки с авторитетных площадок, сопоставление с экспертными источниками и жалобы и негативные реакции.
Topic Authority. Метрика описывает, насколько Google считает автора экспертом в конкретной теме. На нее влияет количество публикаций автора в тематической нише, их качество и ссылочная масса, упоминания автора на сторонних ресурсах, совпадение его профиля с другими экспертами.
Semantic Drift. Это постепенное расхождение изначального значения темы с ее текущим восприятием алгоритмами. По сути, эта метрика делает так, чтобы старые статьи терли видимость. Бороться с этим явлением можно только путем постоянного актуализации контента.
Content Staleness Score. Эта метрика похожа на предыдущую — срок годности контента. Но она не про дату публикации, а про динамику: как давно документ обновлялся, как быстро обновляются конкуренты, как часто пользователи взаимодействуют с материалом, есть ли в нем сигналы «свежести».
Web Entity Confidence. Google всё чаще обрабатывает запросы не как набор слов, а как запросы о сущностях — брендах, людях, продуктах. Для каждой сущности существует скрытая метрика web_entity_confidence. Она показывает, насколько поисковик уверен, что она реальна и заслуживает доверия.
Больше о скрытых метриках доверия Google и о способах работы с ними — в отдельной статье.
P.S.: Да, как и любые справки от поисковиков эта такая же. Делайте хорошо, плохо не делайте. Но выводы все таки сделать можно:
1) Гугл не делает разницу между классическим поиском и ответами Google Overview. Они тесно переплетены и дополняют друг друга. Нейросети используют уже "отсортированные" результаты поиска. А поиск дополняется ответами нейросетей.
2) Чтобы попадать в ответы нейросетей, в частности Gemini - надо попадать в ТОП поиска. Но есть приятное: не обязательно в ТОП3-10, информация берется и из более глубоких мест куда не светит солнце.
3) нельзя отключить нейросетям доступ к контенту, не отключив сайт от индексации Google
Представлен открытый проект TruffleHog, который умеет анализировать хранилища данных и приложений, чтобы найти пароли, важные сведения и другую приватную информацию. В сервис заложено больше 700 детекторов различных видов данных и тысячи API, по которым инструмент ищет нужную информацию. Решение имеет встроенную поддержку сканирования GitHub, GitLab, Docker, файловых систем, S3, GCS, Circle CI и Travis CI. Также TruffleHog умеет сканировать сертификаты TLS, двоичные файлы, документы и медиа.
С учётом бурного роста популярности чат‑ботов вроде ChatGPT и того, что некоторые пользователи склонны слишком доверять информации, которую такие инструменты выдают, интересно посмотреть, откуда они её берут. Такие данные (по состоянию на июнь) есть у аналитиков Semrush по 150 тысячам цитирований.
В Visual Capitalist представили инфографику с ресурсами в сети Интернет, на которые чаще всего ссылаются ИИ‑модели вроде чат‑ботов ChatGPT. Некоторые пользователи склонны слишком доверять информации, которую такие инструменты выдают по запросу к ИИ-системам.
Самым популярным источником знаний для ИИ оказался Reddit — форум упоминается в 40% цитат. За ним с большим отрывом идёт «Википедия», дальше — YouTube и Google.
Оказалось, что ИИ-системы в основном модели полагаются на дискуссии на форумах и контент, курируемый сообществами модераторов, отмечают в Visual Capitalist. В связи с этим есть риск, что распространённые там взгляды, неточности и предвзятости могут перекочевать в ответы моделей и распространиться ещё шире.
Со слов автора скриншота, переход из выдачи Chat GPT на сайт клиента сразу же привел к запросу на КП. Договор подписали, предоплату получили. Чек от этого клика составил около 5К долларов. Что скажут SEO-оптимизаторы, уже умеем кормить чатик? И сколько лет осталось классическому интернету?
Представлен бесплатный сервис FilePursuit для поиска любых файлов в сети. Его система проверяет наличие доступных файлов по интернету, включая документы, APK-файлы, ZIP, книги, файлы, картинки и видео, а также PDF.
📌 Это не просто список, а универсальный навигатор по генеративному ИИ. Для тех, кто хочет не просто «поговорить» с ИИ, а заставить его работать на результат.
В интересное время мы живём. Вернулся намедни с конференции, полностью посвящённой AI-инструментам для бизнеса и параллельно начал читать книгу весьма любопытного китайца с юморным именем Кай-Фу Ли. Настоящие кайфули, а не обрыдшее деловое чтиво, это видно уже по первым страницам.
Давненько не попадалось таких насыщенных смыслами бизнес-изданий. Чуть ли ни каждая глава содержит квинтэссенцию глубоких мыслей продвинутого практика и стратегическое видение «человека мира», именно на уровне мира. Спорить не с чем, всё чётко разложено по полочкам. Мало того, всё, что было автором предсказано, уже происходит и именно так, как было описано. Книга, на секундочку, издана в России в 2019-м году, т.е., написана была значительно раньше. С удивлением узнал, что развивается AI ещё с 80-х, а основные вехи в его развитии приходятся на середину нулевых и одно из самых значимых событий произошло в 2012-м. Ничего про это не знал тогда, да и сейчас это стало для меня большим сюрпризом.
И ещё мне очень понравилось сравнение автором эпохи AI с эпохой внедрения человечеством электричества. И то и другое уже изменило облик и всё, что происходит на планете Земля, только изменения, которые привносит прямо сейчас AI, могут оказаться даже более глобальными в итоге, чем это было в случае с электричеством.
Что же стало ясно как божий день, когда почти месяц сам начал интенсивно пользоваться нейросетями, да ещё послушал/почитал умных людей, которые «в теме», что называется?
Экспертиза доживает свои последние годы. Затрудняюсь определить направление, где её ожидает хоть что-то позитивное в будущем. Сам опробовал на себе такие далекие друг от друга направления и темы, как молекулярная биология, туризм, нумизматика, ботаника, философия и др. И везде результат превзошёл ожидания за считанные минуты и несколько итераций. А, если «эксперт с 20-летним опытом» вдруг допустил какую-то оплошность или что-то недоглядел (галлюцинациями, вроде, это зовётся?), призываешь на помощь «эксперта с 40-летним опытом», даёшь ему возможность покопаться в деталях, и он обязательно находит все ошибки, начинает говорить на совершенно другом, выраженно профессиональном языке и источники приводит самые, что ни на есть релевантные. И так по всем проверенным лично направлениям. Где сам знаю вопрос досконально и могу оценить качество ответов.
Конкуренция в бизнесе тоже меняется на глазах. Вместо маркетинга, барахтания в «красных океанах» и всей этой бла-бла-бла в товарах и услугах, всему этому приходит на смену скорость внедрения AI во все сферы бизнеса. Кто быстрее и эффективнее это реализует, тот и выиграл в долгосроке в своей нише. Неважно, какой бизнес. Важно, что удачливого игрока ожидает: 1) Снижение себестоимости, которое не сможет побить ни один конкурент; 2) Персонализация невиданных доселе масштабов; 3) И, разумеется, полное отсутствие конкуренции на самой вершине. Это иногда даже монополией зовут. А кто не успел, тот уже точно не успел. Пора ползти в другом направлении…
Что решил для себя? Экстренно необходимо становиться горячим амбассадором и внедрять AI в работу везде и во всём, где это только возможно и приносит пользу. Завтра будет поздно, потому что все туда ринутся, пихаясь локтями.
А на бытовом уровне меньше чем за месяц обращений к бесплатной версии, я уже понял, что границ по знаниям не существует. Границы, по сути, определяются только тарифом и его лимитами. То новое, что даёт тариф за 20$, мне ещё только предстоит узнать.
На простой вопрос «Есть ли то, чего ты не знаешь?» AI ответил тоже простыми 5-ю пунктами, среди которых были личные данные, мои мысли и будущее. Делаю вывод, что всё остальное не вызывает у него особых сложностей.
А в конце AI издевательски добавил: «Если хочешь, можешь попробовать найти мой предел — задай что-нибудь каверзное». На этом моменте я впал в ступор...
Примерно месяц назад я запустил эксперимент - настроил в качестве поисковика по умолчанию ИИ-сервис Perplexity. А сейчас буду возвращаться обратно на традиционную поисковую систему. И дело не в том, что Perplexity плохо работает, а в том, что с моими сценариями она не особо дружит.
Вообще, как помог понять эксперимент, большая часть моих запросов идёт по одному из 3 путей:
Быстрый поиск очень базовой информации: как расшифровывается аббревиатура, кто написал книгу, в каком году было событие. В поисковик достаточно просто бросить одно-два слова - и на странице поиска нужное точно найдётся прямо в сниппетах, без перехода по ссылкам.
Справка от ИИ дольше формируется, в ней ту самую очень базовую информацию надо всё-таки выцеплять. А если запрос неоднозначен, как с теми же аббревиатурами, ИИ может дать отличную справку, но - по другому значению)
Это частично устраняется более подробным формулированием запроса ("что значит ABC в контексте X"), но... зачем писать больше?
Наоборот, поиск подробной информации по какому-то вопросу. Поиск тут нужен только для того, чтобы выйти на статью, где будут расписаны все детали. Короткая выжимка от ИИ обычно неплоха, но закрывает только 60-70% тех самых интересных мне деталей, так что всё равно приходится нырять в первоисточники.
Сюда же, кстати, можно отнести поиск изображений чего-то. Тот же Perplexity выдаёт и картинки, но 3-4 штук не всегда достаточно.
И, наконец, просто использование поисковика для ленивого перехода на нужный сайт. Ну да, это как в Гугле писать "Яндекс", но иногда это... проще?
И вот эти три сценария - это примерно 90% запросов в омнибоксе браузера. Моего, your mileage may vary. Так что пока я всё же предпочту оставить поиск поиском, а нейросетям выделю постоянное место в боковой панели браузера и закреплённые вкладки.
Исследование показало, что некоторые учёные начали оставлять в своих научных статьях скрытые промты для ChatGPT, чтобы нейросеть хвалила их работу.
При проверке научного портала arXiv уже нашлись 17 работ от 14 ведущих вузов мира — в каждой статье были скрытые промпты, которые просили ИИ хвалить её и не подсвечивать минусы. Учёные в научных статьях прячут нужный промпт для ИИ в белом тексте минимального размера, а на выходе получают похвалы и восхищение их трудом от «прочитавших» статью ИИ-сервисов.
Представлен дашборд для поиска в интернете данных по запросам ИБ CyberOSINT от геолокации до поисковых запросов в браузере пользователей, компаний по следам в интернете. Решенеи на базе конструктора Google Dork парсит информацию в открытых каналах.
Перед тем как пойти в новое место, многие лезут в отзывы. Казалось бы — обычное дело. Но что, если я скажу, что ваш безобидный отзыв на шаурму у метро может раскрыть о вас гораздо больше, чем вы думаете?
Сегодня разберём, почему стоит дважды подумать, прежде чем писать отзывы, если вам важна приватность. И заодно — как эти отзывы могут использовать злоумышленники.
Причем здесь 2GIS? В приложении у каждого авторизованного пользователя есть профиль, на который можно подписаться и следить за всеми отзывами. Многие думают: «Ну и что? Я же под ником "Аноним Анонимов"!»
Но вот в чём подвох: ➜ Если кто-то добавит ваш номер телефона в контакты, 2GIS подсветит ваш профиль — со всеми отзывами, фотками и активностью.
Что можно узнать из ваших отзывов? 1️⃣ Интересы — кафе, бары, магазины, кинотеатры… Всё, что вы оцениваете, рисует ваш цифровой портрет. 2️⃣ Место жительства — некоторые пишут отзывы на свои ЖК, ТЦ рядом с домом и даже на подъезды. 3️⃣ Круг общения — если вы и ваши друзья ходите в одни и те же места и оставляете отзывы, связь легко отследить. 4️⃣ Фотографии — машина, питомец, случайно попавшие в кадр документы… Мелочи, которые могут стоить дорого.
Вывод
Интернет ничего не забывает. Даже невинный отзыв может стать кусочком пазла, который сложит вашу жизнь перед злоумышленником.
Больше контента в моем авторском telegram-канале: https://t.me/ru_vm (BritLab)
Сразу привлёк внимание инструмент для поиска YouTube-видео по координатам: YouTube Geofind
Где может пригодиться?
1️⃣ Проверка достоверности информации Если из одной локации поступают противоречивые данные, можно найти все видео с этого места и сравнить их. 2️⃣ Расследования и журналистика Установление места съёмки: если видео якобы снято в Сирии, а координаты ведут в другую страну — это повод усомниться. Поиск свидетелей: можно найти ролики, снятые рядом с местом события, и посмотреть, кто там был. 3️⃣ Кибербезопасность Выявление фейков, где одно и то же видео выдают за съёмки из разных мест. 4️⃣ Краеведение Анализ изменений локации: стройки, разрушения, природные катаклизмы — можно сравнить, как место выглядело раньше и сейчас.
Главный недостаток ➖Не у всех видео есть привязка к геолокации (не вина инструмента)
Как сделать свой Youtube Geofind? Ключевой принцип работы инструмента прост и завязан на YouTube API (документация).
Чтобы найти видео по координатам, достаточно одного запроса: https://www.googleapis.com/youtube/v3/search?part=snippet&type=video&location={latitude}2C{longitude}&locationRadius={radius}&publishedAfter={publishedAfter}&key={API_KEY} Где: — latitude и longitude - широта и долгота; — radius - радиус — publishedAfter - значение даты и времени в формате RFC 3339 (1970-01-01T00:00:00Z), которое указывает, что ответ API должен содержать только видео, созданные в указанное время или после него — API_KEY - ваш API-ключ, который можно получить через Google Console
Пример запроса (все видео в радиусе 200 м от Красной площади, опубликованные после 00:00 9 мая 2025 года): https://www.googleapis.com/youtube/v3/search?part=snippet&type=video&location=55.7539%2C37.6208&locationRadius=200m&publishedAfter=2025-05-09T00:00:00Z&key=<ваш API-ключ>
В ответ получаем JSON с найденными видео (пример на прилагаемом к посту скриншоте). Метод поддерживает и другие параметры — подробнее в официальной документации.
Заключение Важно помнить, что любые инструменты — лишь вспомогательные средства. Не стоит забывать о критическом мышлении и перекрёстной проверке.
Больше контента в моем авторском telegram-канале: https://t.me/ru_vm (BritLab)
Ответ на вопрос о том, как работают поисковые системы, зависит от того, у кого вы спрашиваете. Рассмотрим верии основных носителей знаний.
🟢 Официальные представители поисковиков: поисковик — это библиотекарь
По крайне мере, в Google работу поисковых роботов представляют именно так: они постоянно сканируют интернет, переходят по ссылкам и запоминают содержимое сайтов. Рассматривают каждую страницу, как через увеличительное стекло, и сохраняют информацию в большом индексе.
Когда вы вводите запрос, система не ищет по всему интернету в реальном времени. Вместо этого она проверяет индекс, как библиотекарь, который листает каталог.
🟢 Инженеры: поисковик — интеллектуальный помощник
Инженеры поисковых систем стремятся превратить их в полноценного помощника. Например, при запросе «как приготовить пирог» система должна учитывать, что человек может быть новичком, страдать аллергией на определенные продукты или искать рецепт без духовки.
По сути, инженеры работают над тем, чтобы тот самый библиотекарь был персональным для пользователей. Он не просто выдает нужную книгу, он советует то, о чём вы еще даже не задумались.
🟢 SEO-специалисты: поисковик — это сад
SEO-специалисты часто сравнивают себя с садоводами. Они «выращивают» позиции сайта, «удобряют» контент ключевыми словами, «поливают» его внутренними ссылками, «подрезают» технические недочеты. При этом они знают, что даже самый ухоженный «сад» может не дать урожая, если алгоритмы поисковиков решат изменить правила.
Мышление SEO — это постоянные эксперименты и адаптация к новым условиям, ведь «климат» в саду постоянно меняется.
А подробнее о том, как работают поисковики, рассказываем в нашем блоге. Там найдете ссылки на кейсы специалистов, разборы утечек Google и цитаты инженеров.