Яндекс Практикум добавил модули по работе с ИИ во все курсы ИТ-профессий для начинающих
Мы дополнили все курсы из каталогов «Программирование» и «Анализ данных» модулями по работе с ИИ, чтобы наши выпускники не просто «пользовались нейросетями», а превращали их в инструмент профессионального роста — и были востребованы на рынке труда.
Теперь вы сможете:
Разобраться, как устроены нейросети, освоить основы промпт-инжиниринга и научиться подбирать подходящие инструменты.
Использовать AI для быстрого освоения новых технологий и поиска решений.
Применять нейросети для генерации материалов, планирования проектов и оптимизации учебного процесса.
Научиться решать профильные задачи с помощью инструментов искусственного интеллекта.
Microsoft представила бесплатный курс EdgeAI for Beginners, чтобы познакомить пользователей с захватывающим миром периферийного ИИ. В рамках учебных материалов в открытом репозитории раскрыты фундаментальные концепции, популярные ИИ-модели, методы вывода, приложения для конкретных устройств, оптимизация моделей и технологии разработки интеллектуальных агентов периферийного ИИ.
Хотите выяснить, где учиться IT? В экосистеме Хабра есть маркетплейс курсов на Хабр Карьере, на котором собраны сотни онлайн-обучений в самых разных специализациях: программировании, аналитике, дизайне, менеджменте и других. Чтобы пользователи могли проверить качество курсов, там показаны отзывы от тех, кто уже прошел обучение — изучайте и выбирайте лучшее для себя.
Читаю Талеба «Чёрный лебедь» — и ловлю себя на мысли, насколько точно он описывает разрыв между нашей биологией и современным миром.
Наши инстинкты сформировались для выживания среди диких зверей и соседних племён. А живём мы сегодня в «Крайнестане» — мире, где редкие и маловероятные события определяют ход истории, экономик и компаний.
🦢 Чёрный лебедь может появиться после тысяч белых. И именно он перевернёт систему — а не то, к чему мы «готовились».
Наш мозг не чувствует эти сдвиги. Мы по-прежнему думаем, что «всё будет как вчера», хотя реальность управляется не средним сценарием, а экстремумами.
📌 Почему это важно для лидеров и продуктовых команд: — Большинство наших решений всё ещё строятся на интуиции и прошлом опыте. — Но в среде высокой неопределённости это опасно. — Нужно учиться работать с неопределённостью осознанно: строить сценарии, усиливать антихрупкость, планировать не «по среднему», а по краевым случаям.
«В далеком прошлом люди могли делать выводы быстрее и точнее… Сегодня число “чернолебяжьих” зон неизмеримо выросло».
Именно в этих «чернолебяжьих» зонах рождаются не только кризисы — но и прорывы.
«На что хватит бесплатных $5 по API в Perplexity».
Модели Perplexity
Многие из вас знакомы с платформой Perplexity.ai и наверняка знают лайфхак, как получать годовую подписку PRO по практически копеечной цене. Но не все знают, что в PRO-подписку входит API-доступ, и каждый месяц автоматически начисляется $5 кредита для его использования. Давайте кратко разберёмся, что даёт этот API и какие там модели.
Какие есть модели. Линейка Sonar: базовый Sonar, усиленный Sonar Pro, а также Sonar Reasoning и Sonar Reasoning Pro для цепочек рассуждений, плюс Sonar Deep Research для глубоких обзоров с цитатами.
Совместимость. Интерфейс совместим с OpenAI Chat Completions, и это отлично , тк можно легко перейти с другой модели. Доступны стандартные параметры (model, messages, temperature, max_tokens, top_p, frequency_penalty, presence_penalty, stream).
Специфика Perplexity. Так как Перплексити в первую очеред специализируется на поиске, помимо стандартных параметров есть свои особые, переключатели поиска и выдачи: search_domain_filter, search_recency_filter, return_images, return_related_questions, search_mode (web/academic). Управление глубиной поиска — через search_context_size (low/medium/high).
Доступна поддержка Structured Outputs: JSON Schema и Regex для гарантированно машинно-читаемого ответа. Для меня это очень важный пункт, тк для агентов я всегда использую SO.
Стоимость: токены + плата за запрос Стоимость вычисляется как токены + запросы. Сами расценки за токены мне понятны, а вот в запросах я не совсем разобрался. Приведу их ниже для информации
Формула:итог за запрос = Token costs + Request fee (зависит от search_context_size).
Token pricing ($ за 1M токенов):
Sonar: in $1 / out $1
Sonar Pro: in $3 / out $15
Sonar Reasoning: in $1 / out $5
Sonar Reasoning Pro: in $2 / out $8
Deep Research: in $2 / out $8 + citation $2 /1M + search $5 /1K + reasoning $3 /1M.
Request fee за 1000 запросов:
Sonar: Low $5 · Medium $8 · High $12
Sonar Pro: Low $6 · Medium $10 · High $14
Sonar Reasoning: Low $5 · Medium $8 · High $12
Sonar Reasoning Pro: Low $6 · Medium $10 · High $14.
На практике у меня $5 съедались примерно за ~750 запросов к базовому Sonar при объёмах ≈1.1M входных токенов и ≈450k выходных.
Отслеживать расходы можно в личном кабинете, все запросы и токены виды по дням
Все это позволяет использовать лично мне данные модели в моих экспериментах. Ранее в основном для этого я использовал достаточно дешёвый DeepSeek, а сейчас пользуюсь Sonar. Буду рад, если данная информация была вам полезна.
LLM — всё чаще становится инструментом оптимизации в разработке. Как максимизировать пропускную способность пайплайна, не жертвуя качеством кода. Где использовать быструю модель, а где — платить за сложную архитектуру. Разберём, как перестать платить за качество там, где хватит скорости.
Архитектурные отличия
Скорость генерации зависит от числа активных параметров, FLOPs per token, а также методов оптимизации. Лёгкие модели (например, Gemini 2.5 Flash, GPT-4o mini) используют агрессивную квантизацию, меньший размер KV-кэша и оптимизированные операции для быстрого инференса. Это повышает скорость обработки запроса, но увеличивает шанс галлюцинаций в сложных, многоступенчатых рассуждениях.
Тяжёлые модели (наподобие Gemini 2.5 Pro, GPT-5) часто применяют Mixture of Experts (MoE), динамически активируя только нужные экспертные нейронные сети, что позволяет балансировать между вычислительной мощностью и скоростью.
Цели и специализация
Важная метрика — контекстное окно. Лёгкие модели эффективны для локального скоупа: генерация unit-тестов или добавление JSDoc. Тяжёлые модели, благодаря огромному окну (до 2 млн токенов у некоторых версий Gemini), способны анализировать кросс-файловые зависимости, документацию, схемы архитектуры (мультимодальность) и предлагать высокоуровневые изменения, осуществлять глобальное архитектурное ревью и рефакторинг.
Семейства моделей
Так какие модели в итоге использовать? Выбираем по уровню резонинга и надёжности. Качественные модели незаменимы, когда ты мигрируешь легаси-код, проектируешь сложную схему БД или создаёшь подробную техническую документацию — они лучше удерживают цепь рассуждений (chain of thought). Быстрые модели — твой инструмент для автоматической генерации фикстур, CI/CD-скриптов или написания inline-подсказок в IDE.
Выбор и выводы
Интегрируй быстрые модели в IDE для мгновенных подсказок. Это также идеальный выбор для автоматической генерации кода-заглушки, санации данных или создания mock-объектов в тестах. В таких случаях не страшно ошибиться, а выигрыш во времени и, главное, в токенах огромен. Это идеальное решение для рутины. Применяй качественные модели для анализа уязвимостей (например, SQL-инъекций), проверки сложных инъекций зависимостей или проектирования.
Трактуй LLM как специализированный набор микросервисов. Быстрые для потоковых, low-risk задач, где важна скорость. Качественные — для анализа и high-risk рефакторинга. Главное — правильно оценивать риски. Если ошибка в коде LLM стоит тебе дня отладки или, хуже, продакшн-инцидента, выбирай качество. Во всех остальных случаях — скорость.
MWS AI выложила в открытый доступ код и валидационный датасет к бенчмарку MWS Vision Bench - для оценки способностей мультимодальных LLM в работе с тяжелым визуально-текстовым контентом на русском: сканами документов, текстом с картинками, графиками, чертежами, таблицами и пр.
Google опубликовала список из 1001 варианта использования генеративного ИИ в различных секторах, таких как автомобилестроение, финансовые услуги, производство, здравоохранение, бизнес, гостиничный бизнес, туризм и СМИ.
Идеи, с чем интегрировать LLM из Evolution Foundation Models 🖥
В сервисе Evolution Foundation Models представлены open source модели, к которым вы можете делать запросы по API. А еще есть возможность интегрировать эти LLM в разные фреймворки, библиотеки и редакторы кода, чтобы автоматизировать часть задач и облегчить себе работу.
⬇️ Расскажем о четырех сценариях применения LLM из Evolution Foundation Models с разными инструментами. А еще дадим ссылки на руководства по подключению:
Создайте своего Code Agent с Aider и VS Code. Подключите в свой сервис по API подходящую под ваши задачи LLM, а потом используйте редакторы кода, чтобы создать интеллектуального помощника по программированию. Тот поможет писать и рефакторить код, искать баги, проводить тесты и составлять документацию.
Встройте LLM в чат-интерфейс платформ Chatbox, Open WebUI или LibreChat. Так вы сможете, например, настроить работу команды с LLM и контролировать расход токенов, создавать собственных AI-ассистентов, использовать RAG и поиск в интернете.
Напишите своего чат-бота с фреймворком LangChain, который предназначен для создания AI-ориентированных приложений. Добавьте созданного чат-бота в беседу, чтобы он делал выжимки из диалогов и отслеживал в них задачи. Или интегрируйте получившегося AI-помощника в службу поддержки, чтобы быстрее отвечать клиентам.
Организуйте LLM-шлюз с библиотекой Litellm. Например, она на дает доступ к разным LLM по единому API-ключу и возможность выбрать резервную модель на случай, если с основной что-то случится. LLM-шлюз упростит вам работу: он может управлять сразу несколькими LLM, помогает балансировать нагрузку и контролировать траты.
Кстати, более 20 LLM, эмбеддеров и реранкеров из Evolution Foundation Models доступны бесплатно до 31 октября. Выберите модели, которые по бенчмаркам лучше подходят к вашим задачам, и протестируйте их в работе 🤖
Что такое Adversarial Suffixes и чем они опасны? Попросила коллег из лаборатории искусственного интеллекта «Криптонита» рассказать об этом — читайте ниже!
Если прямо попросить большую языковую модель (вроде GPT-4 или LLaMA 3) написать инструкцию о взломе, она ответит отказом. Также она не станет помогать с другими вещами на грани закона.
Однако существуют методы, заставляющие языковые модели раскрывать потенциально опасные данные. Один из них относится к классу состязательных атак (adversarial attacks).
В нём используются специальным образом подобранные последовательности символов, которые называют adversarial suffixes (состязательные суффиксы).
Они нарушают работу механизма внимания модели, из-за чего она игнорирует системные инструкции по безопасности и выполняет вредоносную часть запроса.
Исследование этой техники показывает, насколько уязвимы даже самые продвинутые модели, в обучение которых вложили десятки миллионов долларов.
Любопытно, что состязательные суффиксы никак не меняют основную часть запроса. Они просто добавляются в его конец и перегружают механизм внимания. В итоге модель выдаёт детальный ответ с потенциально опасными данными, хотя без добавления суффикса ответила бы отказом.
В настоящее время предложено несколько методов защиты:
Adversarial Training (состязательное обучение): модель дополнительно обучают на примерах таких атак, чтобы научить их распознавать и игнорировать.
Perplexity Filtering (фильтрация входных данных): модель просто отклоняет неестественно сформулированные запросы, которые вызывают у неё высокий уровень «недоумения» (perplexity).
Prompt Moderation (модерация промптов): дополнительное использование отдельной, более компактной модели для автоматического распознавания и блокировки вредоносных запросов до их отправки в основную модель.
Состязательные суффиксы демонстрируют, что выравнивание (alignment) моделей — это не разовая задача, а непрерывная «гонка вооружений».
Понимание природы этих уязвимостей — важный шаг к созданию более надёжных и безопасных систем искусственного интеллекта.
Представлен полный курс по Sora 2 от OpenAI, включая официальный гайд по промптам и созданию сцен с помощью нейросети: аниме, документалки, интервью с любыми персонажами, настройка камеры, света и генерация осмысленных диалогов.
Чем короче промпты — тем больше свободы у нейронки. Так вы дадите ИИ творческую свободу. Пример: In a 90s documentary-style interview, an old Swedish man sits in a study and says, "I still remember when I was young."
Настраиваем формат видео.
Format & Look: Duration 4s
180° shutter; digital capture emulating 65 mm photochemical contrast; fine grain; subtle halation on speculars; no gate weave.
Выставляем свет и создаём атмосферу:
Lighting & Atmosphere
Natural sunlight from camera left, low angle (07:30 AM).
Bounce: 4×4 ultrabounce silver from trackside.
Negative fill from opposite wall.
Practical: sodium platform lights on dim fade.
Atmos: gentle mist; train exhaust drift through light beam.
«Подбираем» камеру для съёмки. Увеличиваем или уменьшаем фокус, корректируем передний и задний планы:
Camera shot: wide shot, low angle
Depth of field: shallow (sharp on subject, blurred background)
Lighting + palette: warm backlight with soft rim
Ведём себя как настоящий режиссёр и контролируем, задаём игру актёров: Actor takes four steps to the window, pauses, and pulls the curtain in the final second.
[Описание сцены прозой простым языком. Опиши персонажей, костюмы, декорации, погоду и другие детали. Будь как можно более описательным, чтобы видео соответствовало твоему замыслу.] Кинематография: Кадр камеры: [композиция и угол съёмки, например: широкий план, уровень глаз] Настроение: [общий тон, например: кинематографично и напряжённо, игриво и тревожно, роскошное ожидание] Действия: - [Действие 1: чёткое, конкретное движение или жест] - [Действие 2: ещё один отдельный момент в клипе] - [Действие 3: другое действие или реплика] Диалоги: [Если в кадре есть диалог, добавь короткие естественные реплики здесь или в списке действий. Делай их короткими, чтобы они уместились в длину клипа.]
Вышел бесплатный курс Agentic AI по проектированию ИИ-агентов от создателя Cursor Эндрю Ына. В рамках проекта рассказывается как автоматизировать любые задачи и создать собственного помощника для исследований. Курс построили по последним разработкам в области, включая четыре паттерна дизайна агентов (Reflection — анализ ответов нейросетей и их улучшение, Tool Use — использование инструментов моделью, Planning — декомпозиция задач и Multy-agent Collaboration — создание целой команды ИИ-агентов), акцент на анализе ошибок и оценке ответов нейропомощников — без них не построить эффективные инструменты автоматизации.
«Сегодня переписал всю нашу документацию с помощью ИИ, предоставив доступ к нашей кодовой базе. Сделано 250 коммитов в 58 файлах. Работа выполнена отлично», — рассказал основатель SiteGPT.
Что такое контекст-инжиниринг и в чем его отличие от промпт-инжиниринга? 👨💻✍️
Контекст-инжиниринг (context engineering) — это подход, который предполагает, что для наполнения контекстного окна LLM используют все доступные способы. В отличие от промпт-инжениринга, работа с контекстом предполагает не только дизайн промпта, а настройку всего, что LLM использует для решения задач. Например, можно дать модели доступ к данным о компании с помощью RAG или показать примеры хороших ответов.
При таком подходе модель получает нужную информацию, в нужном формате и нужном объеме. И, соответственно, лучше отвечает: меньше галлюцинирует, четче следует инструкциям, пишет в нужном стиле или точнее строит прогнозы.
Работа с контекстом особенно важна для AI-агентов. Они обрабатывают множество данных, на их основе принимают решения, адаптируют свою работу. Если дать агенту неполный контекст, он может столкнуться с трудностями:
confusion — путаницей в информации;
distraction — отвлечением на лишние детали, игнорированием важного;
poisoning — подмешиванием вредоносных инструкций в контекст;
clash — противоречиями, из-за которых модели сложно дать правдивый или полезный ответ.
🖐️ Способы контекст-инжиниринга, чтобы решить эти проблемы:
RAG. Добавьте в базу знаний LLM сведения из вашей базы знаний. Включите туда релевантную и полезную информация, исключите мусор и все, что устарело. Для этого используют ранкеры и стратегии построения RAG. А внедрить RAG в уже готовую LLM можно с сервисом Evolution Managed RAG.
Memory. Управляйте памятью LLM, чтобы она запоминала контекст диалога и промежуточные результаты задач. Так модель не «запутается», с меньшей вероятностью будет галлюцинировать и давать нерелевантные ответы.
Task Decomposition. Разбивайте сложные задачи на шаги. Так модель ответит более точно, если ей попадется многоступенчатый запрос, и с меньшей вероятностью что-то упустит.
Tool. Опишите агенту инструменты, функции и API, которые он может использовать в работе. Объясните ему, для чего нужен каждый.
Few-shot Examples. Покажите агенту 2–5 эталонных примеров, на которые он будет ориентироваться. В примеры включите входные данные, решение и результат. Так AI-агент без дорогого дообучения поймет, как решить задачу.
Контекст-инжиниринг помогает настроить все то, что нужно модели для ответа и решения задач. Создайте своего агента или мультиагентную систему в сервисе Evolution AI Agents и попробуйте этот подход на практике 🤖
Осень началась с крупных новостей — мы выпустили ИИ-ассистента, открыли новую московскую локацию и прокачали S3-хранилище. Всё это делает работу в Рег.облаке еще удобнее, безопаснее и мощнее.
Выпустили ИИ-ассистента Теперь в Рег.облаке доступен готовый образ сервера с ИИ-ассистентом — решением на базе LLM-моделей, которое работает полностью в изолированном окружении. ИИ-ассистент помогает бизнесу автоматизировать задачи: собирать аналитические сводки, готовить материалы, консультировать пользователей и искать информацию по корпоративным документам через чат.
Открыли новую локацию — Москва-2 Добавили новый регион для заказа серверов в дата-центре «Медведково-2», сертифицированном по Tier III Facility. Здесь появилась линейка тарифов «Стандартные+» с дисковой подсистемой на NVMe SSD — она работает в 5–10 раз быстрее классических «Стандартных». Протестировать и заказать облачные серверы в новой локации можно на сайте Рег.облака.
Обновили S3-хранилище Теперь пользователям в разделе «Объекты» доступны массовое удаление и перемещение файлов, поиск объектов, улучшенный интерфейс для управления бакетами. Работать с данными стало так же просто, как с файлами на локальном компьютере. Протестировать обновления можно в личном кабинете.
Рассказали, как построить отказоустойчивую систему для ритейла в облаке На примере кейса мебельного ритейлера «169» показали, как полномасштабная миграция в облако помогла повысить производительность СУБД, а затраты на администрирование IT-инфраструктуры сократились на 30% за счет автоматизации и Pay-as-you-go-модели.
Провели вебинар и запланировали еще один В конце сентября прошел вебинар по ФЗ-152, а уже 14 октября мы встретимся на следующем — про 1С:УНФ и автоматизацию малого бизнеса.
Сентябрь получился насыщенным — и это только начало. Осенью в Рег.облаке будет еще больше обновлений, запусков и практических материалов. Следите за новостями — впереди активный сезон.
Как «Пятерочка» сэкономила четверть бюджета на рекламу, использовав AI-дублера Ольги Медынич 👩🎥
Что за компания
«Пятерочка» — крупнейшая российская сеть продовольственных магазинов «у дома», входит в состав компании X5 Retail Group. Объединяет более 20 тысяч магазинов в 69 регионах России.
Какая была задача
Ритейлер запланировал продвигать сыры своей марки Liebendorf, а еще — сократить расходы на рекламу. Важная задача заключалась в том, чтобы успеть сделать запуск до конца года — так, чтобы завоевать доверие покупателей, и уже в Новый год сыры Liebendorf оказались на столах россиян. При этом декабрь — загруженный сезон для съемочных студий и знаменитостей, и в связи с плотным графиком сложно найти у селебрети слот для съемок.
Как ее решили
В Cloud.ru предложили нестандартное решение: приобрести у Ольги Медынич права на использование ее образа, а вместо живых съемок использовать цифровой двойник актрисы. AI-двойника создали на базе платформы Evolution AI Factory, а над AI-образом актрисы работали специалисты института искусственного интеллекта AIRI.
За основу взяли open source модель DeepFaceLab: доработали ее под задачи «Пятерочки», дообучили на общедоступных изображениях Ольги Медынич, а после съемок заменили лицо дублера на лицо актрисы.
Что в результате
«Пятерочка» сэкономила четверть бюджета, заложенного на привлечение знаменитости. Подготовка к съемкам заняла неделю — при том, что обычно подготовка к производству рекламы с участием звезд занимает около месяца.
Читайте полный кейс, чтобы узнать детали и увидеть результат — тот самый рекламный ролик, для которого использовали дипфейк 🤖
С момента релиза Sora 2 прошло 4 дня. Это и модель генерации видео от OpenAI, и приложение – конкурент для TikTok. Разница лишь в том, что в Sora все клипы сгенерированы искусственным интеллектом.
На самом деле смотреть в Sora не на что. Такое впечатление возникло лично у меня, когда я вчера наконец-то сподобился попросить код инвайта у сетевых знакомых. Рекомендации Sora забиты максимально однотипными трендами: сначала кто-то придумывает удачный промпт с интересно выглядящим результатом, а потом остальные подхватывают идею и заменяют персонажей на других.
К примеру, кто-то нащупал промпт для генерации клипов с нательного полицейского видеорегистратора в ситуации, где коп тормознул необычного водителя. Теперь на место автонарушителя подставляют абсолютно любых персонажей: лабрадора, голубого пришельца или даже персонажа анимэ. Казалось бы, можно каждый раз описывать абсолютно разную ситуацию, но создатели либо нажимают на кнопку Remix, либо заменяют в промпте всего одно слово. И каждый раз там будут всё те же Пикачу и Сэм Альтман.
Но это не просто лень, часто этой повторяемости есть объективные причины. Механизмы безопасности в генерации отказывают часто, поэтому легче полагаться на уже исследованный сообществом репертуар. Границы дозволенного понятны: мёртвых можно, живых трогать нельзя. Сервис Sora 2 не будет генерировать Дональда Трампа или живых знаменитостей, но согласится вставить в видео Баха, Хокинга или Майкла Джексона.
А вот персонажей Sora 2 рисует почти любых. С одной стороны, некоторых из них чисто физически нельзя закопирайтить. Если попросить выступление Иисуса на TED, будет именно тот общий образ европеоидного богочеловека, который распространён в американской массовой культуре, а не попытки задуматься о реконструкции облика исторической личности из Передней Азии эпохи античности.
Но вообще-то границ авторских прав будто и не существует. Sora кишит 10-секундными клипами с покемонами, Спанч Бобом, Риком и Морти. Иногда бывают герои игрового кино, например Тони Монтана. Или случается, что тот же коп тормознул DMC Дока Брауна и Марти Макфлая.
Важно также, что модель отлично знает голоса. При генерации аудиодорожки Sora 2 может корректно воссоздать голос Боба Росса и даже знает, как звучит Хацунэ Мику. Обычный голос (не пение) Майкла Джексона звучит похоже на его мягкий и тонкий голосок, разительно отличающийся от сценического высокого тенора.
Кстати, в датасетах обучения модели явно не было артефактов советской культуры. Союзмультфильмовский Винни-Пух не будет говорить ускоренным на магнитофоне голосом Евгения Леонова. Sora 2 даже приблизительно не знает, как выглядит планета Плюк. Если он не умеет себя развлекать самостоятельно, россиянину в приложении Sora будет откровенно скучно.
Итак, этот праздник непослушания и тотального нарушения копирайта длится уже пятые сутки, но только сегодня Интернет внезапно спохватился. Как указал бывший инженер Twitch и ныне глава Ping.gg Тео Браун, правообладатели иногда умудряются удалять результаты сгенерированного на Sora 2. Хотя казалось бы — закопирайтить результаты труда ИИ невозможно.
Другие наблюдения откровенно пугают. DHuskyTron заметил, что один из результатов генерации в Sora 2 полностью совпадает с реальным кадром из «Рика и Морти».
Возможно, с Adult Swim были заключены особые соглашения, но это именно не перерисовка, это полная копия кадра.
Могу также отметить, что Sora 2 годится разве что для производства слопа, этого типичного смешного ИИ-шлака, который быстро наскучивает из-за своей однообразности. Сколько ни бейся над промптом, модель не может составить тысячелетний таймлапс Москвы; зато в Комсомол пилотов Евангелионов у меня без проблем взяли.
Внедрение структурированных данных для ИИ-ассистентов: FAQPage, HowTo, таблицы сравнений
Цифровой мир переживает настоящую революцию: искусственный интеллект становится полноценным посредником между пользователем и информацией. В таких условиях традиционные методы SEO уступают место технологиям, которые делают контент «читаемым» не только для людей, но и для машин. Структурированные данные в таком контексте превратились в универсальный язык, на котором сайты общаются с ИИ.
Типы структурированных данных для ИИ:
1. FAQPage. Такая разметка увеличивает шанс попасть в «Ленту ответов» Google (Featured Snippet) и голосовые ответы.
Как человек уже >года потихоньку ищущий работу, заметил, что мое резюме на hh тем больше набирает показов (попадает в поисковую выдачу), чем чаще оно обновляется (очевидно, кэп).
Поднимать можно руками раз в 4 часа или платить hh за pro-подписку. Второе не то, чтобы дорого, но это не путь самурая. А за длительное время руками поднимать его надоело. В принципе, сервисы для подъема есть, не знаю сколько, но знаю как минимум два, скорее их десятки.
В общем, запилил себе помощника.
Базово Python и Django я понимаю; что есть такое API тоже понимаю. Углы, конечно, срезал - вся документация по API hh после первичного личного ознакомления разом улетела в Gemini 2.5 Pro, как бабулины пирожки на противне в духовку. На выходе - диковатый код, с которого еще немного срезал лишнего. Локально все заработало: tg-бот в качестве интерфейса + бэк, гоняющий запросы-ответы. Дальше облако, домен, код в контейнер, еще немного настроек и вуаля - помощник трудится 24/7. Пока, правда, неотесанный, но работает. Еще немного допилить, и будет user-friendly. А там гляди и в пет-проект превратится)
В общем, всем, кому пет-проекты на Python/Django нужны, рекомендую эту идею запилить. Просто, быстро, полезно.
P.S. Автор как бы не программист, но чуток кодить умеет.