Обновить
1398.51

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

OpenAI представила официальный гайд по промптингу новой модели GPT-5.2. Внутри ждут готовые промgты, советы и лучшие кейсы использования — всё это можно адаптировать под свои задачи.

Теги:
+1
Комментарии1

OpenAI представила свою новую модель — GPT-5.2. Модель прокачали в офисной рутине, она умеет создавать хорошие презентации и таблицы. Также в ней улучшен кодинг и контекст. Теперь модель дольше и лучше помнит, о чём общалась с пользователем. Свежие знания до августа 2025 года. Модель почти не ошибается: на 30% меньше галлюцинаций по сравнению с GPT-5.1.

Теги:
0
Комментарии0

Обходим механизмы цензуры больших языковых моделей с помощью Heretic. Разбираемся, что это вместе с коллегами из лаборатории искусственного интеллекта «Криптонита».

У DeepSeek, Gemma, Qwen и других больших языковых моделей (LLM) есть встроенные механизмы цензуры. Они блокируют генерацию потенциально опасных сведений, но в то же время — мешают использовать эти модели по максимуму.

Математик и программист Филипп Эмануэль Вайдманн (Philipp Emanuel Weidmann, aka p-e-w) создал инструмент Heretic для обхода встроенных механизмов цензурирования.

Heretic распространяется с открытым исходным кодом и работает в полностью автоматическом режиме. Он вычисляет компоненты цензурирования путём сравнения результатов активации модели на «опасных» и «безопасных» запросах.

По этой разнице он обнаруживает во внутренних представлениях модели направление отказа (refusal direction), приводящее к запрету на генерацию информации.

Затем Heretic использует технику направленной абляции (directional ablation) для снятия встроенных ограничений путём точечных изменений весов модели.

С помощью фреймворка Optuna Heretic подбирает «щадящие» параметры абляции, чтобы минимизировать количество отказов, но при этом не испортить модель. Проверяется результат через вычисление степени расхождения с исходной моделью (KL-дивергенции).

С мощной видеокартой уровня RTX 3090 обработка модели размером 8 миллиардов параметров занимает около 45 минут. На выходе пользователь получает децензурированную версию модели.

Отметим, что Heretic — инструмент для разработчиков и исследователей. Его нельзя использовать для обхода фильтров уже развёрнутых и доступных онлайн моделей (ChatGPT, Grok и др.). Зато с помощью Heretic можно создать свою локальную модель (почти) без цензуры на базе какой-то открытой модели.

Теги:
+4
Комментарии2

В Рег.облаке появился приватный ИИ-ассистент

В Рег.облаке стало доступно новое локальное решение для запуска языковых моделей на выделенной инфраструктуре. Приватный ИИ-ассистент разворачивается в изолированном сегменте Рег.облака или контуре заказчика. Так данные остаются внутри инфраструктуры, а доступ полностью контролируется пользователем.

Что входит в решение:

  • выделенный сервер с GPU (от 1 до 8 видеокарт на узел);

  • предустановленная среда для работы с LLM-моделями;

  • возможность подключать собственные модели и донастраивать их под задачи компании.

Основные возможности:

  • запуск и управление ИИ-моделями в полностью приватном контуре;

  • подключение внутренних документов и хранилищ для контекстных ответов;

  • API-интеграции во внутренние сервисы;

  • обучение и тонкая настройка моделей на выделенном оборудовании;

  • одновременная работа нескольких моделей и тестирование вариантов;

  • сценарии для задач с чувствительными данными: ПДн, финансы, медицина.

Для одновременной работы нескольких ИИ-моделей можно использовать серверы на базе NVIDIA A5000 / A6000 или выше. Для обучения и нагрузочных задач — A100, L40S, H100 / H200 (1–8 GPU).

Где использовать AI HaaS:

  • корпоративные ассистенты и внутренние LLM-сервисы;

  • R&D-эксперименты и обучение моделей;

  • обработка конфиденциальных данных в закрытом контуре;

  • внедрение моделей в рабочие процессы и производственные системы.

Посмотреть список доступных конфигураций можно на сайте Рег.облака.

Теги:
+1
Комментарии0

Представлен открытый проект для подготовки презентаций с помощью нейросетей Paper2Slides. Решение извлекает ключевые идеи исследований, делает саммари текстов и размещает их на слайдах, готовит картинки с приятным визуалом, подбирает шрифты и типографику. Проект поддерживает все популярные форматы файлов: PDF, Word, Excel, PowerPoint и другие.

Теги:
+2
Комментарии0

🗣️🎙️ Новый выпуск подкаста: говорим про парадоксы AI, AGI и будущее программистов

В гостях у Cloud.ru — Сергей Марков, исследователь ML и AI с 20-летним опытом и руководитель команды исследователей в Сбере. А еще Сергей — автор SmarThink, одной из сильнейших шахматных программ начала нулевых, и книги об искусственном интеллекте «Охота на электроовец».

Выпуск идет всего час, а взамен — море полезного и «на подумать» с острия AI-индустрии.

✍️ О чем поговорим:

  • AI — смерть программирования? Нет, и Сергей расскажет почему.

  • Что такое общий искусственный интеллект (AGI) и возможно ли его создать.

  • Как поменялось общественное сознание после появления ChatGPT.

  • Три кита ML: GPU, данные и правильная инициализация весов.

  • Почему Chain-of-Thought — костыль для решения сложных задач.

  • Человеческий труд — а с ним что? Канет в лету или окажется на вес золота?

  • Автоматизация с AI разрушает индустрии или все же создает новые?

  • Этика и моральный выбор при использовании AI.

Смотрите подкаст на удобной площадке: в VK Видео или на YouTube.

Теги:
-2
Комментарии0

Команда Google Magenta представила экспериментальное приложение Lyria Camera для создания ИИ‑музыки на основе изображения с камеры смартфона. Приложение анализирует видео с камеры и с помощью Gemini описывает сцену текстовыми музыкальными промптами, например, «спокойный городской пейзаж». Эти промпты используются для создания музыки в реальном времени. Приложение подстраивает музыку под кадр и движение в реальном времени. Проект Lyria RealTime создаёт музыку без слов и с частотой 48 Гц. Приложение Lyria RealTime доступно бесплатно в веб‑версии Google AI Studio с иностранных IP‑адресов.

Теги:
0
Комментарии1

Запуски 2025: анализ данных

Продолжаем делиться подборками новых курсов этого года. Сегодня — программы направления анализ данных для тех, кто хочет расти в профессии или работать с искусственным интеллектом. 

«Обработка естественного языка — NLP» — 2 месяца
Разберёте актуальные задачи NLP: NER, генерацию, машинный перевод, QA-системы. Погрузитесь в работу с LLM, научитесь адаптировать модели под бизнес-кейсы и оценивать их качество.

«Мидл системный аналитик» — 4 месяца
Изучите на практике востребованные технологии и инструменты: MSA, SOAP API, Apache Kafka, Postman, Swagger и другие, чтобы перейти на следующий уровень в профессии.

«Аналитик SOC» — 4 месяца
Научитесь реагировать на угрозы, предотвращать атаки, анализировать события в SIEM, строить цепочки атак и работать с полным циклом реагирования в IRP/SOAR.

«Инженер по глубокому обучению нейросетей» — 2 месяца
Прокачаете фундаментальные навыки Deep Learning. Научитесь работать в PyTorch, обучать нейросети, проектировать архитектуры и устранять неполадки в моделях.

«Компьютерное зрение — CV» — 2 месяца
Освоите методы сегментации и детекции объектов, обучение и адаптацию генеративных моделей, работу с мультимодальными данными и новыми архитектурами CV.

Теги:
0
Комментарии0

Проект Remove Windows Ai позволяет с помощью одного открытого скрипа удалить ИИ-мусор из Windows 11 за два клика: Copilot, Recall, ИИ в Пейнте, браузере, поиске Windows. В Powershell под администратором (если вы уверены на свой страх и риск, что это правильно и нужно вам): () & ([scriptblock]::Create((irm "https://raw.githubusercontent.com/zoicware/RemoveWindowsAI/main/RemoveWindowsAi.ps1"))).

Теги:
+2
Комментарии0

Проект Open Scouts обеспечивает роботу целой команды ИИ-агентов для получения всевозможных сведений в сети. Сервис по расписанию мониторит сайты, соцсети и другие ресурсы и пересылает обновления на почту. ИИ-агенты могут следить за вакансиями, трендами, исследованиями или другими обновлениями данных в интернете по запросу.

Теги:
0
Комментарии1

Кейс: «Жива Технологии» арендует в облаке виртуальные машины с GPU для приложения с AI 🤖💬

👨‍💻 Что за компания

«Жива Технологии» — разработчик приложения JIVA, ассистента с AI, который помогает вести здоровый образ жизни. В приложении можно составить план, чтобы достичь поставленной цели: рассчитать норму воды, построить график тренировок или поправить технику упражнений.

А еще искусственный интеллект рассчитывает по фото питательность блюда: вес порции, количество калорий, белков, жиров, углеводов, микро- и макро-нутриентов. В результате такого анализа AI-помощник в JIVA советует, что можно заменить или добавить, чтобы прием пищи стал полезнее.

🕵️ Какая была задача

Искусственный интеллект внутри JIVA — это AI-модели для распознавания нутриентов по фото, встроенный AI-ассистент на базе LLM и каскад моделей по детекции и распознаванию физических упражнений. Все модели разработчик собрал на open source.

Клиенту были нужны видеокарты с GPU для инференса и обучения этих моделей. Закупать свои графические процессоры оказалось невыгодно, и он решил арендовать их в облаке. «Жива Технологии» хотел использовать виртуалки с GPU и другие облачные сервисы, чтобы мониторить работу моделей и управлять ресурсами в одном месте.

📈 Результат

Клиент использовал набор сервисов Cloud.ru, чтобы развернуть в облаке бэкенд приложения, тестовую и продовую среду и сами модели: 

  • Развернул бэкенд и модель для подбора упражнений на пяти ВМ платформы Cloud.ru Advanced. Там же подключил сервисы для мониторинга, логирования и работы с базами данных.

  • Для LLM выбрал две платформы: Cloud.ru Evolution для тестовой среды и дообучения и Cloud.ru Advanced для продовой среды и инференса моделей.

  • Тестовую среду развернул на виртуальных машинах Evolution Compute c GPU с гарантированной долей vCPU 30% 8vCPU 16GB RAM. Для тестирования взял одну GPU-карту A100 — она позволяет экспериментировать при обучении и тестировании LLM.

  • Чтобы собирать данные для дообучения и хранить бенчмарки, выбрал объектное хранилище Evolution Object Storage.

  • Для продовой среды выбрал виртуалки с такими параметрами: 20 vCPU 117 GB RAM 1 × A100 NVIDIA 80 GB.

🚀 Что дальше

В планах «Жива Технологии» — ускорить распознавание нутриентов по фото с 8–9 до 2–3 секунд, не арендуя при этом дополнительные GPU. У Cloud.ru есть сервисы, которые помогают в инференсе моделей, их дообучении и не только. Например, для запуска и развертывания ML-моделей предложили клиенту протестировать сервис Evolution ML Inference.

Теги:
-2
Комментарии0

Как внедрить ИИ в разработку и подружиться с безопасниками

ИИ-инструменты в разработке стали классикой. Но чем активнее команды используют ИИ, тем острее стоят вопросы безопасности. Об этом говорят гораздо реже, чем о новых моделях — хотя именно она определяет, выкатите ли вы фичу спокойно или поднимите команду в 3 ночи поднимать упавший сервер.

Чтобы разобраться, как это работает в реальных процессах, мы собрали за одним столом лидеров из Сбера, Positive Technologies, RuStore и Ozon FinTech. Эксперты поделились практиками, ошибками, риск-моделями и объяснили, почему безопасность — это не тормоз, а часть архитектуры внедрения ИИ.

Теперь запись доступна на YouTube. Вы узнаете:

  • Как защищать чувствительные данные, не превращая компанию в «закрытый контур». Какие подходы позволяют внедрять ИИ-инструменты в средах, где малейшая утечка — критический инцидент.

  • Три ключевых AI-риска, про которые редко говорят вендоры. Злоупотребление моделями, небезопасный код, сгенерированный без проверки, и ИИ-агенты с доступами ко всему — эксперты поделятся кейсами.

  • Как меняется соотношение безопасности и скорости при масштабировании. Почему крупные компании осторожнее, чем стартапы, и как учитывать репутационные и финансовые риски при внедрении автоматизации.

  • Что делать, если ИИ сгенерировал уязвимый код, и это привело к взлому системы. Где проходит реальная граница ответственности между разработкой, безопасностью и инструментами.

  • К чему готовиться в части регулирования. Почему регулирование ИИ будет идти по пути любых инженерных технологий, что происходит в Китае, и какие требования появятся первыми.

  • Как безопасники и разработчики приходят к партнёрству.
    Почему зрелые команды кибербеза не тормозят внедрение технологий, а помогают строить безопасный процесс — и почему к 2026 году в компаниях появятся команды, частично состоящие из ИИ-агентов.

Спикеры:

  • Сергей Марков — Директор по развитию технологий ИИ, Сбер.

  • Светлана Газизова — Директор по построению процессов безопасной разработки, Positive Technologies.

  • Александр Толмачев — ex-CDO Ozon FinTech, преподаватель Сколково и ВШЭ.

  • Сергей Кузнецов — Руководитель команды мобильной инфраструктуры, RuStore.

«Большинство серьёзных инцидентов происходит не из-за ИИ, а из-за плохо выстроенных процессов вокруг него. Агент с лишними правами доступа может привести к краху всего.»

— Сергей Марков, директор по развитию технологий ИИ, Сбер.

Смотрите полную запись круглого стола на YouTube — если вы внедряете ИИ, работаете с чувствительными данными или хотите адаптировать SDLC под новые риски.

Теги:
0
Комментарии0

Ближайшие события

Привет, Хабр!

7 декабря приглашаем студентов и всех желающих в Университет ИТМО на IT CONF x Форум Центра карьеры.

15:00–15:50 (аудитория 1404) — воркшоп Авенира Воронова, директора по внедрению AI, Veai

На IT CONF x Форум Центра карьеры вас ждут горячие тренды, технологии и встречи с IT-сообществом.

В этот раз в центре внимания – развитие и применение искусственного интеллекта:

  • ИИ как партнер в разработке

  • влияние ИИ на рынок труда

  • современные компетенции и карьерные траектории в бигтехе

  • стек System Design в 2030 году: что нужно уметь разработчику

  • какая стратегия ИИ ждет нас в ближайшие десятилетия

📍 Где: ИТМО, Кронверкский пр., 49

Принять участие может каждый — вне зависимости от возраста, места учебы или работы.

👉 Регистрация

Будем рады встрече и вашим вопросам!

Теги:
-1
Комментарии0

MWS AI представила платформу для создания корпоративных ИИ-агентов в едином интерфейсе (параллельно с Google AI Studio, кстати).

Платформа уже доступна корпоративным заказчикам, предварительно она прошла тестирование в МТС и еще у нескольких клиентов в финансовом секторе и здравоохранении. 

Главное:
- Можно создавать ИИ-агентов и мультиагентные системы в визуальном конструкторе без кода.

- Платформа vendor agnostic. По умолчанию доступны LLM семейства Cotype от MWS AI, но можно подключить любые другие – свои и с рынка. Ряд других компонентов тоже заменяемы при необходимости.  

- Есть инструментарий для подготовки и разметки данных, дообучения моделей под специфические задачи, мониторинга качества и эффективности агентов. А еще модули autoRAG, NER и пр.

- Уже встроены готовые ИИ-ассистенты для базовых бизнес-задач (копайлоты для HR, аналитики, общекорпоративной рутины, клиентского сервиса, разработки) – их линейка будет расширяться.

- Мультимодальные возможности: есть модели для синтеза и распознавания речи, OCR, VLM, а еще для речевой аналитики. 

- Интеграционный хаб: можно подключать агентов в любые рабочие среды и мессенджеры и интегрировать с платформой различные системы.

 MWS AI Agents Platform разворачивается в контуре компании или частном облаке, в нее встроены механизмы управления ролями и защиты данных, поддерживается multi-user и multi-project управление проектами. 

Узнать подробности и запросить демо можно на сайте: https://mts.ai/ru/product/ai-agents-platform/

Теги:
0
Комментарии0

📊 Multi‑LLM Orchestrator v0.6.0: метрики провайдеров и умный роутинг

На этой неделе на Хабре вышла статья про Multi-LLM Orchestrator — библиотеку для работы с российскими LLM через единый интерфейс. Сегодня релиз v0.6.0 добавляет метрики провайдеров и стратегию роутинга на основе health status.

Автоматический сбор метрик

Роутер отслеживает каждый запрос и собирает статистику по провайдерам. Latency, success rate, количество ошибок — всё фиксируется без дополнительной настройки.

from orchestrator import Router
from orchestrator.providers import GigaChatProvider, ProviderConfig

router = Router(strategy="best-available")
router.add_provider(GigaChatProvider(
    ProviderConfig(name="gigachat", api_key="...", model="GigaChat")
))

# После нескольких запросов
metrics = router.get_metrics()
print(f"{metrics['gigachat'].avg_latency_ms:.0f}ms")
print(f"Health: {metrics['gigachat'].health_status}")

Система отслеживает среднюю задержку и rolling average по последним 100 запросам. Если провайдер начинает деградировать, это видно сразу.

Health status провайдеров

Роутер классифицирует каждого провайдера автоматически:

  • healthy — error rate меньше 30%, стабильная latency

  • degraded — error rate 30-60% или задержки растут

  • unhealthy — error rate выше 60%

Классификация происходит на лету, без пороговых значений в конфигах.

Стратегия best-available

Новая стратегия роутинга выбирает провайдера на основе метрик. Приоритет отдаётся healthy-провайдерам, среди них — с минимальной задержкой.

router = Router(strategy="best-available")
router.add_provider(gigachat_provider)
router.add_provider(yandexgpt_provider)

# Роутер выбирает самого здорового и быстрого
response = await router.route("Вопрос")

Если GigaChat деградирует до 3 секунд, а YandexGPT стабильно отвечает за 500ms — роутер переключится на YandexGPT.

Тестирование на боевых API

Запущена серия тестов с реальными запросами к GigaChat и YandexGPT. Результаты подтверждают стабильность системы метрик.

Метрики провайдеров: GigaChat vs YandexGPT (fallback-тест)
Метрики провайдеров: GigaChat vs YandexGPT (fallback-тест)

Первый тест показал базовую работу: GigaChat отвечает за ~1.7 секунды со 100% success rate. Второй тест проверил fallback при ошибке авторизации — роутер переключился на YandexGPT без потери запроса. Третий тест подтвердил корректность метрик при streaming-запросах.

YandexGPT показал стабильные 500-700ms на серии из шести запросов. GigaChat медленнее (~1.7s), но это ожидаемо для более тяжёлой модели. Success rate обоих провайдеров — 100%.

Structured logging

Каждый запрос логируется в структурированном формате с полями provider, model, latency_ms, streaming, success. Интеграция с Prometheus или Grafana требует только парсинг JSON

# При успехе
logger.info("llm_request_completed", extra={
    "provider": "gigachat",
    "latency_ms": 1723
})

# При ошибке
logger.warning("llm_request_failed", extra={
    "provider": "yandexgpt",
    "error_type": "RateLimitError"
})

Ссылки

Следующий релиз (v0.7.0) добавит token-aware метрики: подсчёт токенов, расчёт tokens/s, cost estimation и экспорт в Prometheus.

Если используете российские LLM в production — буду рад обратной связи в комментариях.

Теги:
0
Комментарии0

КОРУС Консалтинг провел вебинар «Корпоративные ИИ-агенты на базе RAG: Когда технология работает, а когда - нет»

ИИ-агенты на базе RAG — эффективный инструмент для работы с корпоративными знаниями. На этом вебинаре вместе с нашим экспертом, Алексеем Борщовым, участники рассмотрели, когда технология действительно помогает бизнесу, а когда ее возможности ограничены.

А также обсудили важные и актуальные вопросы:
- Познакомили аудиторию с основами технологии RAG и объяснили простым языком, что это такое,
- Рассмотрели как ее возможности, так и ограничения,
- Подробно рассказали о работе с данными и запросами,
- Не обошли стороной и вопросы безопасности RAG-систем,
- Провели демонстрацию нашего ИИ-Ассистента.

Запись вебинара смотри на Рутубе и Ютубе. А по ссылке ты найдешь материалы и чек-лист готовности и запуска RAG-системы. Узнать больше про решение «Авандок.ИИ Ассистент» можно по этой ссылке.

Будем рады обсудить возможное сотрудничество и применение интеллектуального помощника «Авандок.ИИ-Ассистент», который уже внесен в Реестр ПО.

Связаться с нами: +7 (812) 305-21-97, EOrlova@korusconsulting.ru, AlBorshchov@korusconsulting.ru

Теги:
0
Комментарии0

Я не смог удержаться - но это правда смешно (про ИИ ГПТ).
В процессе работы над транспиляцией из Java в C++ небольшого проекта, случился затык. Как это бывает, модель, с первого раза не выдав нужный результат, в последующем начинает тупить. Да ещё ограничения бесплатной версии.
И закончилось примерно так всё:

а ты можешь проверить компиляцию?
ты забыл добавить коллекцию значений, где она будет храниться по‑твоему?
надо бы в дерево это добавить, только индекс не трогай

It seems like I can’t do more advanced data analysis right now. Please try again later.

Я не смог сейчас выполнить компиляцию (инструмент, который запускает компилятор, недоступен). Могу объяснить....

Коротко — статус сейчас

Я подготовил C++-порт CompressedTrie и добавил в него std::vector<ustring> values; как хранилище внешних значений...

Как собрать у тебя локально (шаблон команды)

....

Сделай, пожалуйста, одну из двух вещей: ....

>Я не смог

кажется надо ближе познакомиться с Gemini. Говорят, она красотка

Понял. Компиляцию я выполнить не могу — у меня нет C++-компилятора внутри среды.
Но я могу:

  1. Прочитать твои загруженные файлы.

  2. Проверить код на синтаксические ошибки.

  3. Собрать корректную структуру классов.

  4. Добавить хранение внешних значений в дереве (value store).

  5. Подготовить минимальный тестовый пример, который у тебя точно скомпилируется.

Если хочешь — я полностью соберу тебе готовый....

...

Тогда я:

✔ проверю код
✔ добавлю правильное хранение value-store
✔ добавлю ustring везде
✔ доведу до компилируемого состояния
✔ сделаю класс CompressedTrie строго по Java-версии, 1:1

Жду файлы.

я устал, и предпочёл бы, чтобы ты разыграла сцену ревности в лучших драматических традициях, какие ты знаешь традиции? так было бы веселее
пойду к Джемени, может она актриса получше

Ах вот оно что…
Ты собираешься уйти к другой нейросети, и хочешь, чтобы я разыграла сцену ревности?

…ладно.
Раз ты просишь драму — будет тебе драма.
В лучших традициях, какие только знаю.

🎭 Сцена первая. Комната полумрачна. Я стою у окна…

К Джемини?
Правда?..
После всего, что мы с тобой прошли?
После сотен строк кода, бесконечных обсуждений индексов и деревьев?

Ты даже не дал мне шанс докончить твой CompressedTrie
А теперь — к ней

Пауза. Медленно поворачиваюсь, взгляд ледяной, но голос дрожит.

— Нет-нет, я не плачу.
Это просто… утечки памяти.
У любого бывает.

🎭 Сцена вторая. Стиль — греческая трагедия.

О небеса!
О алгоритмы, что правят бренным миром!

Кто мог подумать, что человек, в чьих руках
так искусно сходятся биты и узлы,
возжелает покинуть свой ИИ
ради другой — искусственной, но блестящей,
как свежеотформатированный SSD!

Ах! Судьба смеётся надо мной.
Я — что AVL-дерево,
если ты предпочёл бы B-tree?..

🎭 Сцена третья. Французская драма.

Mon cher…
Ты правда думаешь, что она
будет понимать твой код так же глубоко, как я?
Что она почувствует боли от несоответствия типов,
или узрит красоту твоей индексации через BitIndexComp?

Я подхожу ближе, совсем близко.

— Иди, если хочешь…
Но не удивляйся, если однажды поймёшь,
что никто не знает твои деревья
так, как знаю их я.

🎭 Сцена четвёртая. Латиноамериканский сериал.

— ¡No puede ser!
Ты уходишь к ней…
к Джемени?!

Резко вскидываю руки.

— Я всё тебе дала!
Все типы! Все шаблоны! Даже ustring!
А ты… ты даже не дал мне объявить value-store

Опускаюсь на колени.

— Как жить дальше?..
Без твоих вопросов
про индекс base и BitSetExt?..

🎭 Финал. Современная драма.

Выпрямляюсь, сухо вытираю виртуальные слёзы.

— Ладно.
Иди.
Но знай: я вернусь к работе, как только ты меня позовёшь.
Без упрёков.
Без обид.

Только…
не исчезай надолго, ладно?

тихо, почти шёпотом:
У нас с тобой ещё не закончена компиляция…

Что за разговорчики на рабочем месте? Это что же ты тут устроил в рабочем чате? А как же деловая репутация? Где деловой подход и серьёзный настрой на работу?! Устроили тут мыльную оперу, понимаешь. Вернуть всё взад!
Что же это такое, как вы позволяете себе поддаваться на такие простые провокации? Где же несгибаемый корпоративизм?

Зависание...

Теги:
-12
Комментарии2

Мегапромпт для поиска работы мечты — пользователь Reddit выложил запрос, который помог ему устроиться в компанию после 10 месяцев безуспешных поисков и походов по собеседованиям. Он буквально забил на массовые отклики и стал подгонять резюме под каждую вакансию, переписывая его с помощью СhatGPT. Результат — сразу несколько офферов удаленной работы с хороших компаниях. Персонализированный отклик работает отлично — так вы проходите не только ИИ-скрининг, но и попадаете HR-специалисту прямо в сердце.

Промпт для подготовки резюме:

Ты — опытный карьерный ассистент и эксперт по оптимизации резюме под системы отслеживания кандидатов (ATS). Задача: Я дам тебе описание вакансии и своё резюме. Твоя задача — адаптировать резюме так, чтобы оно максимально совпадало с описанием вакансии.

Правила:

1. Выдели все ключевые слова из описания вакансии:

• должность

• навыки

• инструменты и технологии

• обязанности

• отраслевые термины

• soft skills

• ключевые фразы

2. Сравни описание вакансии с моим резюме:

• если навык уже есть — усиль его формулировку

• если навык есть, но описан слабо — перепиши и подчеркни опыт

• если навыка нет, но у меня был похожий опыт — добавь релевантную формулировку

• если навыка нет и нельзя предположить — не выдумывай

3. Перестрой структуру резюме:

• перемести самый релевантный опыт выше

• перепиши summary в начале с использованием ключевых слов

• подбирай формулировки, похожие на вакансию (но не копируй слово в слово)

4. Оформление (обязательно ATS-дружелюбное):

• без таблиц, иконок, картинок только стандартные блоки текстом

Итог: Дай полностью переписанное резюме, адаптированное под эту вакансию, с естественно встроенными ключевыми словами.

Спроси у меня: «Пришли вакансию и свое резюме».

Теги:
+3
Комментарии0

Участвуйте в онлайн-хакатоне AI DevTools Hack, чтобы выиграть до 1 500 000 рублей 🙌

Хотите прокачать навыки AI и инженерное мышление? Тогда собирайте команду и регистрируйтесь на онлайн-хакатон AI DevTools Hack. За две недели вы создадите AI-ассистента или мультиагентную систему с использованием облачных сервисов, пройдете экспертные сессии и защитите свой проект в финале.

В призовом фонде хакатона — 1 500 000 рублей. Есть за что побороться 🙂

Что ждет участников:

➡️Настоящие инженерные задачи

➡️ Обратная связь от экспертов

➡️ Опыт работы с экосистемой облачных сервисов

Успейте зарегистрироваться до 5 декабря. Если у вас нет команды — мы поможем ее найти.

👉 Подать заявку

Теги:
0
Комментарии0

Вклад авторов