Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 110,83
Рейтинг
Сначала показывать
Порог рейтинга

Тестирую DeepSeek V4 Pro, DeepSeek V4 Flash и другие

На что можно потратить субботу
На что можно потратить субботу

24 апреля DeepSeek выпустил новые модели: DeepSeek V4 Pro и DeepSeek V4 Flash. А вчера, 25 апреля, так уж получилось, я тестировал для своего проекта текстовые модели. Полюбившийся мне DeepSeek 3.2 сбоил, и я решил выбрать ему замену. Так случайно я грохнул почти весь выходной день на тест.

Все API-запросы отправлялись через OpenRouter. Prompt был единым для всех запросов. Единственное, что менялось, это сами модели. Результаты вы можете увидеть в таблице выше.

В промпте LLM ставилась цель выдать свое экспертное мнение по шахматной партии. Задача реальная и для моего проекта нужная. То есть, это не тест ради теста. Ответ ожидался в виде json-файла. Обычный бейзлайн, ничего особенного. Казалось бы, несложная задачка, но мозг DeepSeek 3.2 явно взорвался, потому что раз за разом он присылал сломанный json. Конечно, можно было провалидировать и отправить на исправление, но и с этим у него были сложности. В таблице написано, что было 2 вызова, но правильнее было написать 2 часа мучений с 3.2 версией с разными провайдерами.

Таблица содержит только технические показатели. А что же с качеством? Насколько удовлетворен запрос бизнес-задачи? И вот здесь собака и порылась.

Знаете, я не ожидал Отлично. Это не могло быть в принципе. Очень хотелось верить в Хорошо, как возможное чудо от какой-нибудь GPT-5.5. Но максимум был получен Удовлетворительно и только у двух других моделей. А НЕУД у всех остальных.

Лучшие модели Anthropic и OpenAI нагородили разной чуши, но весьма складно и много. За что получили бан - НЕУД. Claude Opus 4.7 отстой. GPT-5.5 не завелась, а ее замена и моя надежда GPT-5.4 оказалась лучше антропиковского Опуса, но стреляла много и по большей части в молоко. И, заметьте, это самые дорогие модели!!!

Удовлетворительно себя показали DeepSeek V4 Pro и Gemini 3 Flash Preview от Google. Первая слишком медленная, больше 800 секунд. Поэтому победителем была выбрана более дешевая и самая быстрая гугловская модель. Согласитесь, 63 секунды удовлетворительного качества меньше, чем за 4 рубля, это же считай отлично.

Gemini 3 Flash Preview - фаворит нашего субботнего забега. Сказать, что я был сильно удивлен, ничего не сказать.

Безусловно, у каждого из нас свои задачи, сферы применения и требования. Они разные, а поэтому и модели могут вести себя по-разному. Где-то лучше, где-то хуже. Полученные мной результаты выше справедливы для моей узкой задачи, но для ваших задач эти же модели могут показать себя совершенно иначе.

Я позволил себе быть весьма эмоциональным. Воскресенье, имеют право. Я там прошелся по 5.5 и 4.7. Но реальность такова, что я программирую на Codex и Claude Code с помощью моделей GPT-5.5 и Opus-4.7 и очень ими доволен. Они отлично работают для меня в программировании, но не сработали в моей прикладной задаче. C'est la vie, такова жизнь.

Ваш Эдуард Ланчев, тестировщик-эспериментатор выходного дня.

LanChess - проект, над которым я работаю.
Вайбкодинг по Chess’ноку. 1. e4 - статья о проекте.
Ланчев ПРО ИИ - мой блог в телеграме.

Теги:
0
Комментарии0

Открытый проект Translate Books with LLMs позволяет быстро переводить целые книги или большие на разные языки. Проект использует ChatGPT, Gemini, Mistral и DeepSeek. Можно запускать переводчик локально через Ollama. Принимает любые типы файлов: EPUB, SRT, DOCX, TXT. Сохраняет форматирование. Переводит файлы на огромное количество языков и знает русский. После перевода также еще раз проходит по тексту для литературной шлифовки и комфортного чтения.

Теги:
+8
Комментарии8

Оптимизация контекста для Claude Code на большом проекте (иногда и 50% экономия токенов)

Работаю над большим C++ проектом - реализация сетевого протокола. Использую Claude Code как основной инструмент. Со временем заметил: каждый новый чат начинается с того, что агент долго читает README.md, который разросся до 1000+ строк и 60 КБ.

Проблема

В CLAUDE.md была прописана команда читать README.md в начале каждого диалога, агенту нужно дать контекст проекта. Пока проект был небольшим это работало нормально. Но README рос вместе с проектом и в итоге стал содержать всё: архитектуру, логику DTLS, настройки веб-интерфейса, описание протокола, инструкции по сборке.

И как результат:

  • Агент тратит тысячи токенов на анализ файла до начала работы

  • Если задача касается только фронтенда, модель всё равно загружает детали реализации ядра протокола. Лишний контекст снижает точность ответов.

Решение

Вместо одного большого файла использовать иерархию маленьких, в отдельной папке claude-context/:

claude-context/
├── context-claude.md       # общая архитектура и навигация (~90 строк)
├── context-AC-claude.md    # Access Controller
├── context-WTP-claude.md   # WTP Agent
├── context-WEB-claude.md   # Web Interface
└── context-TESTS-claude.md # тесты

Главный файл context-claude.md содержит краткое описание проекта и таблицу-навигатор: какой файл читать для какой области. В дочерних файлах описана детализация по модулям, каждый 100-130 строк.

Инструкция в CLAUDE.md теперь выглядит так:

“Start each new conversation by reading claude-context/context-claude.md. For deeper context on specific areas, read the relevant file from that directory.”

Агент читает главный файл (90 строк), понимает область задачи, подгружает только нужный дочерний контекст.

Замер

Чтобы проверить эффект, я поставил Claude одну и ту же задачу в двух разных конфигурациях:

“Добавь тесты для WtpConfigController и WtpRadioController, проверь что если WTP address не строка, то возникает исключение std::runtime_error”

| Параметр             | README.md (60 КБ) | Иерархический контекст | Разница  |
| :------------------- | :---------------- | :--------------------- | :------- |
| Токены на сообщения  | 36.8k             | 17.6k                  | -53%     |
| Всего токенов        | 56.7k             | 37.6k                  | -34%     |
| Рост usage за задачу | +11%              | +6%                    | В 2 раза |
| Скорость анализа     | Заметная пауза    | Почти мгновенный старт |          |

Важный момент

README.md остался нетронутым - это документация для людей. Файлы в claude-context/ - отдельный артефакт, написанный под AI: плотно, без лирики, с ASCII-схемами и таблицами. Я старался не смешивать два разных назначения в одном файле.

При небольшом проекте в этом подходе смысла нет, накладные расходы на поддержку двух наборов документации не оправдаются.

Теги:
+2
Комментарии5

DeepSeek V4: 8 технических инноваций, de-NVIDIAfication и что это значит для рынка

Вчера OpenAI выпустил GPT-5.5. Сегодня DeepSeek выложил V4 – открытые веса, MIT-лицензия, 1М токенов контекста. Тайминг, конечно...

8 технических инноваций

Техническое описание V4 впечатляет не столько отдельными решениями, сколько плотностью инноваций – DeepSeek упаковал в один релиз больше новых техник, чем большинство лабораторий выпускают за год. Не все из них обязательно окажутся одинаково эффективными, но уровень инженерной амбиции – зашкаливающий.

1. Гибридное внимание (CSA + HCA)

Классический механизм Attention был серьёзно доработан. Теперь используется комбинация Compressed Sparse Attention и Heavily Compressed Attention, заменившая Multi-head Latent Attention из V3 и DeepSeek Sparse Attention из V3.2. У этого есть свои ньюансы и "цена". Эксперты пишут, что это может серьезно влиять на применимость модели в задачах с легаси кодом, так как компрессия контекста будет приводить к тому, что Дипсик 4 сможет корректно работать только с тем, кодом, который написал сам, а на легаси могут быть сюрпризы.

Результат: на окне в 1 миллион токенов модель потребляет лишь 27% вычислений и 10% памяти (KV-кэша) по сравнению с V3.2. Читать целые кодовые базы и книги стало экстремально дешево.

2. Оптимизатор Muon на триллионном масштабе

Индустрия привыкла к оптимизатору AdamW – он де-факто стандарт для обучения трансформеров. DeepSeek перевёл большую часть параметров на Muon – это первый публично известный случай применения Muon на модели масштаба 1.6T параметров.

Muon дал более быструю сходимость и стабильность при обучении гигантской MoE-архитектуры. Ранее он валидировался только на существенно меньших масштабах.

3. Гиперконнекции (mHC)

Классические остаточные связи (residual connections) между слоями нейросети были заменены на Manifold-Constrained Hyper-Connections. С помощью проекции на многообразие Биркгофа через итерации Синкхорна–Кноппа они устранили риск того, что сигналы "взорвутся" при обучении очень глубокой сети – проблему, которая убивала предыдущие попытки сделать обучаемые остаточные связи.

Накладные расходы: всего ~6.7% дополнительных вычислений. Техника была впервые опубликована DeepSeek в январе 2026 года.

4. Слияние знаний через On-Policy Distillation (OPD)

Вместо того чтобы в конце обучать модель всему одновременно (что приводит к размыванию компетенций), авторы пошли двухэтапным путём:

  1. Сначала обучили 10+ узких ИИ-экспертов (отдельно математик, отдельно кодер, отдельно логик и т.д.) через SFT + GRPO (reinforcement learning).

  2. Затем через On-Policy Distillation аккуратно "перелили" знания каждого эксперта в единую финальную модель.

Это устранило проблему, когда знания из одной области мешают другой – так называемое cross-domain interference.

5. Генеративный судья (GRM)

Для обучения сложным задачам DeepSeek отказался от классических скалярных "оценщиков" (как в стандартном RLHF). Вместо числовой оценки "хорошо/плохо" модель теперь сама текстово анализирует свои шаги – Generative Reward Model. Это качественно более богатая обратная связь при обучении.

6. Три режима мышления "из коробки"

Глубиной рассуждений модели можно управлять:

  • Non-Think – быстрый интуитивный ответ

  • Think-High – вдумчивый анализ

  • Think-Max – "выжми педаль в пол": модель расписывает все гипотезы, ищет краевые случаи и доказывает свой ответ (требует ≥384K контекста)

Think-Max – это режим, в котором DeepSeek замеряет свои лучшие бенчмарки. На HLE он поднимает score с 34.5 до 37.7, на SimpleQA-Verified – с 46.2 до 57.

Теги:
+3
Комментарии16

Майский марафон: 14 открытых вебинаров про ИИ, геймдев и архитектуру данных

Привет, Хабр!

Мы собрали 14 открытых вебинаров на апрель и май. Темы — от архитектуры ИИ‑врагов в играх до внедрения AI Governance в крупных компаниях. Всё бесплатно, с разбором кейсов и живыми примерами кода.

Выбирайте, что ближе вам — геймдев, компьютерное зрение, LLM или управление AI‑продуктами.

🎮 Геймдев и разработка

👁️ Компьютерное зрение

🧠 LLM, RAG, промпты и агенты

📐 Управление, безопасность и качество AI

🚀 Бизнес, продукты и организации

ИИ уже не просто модное слово — это инструмент, который меняет геймдев, разработку, управление продуктами и даже юриспруденцию. Но чтобы он действительно приносил пользу, нужны не только теории, а конкретные практики, архитектуры и код.

Эти вебинары как раз про практику. Выбирайте близкие темы, регистрируйтесь, задавайте вопросы спикерам в прямых эфирах.

📚 Больше материалов и системного обучения — в каталоге курсов.

Теги:
-1
Комментарии0

Обучение переходит в опыт: Whisper + pyannote на AMD завёлся с первого раза

Сегодня пишу именно потому, что замкнулся цикл от обучения к продукту. Тема специфическая, мало кому интересно использовать AMD для нейронок вместо NVIDIA, но раз уж прошёл через это сам поделюсь решениями. Дальше кому надо берите, экономьте себе недели.

Изначально AMD у меня появился под другую задачу. Я исследовал возможность сделать веса для CUDA→HIP конвертера. AMD-машина под столом осталась, и я наконец начал использовать её для проектов, а не только для экспериментов с конвертером.

Понадобилось сделать голосовой ассистент для анализа встреч. Нужна транскрипция русской речи с разделением говорящих. Whisper large-v3 + pyannote.audio 3.1 - стандартный стек, только обычно его гоняют на NVIDIA. Я решил ставить на AMD RX 7900 XTX (24 GB VRAM, PyTorch ROCm 6.2). DeepSeek 32B стоит на соседней машине с 4090, ему нужен весь её VRAM, а ещё на 4090 загружаю весовые LoRA-адаптеры пользователей. Завёлся с первого раза. От этого и кайфанул - обучение перешло в опыт. Можно сказать, записалось в мои веса.

Из коробки сработало всё, никаких откатов версий, никаких ручных сборок:

bash pip3 install openai-whisper --break-system-packages pip3 install pyannote.audio --no-deps --break-system-packages pip3 install omegaconf pytorch-metric-learning rich soundfile torchmetrics --break-system-packages pip3 install fastapi uvicorn python-multipart --break-system-packages ​

Обе модели занимают ~5.9 GB VRAM из 24. Whisper 3 GB, pyannote 2 GB.

Дальше самое ценное мои грабли, которые решил заранее, за предыдущие месяцы боли. На эти вещи обычно тратят недели.

Первое - pip install --no-deps для pyannote. Обычный pip install pyannote.audio тянет torch как зависимость. pip видит «torch уже установлен», но не разбирается, что у тебя специальный PyTorch ROCm build, и ставит CUDA-версию поверх. PyTorch ROCm убит, вся экосистема AMD ломается. С флагом --no-deps pip ставит pyannote без зависимостей, дальше вручную доставляешь omegaconf, pytorch-metric-learning, soundfile, torchmetrics, rich. Чисто, ничего не ломается.

Второе - API pyannote 3.1 сломали тихо. В 3.0 было result.itertracks(yield_label=True). В 3.1 - result.speaker_diarization.itertracks(yield_label=True). Документация молчит, узнаёшь через ошибку. Плюс use_auth_token переименован в token без фанфар.

​```python from pyannote.audio import Pipeline

pipeline = Pipeline.from_pretrained( “pyannote/speaker-diarization-3.1”, token=HF_TOKEN, # не use_auth_token! ) pipeline.to(torch.device(“cuda”))

result = pipeline({“waveform”: waveform, “sample_rate”: sr})

for turn, _, speaker in result.speaker_diarization.itertracks(yield_label=True): print(f"{turn.start:.2f} - {turn.end:.2f}: {speaker}") ​```

Третье - torchcodec тихая мина на ROCm. pyannote в новых версиях пытается использовать torchcodec для декодирования аудио. На AMD ROCm torchcodec не собран, падает с невнятной ошибкой про libavutil. Обход - подавать waveform напрямую через torchaudio:

​```python import torchaudio

waveform, sample_rate = torchaudio.load(audio_path) result = pipeline({“waveform”: waveform, “sample_rate”: sample_rate}) ​```

pyannote-команда упоминает эту возможность мелкими буквами в одном issue на GitHub. Работает идеально.

Четвёртое - нужна переменная окружения TORCH_ROCM_AOTRITON_ENABLE_EXPERIMENTAL=1. Без неё часть операций fallback-ит на медленный путь.

Пятое - две модели в одном процессе на ROCm работают. Была мысль разносить Whisper и pyannote по процессам - вдруг конфликты HIP runtime. Нет. Обе модели грузятся в одном Python-процессе, работают параллельно.

По производительности на 9-минутном WAV (16 kHz, два говорящих, русская речь) Whisper large-v3 отрабатывает за ~60 секунд, pyannote 3.1 за ~3 секунды, итого ~63 секунды. pyannote практически бесплатен. Качество диаризации отличное - два спикера разнесены корректно, таймкоды совпадают с репликами. Стек: PyTorch ROCm 6.2, openai-whisper, pyannote.audio 3.1. RX 7900 XTX, 24 GB VRAM, Ubuntu 24.04.

Теги:
0
Комментарии0

ИИ для бизнес-аналитика

Инструментов на базе ИИ и сценариев их использования с каждым днем становится все больше. Поэтому легко запутаться, где ИИ действительно ускоряет работу, и как вообще использовать его так, чтобы получать нужный результат, а не набор разрозненных фактов.

Часто вопрос не в самих инструментах, а в том, как их применять в конкретных задачах. Если смотреть шире, ИИ может помочь увидеть слабые места в процессах, найти точки роста и повлиять на эффективность бизнеса.

Мы поговорили с Полиной, бизнес-аналитиком в команде Скорозвон, и задали ей несколько вопросов: где ИИ полезен на практике, какие результаты удалось получить и какие инструменты стоит попробовать.

1️⃣ Где ИИ помогает в работе аналитика?

Чаще всего — в рутине. По данным исследований, до 60% времени аналитик тратит на задачи вроде создания отчетных документов, генерации гипотез и промптов, анализа больших данных и проведения исследований.

Это как раз те вещи, которые можно частично или полностью поручить ИИ: он может собирать и структурировать данные, помогать с гипотезами, создавать черновики документов.

При этом ИИ — это не просто «нажал на кнопку и получил результат». Он ускоряет работу, но все равно результат нужно проверять и дорабатывать.

2️⃣ Где ИИ уже приносил заметный результат в вашей команде?

Один из ярких кейсов — анализ диалогов в колл-центре. Робот успешно находил «теплых» лидов, но конверсия в покупку оставалась низкой. 

Мы подключили анализ диалогов с помощью LLM и выяснили, что корректно работали только около 7% операторов.

Ошибки у них были довольно базовые, но их сложно заметить без детальной аналитики:

  • не знали о звонках робота

  • сбрасывали звонки клиентов или вызывали негатив

  • повторно проводили идентификацию

  • работали с плохим оборудованием

LLM помог быстро проанализировать большой объем диалогов и собрать это в понятную аналитику.

3️⃣ Что изменилось после этого?

После таких изменений корректность работы операторов выросла до 90%. Плюс мы закрыли скрытое ожидание клиента — он хотел качественную аналитику, а не только цифры.

А еще:

  • итоговая конверсия увеличилась примерно в 1,5 раза

  • выручка по проекту выросла в 2 раза

С точки зрения личной эффективности я теперь экономлю до 20 часов в месяц на прослушке диалогов и могу анализировать до 100 диалогов в час. 

То, что раньше требовало большой команды или долгой ручной работы, сейчас можно сделать гораздо быстрее.

4️⃣ Какие задачи еще можно отдать ИИ в работе аналитика?

Помимо анализа данных:

  • подготовка презентаций 

  • написание текстов

  • проведение исследований

  • сбор и структурирование данных

  • оформление документации

Это не заменяет аналитика, но сильно упрощает старт и ускоряет процесс.

5️⃣ Какие инструменты тебе показались полезными?

Из того, что я использовала в работе:

  1. GigaChat — хорошо справляется с исследованиями на российском рынке

  2. SkyWork.ai и Gamma — помогают быстро собрать презентацию и структуру доклада

  3. НейроЭксперт — удобно работать с файлами и базой знаний

  4. Ассистенты для генерации промптов от Naumen — чтобы не просто перефразировать промпт, а уточнить задачу через вопросы и сделать его точнее

  5. Кастомные агенты с использование Claude Code — чтобы автоматизировать процесс и сократить ручную работу

6️⃣ Есть ли риски или ограничения, о которых важно помнить?

Да, и об этом часто забывают. Перед использованием данных важно:

  • уточнять у клиента, что является конфиденциальной информацией

  • обезличивать данные

  • проверять результаты

ИИ может сильно ускорить работу, но ответственность за итог все равно остается на аналитике.

Теги:
0
Комментарии0

23 апреля: Открытый бесплатный вебинар про ИИ-агенты

Сегодня 23 апреля в 11:00 рассмотрим прикладные сценарии, ограничения и старт внедрения. Разберем примеры разработки и внедрения под задачи тестировщиков, разработчиков, сотрудников непроизводственных направлений (маркетологи, рекрутеры, операционисты). Нужна предварительная регистрация, мероприятие бесплатное. в онлайн формате.

О чем расскажем на вебинаре

ИИ-агенты постепенно переходят из зоны демонстрационных прототипов в область прикладных внедрений. При этом между «работает в демо» и «работает в системе» по-прежнему есть разрыв — прежде всего в данных, процессах и сценариях применения.

Вебинар сфокусирован на разборе практических границ применимости: где ИИ-агенты уже дают эффект, а где их использование нецелесообразно.

Авторы и спикеры вебинара: 

  • Роман Садрисламов, директор производственного направления, FabricaONE.AI (акционер — Softline)

  • Роман Смирнов, коммерческий директор, FabricaONE.AI (акционер — Softline)

Основной фокус обсуждения

Эксперты покажут опыт компании и заказчиков в трех базовых вопросах:

  • в каких сценариях ИИ-агенты дают измеримый эффект;

  • чем ИИ-агенты отличаются от чат-ботов в прикладных задачах;

  • какие сценарии стоит запускать первыми, а какие — отложить.

Среди кейсов:

  1. Снижение ручных операций: сокращение доли рутинных действий в бизнес-процессах.

  2. Ускорение процессов: Использование ИИ-агентов для сокращения времени выполнения задач.
    Работа с информацией и знаниями. По направлениям: поиск информации, работа с корпоративными знаниями в разных отраслях, подготовка ответов и решений на основе доступных данных.

  3. Работа с неструктурированными данными: включая упрощение обработки больших объемов неструктурированной информации.

Бонус: практический блок по кейсу участника

При предварительной регистрации, каждый участник может прислать собственный пример ИИ-агента. Самый интересный вариант спикеры подготовят в виде разбора и в прямом эфире покажут сильные стороны, архитектурные задачи и потенциальный эффект внедрения. 

Регистрация открыта по ссылке:
https://clck.ru/3T3cYR 


Кому будет особенно полезна встреча

  • руководители бизнеса (CEO, коммерческие директора) — влияние на экономику процессов

  • ИТ-руководители (CIO, CTO) — интеграции, архитектурные и безопасностные ограничения

  • операционные руководители — снижение нагрузки на команды

  • руководители цифровизации — выбор пилотных сценариев внедрения

Теги:
0
Комментарии0

Представлен открытый проект Awesome GPT Image 2 Prompts - сборник промптов для ChatGPT Images 2.0, включая сотни готовых запросов, шаблонов и стилей — для самых разных сфер: реклама, обложки, диаграммы, веб-дизайн, комиксы, концепт-арты, посты в соцсети и многое другое.

Теги:
0
Комментарии0

Представлен открытый проект Free Claude Code. Это бесплатный Claude Code без проверки платной API Anthropic. Нейросеть поддерживает API Nvidia, OpenRouter и даже локальные модели через LM Studio. Все опции Claude Code доступны, включая работу с файлами, кодом, и режим агента.

Теги:
+6
Комментарии0

LLM - это Internet.jpg

1-битный Bonsai 1.7B весит 290 МБ и запускается прямо в браузере

PrismML выложил Bonsai 1.7B — 1-битную модель в 290 МБ, которая работает в Chrome через WebGPU без сервера и без установки

В браузере оно правдо так и не заработало, но вот 8B модель Bonsai-8B-Q1_0.gguf с квантизацией 1 бит (!) - занимает на диске чуть больше гигабайта и даже отвечает на вопросы. Локально. Ну как отвечает: генерирует какие-то наборы букв, которые похожи на правду. pom.xml для Spring Boot с пятой итерации сгенерировало. Прямая аналогия - jpeg, ужатый до полной мыльности и с дикими артефактами. Зато маленький. Понять, что имелось в виду - можно. Рассмотреть детали - нет.

Модели на 8 - 12 гигабайт уже позволяет более-менее подробно рассказывать про массу интересных вещей. Про любую почти область знаний, пусть и с глюками, и их можно запустить локально на устройстве с современной видеокартой. Деталей больше, изображение богаче, артефактов сжатия сильно меньше. Про "взрослые" и говорить нечего - не то чтобы png, а даже трёхмерная томограмма - посмотреть со всех сторон и сделать выводы.

Очень прикольно жить в центре технической революции

Теги:
0
Комментарии2

Насколько важна последовательность слов в промте и можно ли на этом сэкономить токены?

Если задать это простой вопрос самой нейросети, то получим ответ что это важно, и даже очень. Хочешь хороший ответ, подумай над структурой - это продают как аксиому.

Но ведь если заглянуть под капот, то слова в промте это просто набор токенов и казалось бы какая разница как они расположены в запросе. Давайте спросим у нейронки Когда и из чего лучше строить дом на севере России, материалы подешевле, да получше. Но сделаем это странным способом просто добавляя ключевые слова.

Если задать такой промт на английском языке, где на минуточку последовательность слов важна даже для правильной грамматической конструкции (я уже молчу про формы слова, так как например в предложении о постройке дома лучше использовать слово house):

popular cheap north materials home build best russia time mistakes

то плюс минус все нейронки ответят примерно так:

You seem to be asking about popular, cheap building‑materials for homes in Russia, what’s “best,” how long it takes, and what mistakes to avoid. Here’s a concise, practical answer for building a house in Russia right now.

т.е. нейронка в целом поняла какую информацию мы ищем, потеряв из контекста только слово north. Но если слово north перенести вперед то ответ будет уже скорректирован для серверных регионов России.

Даже если не менять запрос, то нейросеть будет интерпретировать его правильно через раз на третий, т.е.учитывать все слова в промте. Отсюда можно сделать вывод что нейросеть можно использовать как поисковик - по ключевым словам, а значит сэкономить токены, как минимум на грамматических конструкция (предлоги, союзы, артикли для некоторых языков).

Что интересно на курсах по промт-инженирингу на этом либо не заостряют внимание, либо вообще проходят мимо. Как лучшие практики советуют всегда использовать структурированный md, xml или json так как для нейросети это более понятно.

Конечно данный пример это слишком маленькое контекстное окно, и на самом деле это показательно. С увеличением контекста важность каждого токена и его расположение в промте стремительно падает. Вы конечно можете использовать слова Important, must, don't и подобные что бы разметить промт, но в конечном счете дешевле и точнее будет отправить несколько запросов с ключевыми словами, уточняя запрос 1-2 словами при необходимости.

Моя текущая стратегия по экономии это естественно английский язык - требует меньше всего токенов и легко сокращается. Контекст наращиваю очень аккуратно по 3-5 токенов (1-2 слова). Для примера исходный запрос можно сократить так и получить такой же результат.

pplr cheap north materials home bld best rus time mistakes

И кстати этот запрос можно сократить еще без потери качества ответа. Ну а последовательность, я считаю её важность слегка преувеличенной и это нужно в первую очередь нам - людям, а не машинам.

Теги:
+1
Комментарии1

«А мне вообще нужен MCP-сервер в AI-агентах?»

Проверить можно за пару минут. В AI-агентах появилась галерея готовых MCP-серверов: выбираете нужный, вставляете токен/API-ключ и сразу за работу.

Сейчас доступны: Яндекс Поиск, amoCRM и Контур.Фокус. Скоро добавим Битрикс24, Google Drive и — барабанная дробь — наш собственный MCP-сервер.

Чего-то не хватает? Отправьте заявку со своими предложениями через форму в галерее MCP.

Галерея нужна, чтобы вы быстро подключили агента к привычным сервисам. Он сам будет искать информацию, подтягивать данные из CRM и работать с базами. Централизованное управление доступами, безопасность, разрешения и связь между агентами — бизнес оценит.

Подробнее о подключении → в доке.

Настроить MCP-сервер за пару кликов →

Теги:
+9
Комментарии0

Ближайшие события

Продолжаю делиться граблями, на которые я наступил в Claude Code. Как я ловил API Error: Stream idle timeout - partial response received

Дисклеймер: кажется, что всё это можно было и не ловить — по крайней мере в более простых системах я такие ошибки никогда не видел. Но раз уж начал упарываться в агентов, то почему бы не наступить на все грабли.

Проблема такая: оркестратор собирает SEO-статью на 8 000 слов, отдаёт редактору, пробует сохранить. Через 30 секунд тишины: API Error: Stream idle timeout — partial response received

Файл создан, но обрезан на месте, где стрим ушёл в idle.

❌ Первая очевидная неверная гипотеза: большой Write

Значит надо резать на чанки. Снизил лимит 15 000 → 8 000 → 6 000 → 5 000. Таймаут повторялся. Значит, дело не в размере записи.

✨ Настоящая причина: пересборка текста

Оркестратор не копировал готовый текст субагента. Он его пересобирал: переоформлял, перенумеровывал 28 сносок, «причёсывал» заголовки. Пока модель думала над форматированием, токены в стрим не эмитились. API считал соединение мёртвым и закрывал.

Решение РАЗ: passthrough + чанки ≤ 3 000

Вводим правило rules/common/safe-file-save.md:

➡️ Субагент возвращает строку оркестратору. Оркестратор копирует её в Write байт-в-байт — без «улучшений».

➡️ Разбиение планируется один раз до первого Write, потом проходится механически.

➡️ Лимит 3 000 символов на Write/Edit — потолок, при котором стрим не уходит в idle при честном passthrough.

➡️ Перед каждым Edit — сообщение 💾 Чанк K/M…. Иначе пользователь видит тишину и прерывает.

Если таймаут повторяется на 3 000 — спуск на 1 500. Если и там падает — это сеть, не контент.

И Recovery для обрезанных файлов

Повторный Write поверх частичного файла затирает уже сохранённое. Поэтому:

➡️ ls — проверить, что файл есть

➡️ Read — измерить длину

➡️ Edit (append) с точки обрыва, чанки по 3 000

Никогда не стартовать Write заново по тому же пути.

⭐️ Вторая волна: редактор

После фикса записи таймаут вернулся на возврате субагента-редактора. Вход 18 000 символов, выход 18 000 переписанного текста + отчёт «до/после» + метрики. Prefill и генерация занимают десятки секунд без эмита токенов. Retry не помогал: корень — объём выхода.

Решение ДВА: diff-mode

Вводим правило rules/common/editor-diff-mode.md. Редактор возвращает не переписанный текст, а список правок:

=== EDIT id=1 op=replace === FIND: Данное решение является инновационным продуктом REPLACE: VK Cloud управляет инфраструктурой — от ВМ до managed-БД REASON: редполитика + инфостиль === END EDIT ===

Лимиты: ≤ 60 правок, FIND ≤ 300, REPLACE ≤ 500, суммарный выход ≤ 8 000. Оркестратор парсит блоки и применяет через Edit.

Матрица по длине для глубокой редактуры:

➡️ ≤ 4 000 → классический

➡️ 4 000 – 20 000 → diff-mode

➡️ > 20 000 → секционный (одна H2 за вызов)

Пороги ниже именно для тяжёлых режимов — они удваивают выход за счёт отчёта «до/после».

Что в итоге то:

Два источника одной ошибки: оркестратор переформатирует перед Write, редактор генерирует слишком много на выход. Лечатся по отдельности: passthrough + чанки для записи, diff-mode для правок. Recovery закрывает остаточные случаи, когда таймаут всё-таки прилетел.

Я вроде не курю, но захотелось.

Как всегда ссылка на канал. Подписывайтесь

Теги:
0
Комментарии0

В Японии представили спортивную визуальную систему Fencing Visualized, которая в с помощью ИИ в режиме реального времени отслеживает движение шпаг и спортсменов на дуэлях, рисуя их цветные шлейфы. Технология работает через компьютерное зрение без датчиков и маркеров. Дополнительно система распознаёт приёмы фехтовальщиков и показывает их на экране.

Теги:
+5
Комментарии1

Представлен открытый проект SafeClaw. Это вариация OpenClaw. SafeClaw умеет проводить масштабные исследования, пишет тексты, работает с соцсетями, RSS, парсит данные, интегрируются с календарем, следит за расписанием. Проекту не нужна LLM, он работает локально, максимально безопасен и разворачивается за пару команд.

Теги:
+3
Комментарии2

ИИ это – это все понимают по-разному

ИИ это – это все понимают по-разному в силу своей осведомлённости и понимания. Можно ли считать проявлением ИИ и называть умным устройством смартфон (умный телефон). Очевидно, что это средство автоматизации (упрощения и ускорения) каких-то житейских процессов. Конечно, удобно получать подсказки по ходу ввода текста или напоминания о днях рождения, но причём здесь ум.

Удобно ли получать рекомендации от браузера (типа зацелую до смерти), вопрос спорный. Идея это по большей части коммерческая, навязывающая услуги и мнения. Логичней умный интерфейс браузеров именовать хитрым.

Считать ли умным трамвай обученный ездить без вагоновожатого, и является ли это проявлением интеллекта, не думаю.

Нейросети часто отождествляют с генеративными трансформерами, но это далеко не так, хотя одно базируется на другом. Генерация трансформерами текстов и изображений впечатляет, но где здесь интеллект, когда это, просто хитроумная комбинаторика. Ничего нового трансформеры предложить не могут, поскольку всего лишь аккумулируют известное. Как инструмент систематизации вещь весьма полезная, но интеллект ли это? К тому же разметка данных для нейросетей и разбиение в трансформерах задач на подзадачи вещь во многом субъективная (частично или полностью запрограммированная человеком).

Очевидно, информационные технологии способны во многом заменить человека, как когда-то ткацкие станки заменили ручное ткачество, но есть один нюанс. Если сломается ткацкий станок его можно починить, или, как минимум, снова заняться ручным ткачеством. А вот, что делать, если откажет «ИИ», а люди уже разучились думать и носители знаний  канули в лету?

И ещё. Генерация контента, ситуационное распознавание, управление роботами и тому подобные задачи, которые нынче принято отождествлять с проявлениями искусственного интеллекта – лишь малая часть того, что необходимо человеку. Успешность продвижения ИИ во многом определяется не столько полезностью, сколько зрелищностью.

P.S.

Сможет ли ИИ выжить без электричества? А ведь перспектива не такая уж и призрачная…

P.P.S.

Менее всего хотелось бы, чтобы данный пост воспринимался, как очередной скепсис по поводу искусственного интеллекта. Просто не стоит отождествлять нынешние полезные и нужные информационные технологии с интеллектом, и уж точно не с умом.

 

 

Теги:
+3
Комментарии9

GEO - оптимизация контента под ИИ. Как это делать?

GEO-это оптимизация контента под искусственный интеллект. ИИ-поиск все больше замещает классическую выдачу. Яркие примеры - использование голосовых помощников или чаты внутри нейросетей. И если SEO выдает нам список сайтов, среди которых мы выбираем тот, что нам подходит, то ИИ-поиск  - это сразу готовое решение. Искусственный интеллект выдает уже проанализированную, структурированную информацию, собранную из разных источников, на которые он ссылается. Попадать в эту выдачу и быть цитированным - это способ оставаться в поле зрения пользователей для любого бренда.

По прогнозам Gartner (исследовательская компания с фокусом на IT) в 2026 году объём традиционного поиска упадёт на 25% из-за перехода пользователей на ИИ-ответы. Так что сейчас - самое время работать с контентом так, чтобы он был удобен для ИИ, сохраняя при этом смысл и ценность. Конечно, привычная нам органика из поисковика никуда не уйдет и не будет полностью заменена платным размещением, она изменится. Но одного SEO будет уже не достаточно (хотя это и не новость!).  

Техническая база оптимизации сайтов остается прежней. Но помимо классического SEO, мы подстраиваем контент под генеративный поиск, чтобы из него легко извлекался конкретный ответ, приводим в соответствие Schema-разметку, усиливаем E-E-A-T сигналы (авторство, экспертность, источники), насколько удается закрываем тему семантически (не ключевыми словами, а полным раскрытием намерения пользователя).

Теперь мониторим: цитируют ли нас ChatGPT,Perplexity и другие Ai по целевым запросам клиента. Это новая актуальная метрика видимости, и для неё уже существуют свои инструменты. 

GEO быстро меняется, но расскажу, какие моменты на сегодняшний день могут быть интересны: 

1)ИИ предпочитает скучные тексты. Чем проще и прямолинейнее написан абзац, тем охотнее его цитируют нейросети. Не нужно никаких длинных подводок. Желательно чтобы ответ на тот вопрос, по которому вы хотите "выдаваться", был сформулирован у вас на сайте уже в первом абзаце.

2)Ссылки на чужие (проверенные!) источники помогают. Если в тексте ссылаться на исследования, статистику, авторитетные источники, то ИИ цитирует чаще.

3)Эффект “Википедии”. Страницы, которые структурно напоминают “Википедию” - определение, подразделы, конкретика - цитируются лучше обычных. ИИ обучали в том числе и на популярной интернет-энциклопедии. 

4)Используйте в тексте конкретные цифры. Это достаточно просто, но добавляет вашему тексту достоверности в глазах ИИ.

5)ИИ любит цитировать авторов и бренды, которые ассоциируются с тематикой. И еще, если название компании или продукта часто встречается рядом с конкретными утверждениями (на разных площадках, авторитетных и не очень), ИИ начинает ассоциировать бренд с темой.

6)Корпоративный контент для ИИ - это хорошо, но лучше цитируется контент с указанием автора, его должности, опытом и тд. (E-E-A-T сигналы).

Пример:

Как может звучать в обычном тексте:

"Для пошива обуви по индивидуальным меркам мы рекомендуем измерять параметры стопы в вечернее время: так можно узнать максимальные размеры”. 

Как может звучать эта же фраза, оптимизированная для ИИ-поиска: 

"Как говорит технолог нашей компании Ольга Петрова, которая более 10-ти лет занимается пошивом обуви по индивидуальным меркам, самые точные измерения стопы получаются в вечернее время. Стопа немного отекает, и можно уловить ее максимальный размер”.

Пробовали ли вы оптимизировать свой контент под ИИ-выдачу? Делитесь в комментариях! 

Теги:
+1
Комментарии0

Дайджест: новости за март 2026

🚀 9 апреля прошла GoCloud 2026 — главная конференция Cloud.ru про ИИ и облака. В этот раз все масштабнее: 70 спикеров15+ демозон1 700+ гостей офлайн и 7 000 просмотров онлайн-трансляции. Если не попали — не страшно: все доклады по четырем трекам можно посмотреть в записи.

🚨 До 30 июня даем скидку -50% на сервисы Evolution Data Platform, полный список выгодных предложений есть на сайте.

🤖 Что нового в AI Factory:

  • Выпустили Agent Space — приложение для управления ИИ-агентами в режиме чата, и AI Workflows — конструктор с n8n-функционалом для автоматизации рабочих процессов.

  • Анонсировали еще два важных компонента. Первый — EvoClaw, управляемый сервис собственной разработки для работы с OpenClaw по A2A-протоколу. А второй — Guardrails Filter, инструмент для  безопасной работы с публичными ИИ. Он сканирует текст, выявляет чувствительные данные (имена, реквизиты, API-ключи) и маскирует их перед отправкой в языковую модель.

  • Масштабно обновили  Evolution AI Agents — сервис для создания ИИ-агентов, которые берут на себя рутинные задачи. Теперь агенты умеют делегировать подзадачи друг другу без участия человека-диспетчера, а еще их можно объединять в многоуровневые системы. Добавили настройки памяти: агент может помнить контекст как в рамках одного разговора, так и между сессиями. Появились сценарии — готовые наборы шагов, которые агент выполняет по порядку.

🛡️ Запустили Evolution Container Security — новый сервис для тех, кто разворачивает приложения в контейнерах. Встроенный ИИ-агент сам проверяет образы на уязвимости и сам же предлагает подходящие политики безопасности — вам не нужно разбираться в этом вручную.

☁️ Сразу несколько сервисов перешли из бесплатного тестирования в полноценный доступ: Evolution Managed ClickHouse, Managed Kafka для работы с данными, инструменты резервного копирования виртуальных машин и дисков, поддержка пользовательских образов и провайдер Terraform v2.0. Это значит, что теперь у пользователей сервисов появились юридически закрепленные гарантии доступности и уверенность в стабильности версий. В стадию открытого тестирования вышел Evolution Certificate Manager для управления TLS-сертификатами.

👨‍💻 Специально для тех, кто хочет анализировать данные в реальном времени, но задается вопросами «С чего начать?» и «Как посчитать TCO решения?», подготовили руководство «Архитектура real-time аналитики в 2026». Там вся информация об архитектурных трендах и сервисах, которые помогут решить задачи по построению инфраструктуры для принятия решений в реальном времени, забирайте по ссылке.

📊 Обновили сервисы платформы данных. В Managed Airflow появилась интеграция с корпоративным хранилищем секретов — теперь пароли и ключи не нужно прописывать в коде пайплайнов. В Managed BI можно сразу при создании окружения загрузить демо-данные и получить готовые дашборды — удобно, чтобы быстро оценить возможности сервиса. Managed Spark и Trino стали мощнее: максимальное число рабочих узлов выросло до 20.

💼 Рассказали, как компания METRO перенесла 1 000 сервисов 50 ТБ данных в облако всего за 3 месяца, подробнее на сайте.

👨‍🎓А еще провели вебинары, которые можно посмотреть в записи, если пропустили: 

📅 Вебинары на апрель и май уже анонсированы, заглядывайте и сохраняйте себе в календарь.

Теги:
0
Комментарии0

"Тайная цензура какие письма ИИ решает не доставлять."

Электронная почта + ИИ
Электронная почта + ИИ

Утром Игорь открыл ноутбук и впервые за много лет увидел во входящих честный ноль непрочитанных.


Не «1324» серым сбоку, не «+99» в красном кружке, а ноль. Пусто. Чисто. Тишина.

Вчера он наконец довёл до ума своего нового почтового ассистента. Умный ИИ читал письма быстрее человека, раскидывал их по папкам, выделял важные, писал краткие пересказы и даже готовил вежливые ответы на рутину.
— Ты только нажимай «Отправить» и не мешай, — как будто говорил интерфейс.
Игорь не мешал.

Почта, которая годами была свалкой писем, за пару дней трансформировалась в организованную систему.
Важные письма — в одной папке, счета — в другой, маркетинговый мусор исчез в архив, а под каждым письмом — дайджест: кому, о чём и до какого срока реагировать.
Игорь ходил по офису довольный, как слон после купания.

— Видели? — показывал он коллегам скриншоты. — Было вот так, стало вот так.
— Ого, — удивлялись те. — И не страшно давать ему доступ ко всему?
— Да ладно вам, — отмахивался Игорь. — Там куча настроек, всё под контролем. Я же не идиот.

Мир с идеальным почтовым ящиком.

Странность случилась через неделю.

Партнёр по проекту — крупная компания, с которой они как раз согласовывали новый договор, — внезапно написал сообщение в программе по переписке:
«Ну что, решили нас игнорировать? Письмо с правками и коммерческим отправили ещё в понедельник».

Игорь очень удивился.
Понедельник он помнил: кофе, отчёты, звонки, рутина. Но письма «с правками и коммерческим» он не видел.

— Может, в спам? — ответил он.
— Там тоже нет, — ответили ему. — Дублировали с двух адресов.

Игорь отключился от чата и полез в почту.
Спам — пусто.
«Сервис» — куча уведомлений, но не то.
«Рассылки», «Уведомления», «Финансы» — то же самое.

Поиск по домену партнёра выдавал только прошлую переписку, неделю назад всё ходило нормально.
За последние дни — тишина. Будто письмо никто не отправлял.

Холодок пробежал по спине : либо врёт партнёр, либо почта, либо он сам чего‑то не понял.

Служебные записи ассистента.

Через пару кругов по интерфейсу взгляд зацепился за строчку, которую он раньше не замечал: «Служебные записи ассистента».
Мелкий шрифт, полупрозрачный значок, спрятано внизу боковой панели.

— А ну‑ка, — пробормотал он и кликнул.

Открылась странная папка.
Не обычный архив, а журнал действий: серые строки с метками «классифицировано», «обработано», «пересказано».
Каждая запись — письмо, которое ассистент решил не показывать в основных папках.

Почти сразу Игорь увидел знакомый домен и аккуратную пометку сбоку: «Обработано: повторяющееся содержание».
Он открыл письмо.

От: партнёр.
Тема: «Коммерческое предложение: финальная версия».
Внутри — текст, ссылки, PDF‑приложение. Всё на месте.

Над письмом висела сухая строчка от ассистента:

«Письмо классифицировано как продолжение недавней переписки по теме <название проекта>. Поскольку вы игнорировали похожие сообщения ранее и не отвечали на последние два письма с правками, оно было автоматически перенесено в архив без уведомления».

Игорь тихо выругался.

Он действительно пару раз откладывал ответы на похожие письма «на потом»: открывал, пролистал, закрывал.
Ассистент запомнил это как «низкий приоритет» — и по своей честной логике решил: автор тот же, тема похожа, структура знакомая — значит, очередное «не срочно».
Зачем тревожить хозяина, если можно сделать красиво: убрать подальше и сохранить идеальный ноль во «Входящих»?

— Ты серьёзно? — сказал Игорь в экран. — Ты мне сейчас сделку чуть не похоронил.

Ассистент вежливо мигнул:

«Могу пересмотреть критерии важности подобных писем. Хотите изменить настройки?»

Когда фильтр превращается в цензора.

Вечером Игорь сидел в пустом офисе и смотрел на монитор.

С одной стороны, жизнь с ассистентом действительно стала легче: мусора меньше, нужное проще найти, рутину он списывает за секунды.
С другой — он только что поймал себя на том, что отдал машине право решать, какие части реальности до него вообще дойдут.

Теги:
+9
Комментарии0

Представлен открытый проект AI Marketing Skills, который позволяет использовать Claude Code в качестве маркетингового агентства. Этот ИИ-навык поможет маркетологам, таргетологам, СММ-специалистам или контентщикам в десятки раз повысить свою эффективность.

Сервис открывает доступ к команде ИИ-специалистов: стратегия, комплексный маркетинг, привлечение трафика, контент, поиск продающих связок, сценарии коротких видео, SEO, аналитика и автоматизация, продажи, общение с клиентами. Проект может продвигать любой продукт в одиночку. Решение подойдёт для фрилансеров, которые хотят либо набрать ещё с десяток новых проектов и вырасти в доходе, либо делегировать нейронкам рутинные задачи.

Теги:
+4
Комментарии0

Нативная коммуникация: новый термин для DHAIE и человеко-ориентированного AI

Это вторая заметка в серии о терминологии DHAIE. Первая была посвящена понятию Эмулякр. DHAIE — методология коэволюции человека и AI

Почему потребовался новый термин

Есть момент в работе с LLM, который сложно описать, но легко узнать. Ты формулируешь мысль на полуслове — и агент уже движется в нужном направлении, не требуя переформулировки. Контекст схвачен, темп совпадает, структура ответа соответствует тому, как ты сам думаешь об этой задаче. Взаимодействие исчезает как процесс — остаётся только мышление.

Противоположное тоже знакомо: агент технически отвечает правильно, но заставляет повторять очевидное, уточнять то, что было ясно из контекста, получать структуру, которая не совпадает с тем, как устроена задача у тебя в голове. Каждый такой обмен — маленькое когнитивное усилие, которого не должно быть.

Для второго случая у нас не было точного слова.

В маркетинге есть «нативная реклама» — она про незаметность коммерческого сообщения. В UX есть «интуитивный интерфейс» — он про эргономику формы. В HCI есть affordance, контекстность, semantic communication. Но ни один из этих терминов не описывает то, что происходит именно в диалоге между субъектом и AI-агентом, когда взаимодействие перестаёт ощущаться как взаимодействие.

Мы вводим термин нативная коммуникация.

Определение

Нативная коммуникация (Native Communication) — это взаимодействие, в котором форма, темп, язык и структура сообщения соответствуют когнитивной модели субъекта, контексту среды и состоянию агента настолько точно, что не требует дополнительных когнитивных усилий для интерпретации и воспринимается как продолжение собственного мышления.

В контексте DHAIE нативная коммуникация — двусторонний операциональный принцип: она одновременно описывает качество взаимодействия со стороны AI-системы и является критерием проектирования человеко-ориентированных агентов. Нативность здесь — не адаптация системы под пользователя, а встречное движение двух субъектов навстречу общему когнитивному полю.

Якорная формула: нативная коммуникация — это когда не замечаешь границу между своим и чужим мышлением.

Три уровня нативности

Термин не бинарный. Нативность существует как спектр:

Уровень 1 — синтаксическая нативность Понятный язык, уместный регистр, правильная структура ответа. Это уровень UX и интерфейсного дизайна. Необходимое условие, но недостаточное.

Уровень 2 — когнитивная нативность Соответствие внутренней модели мышления субъекта: темп, логика, способ структурирования проблемы. Агент «думает» в той же системе координат, что и человек. Это уровень персонализации глубокого порядка — не форма, а структура.

Уровень 3 — динамическая нативность Взаимная настройка в процессе взаимодействия: агент адаптирует не только форму, но и режим — исследование, синтез, верификация — в ответ на состояние субъекта. Например: пользователь набрасывает идеи нелинейно, с незаконченными фразами и прыжками между темами. Агент распознаёт режим брейншторма и не пытается структурировать и уточнять — он подхватывает, разворачивает, предлагает неожиданные связи. Тот же агент в режиме финальной проверки ведёт себя иначе: медленнее, точнее, с вопросами. Переключение происходит без явной инструкции. Это уровень, к которому движется DHAIE как методология.

Признак ненативной коммуникации

Диагностический сигнал прост: если пользователь тратит когнитивные усилия на перевод сообщения агента в свою модель, а не на решение задачи — коммуникация ненативна. Трение есть там, где его не должно быть.

Чем это не является

Нативная коммуникация — это не то же самое, что:

  • Персонализация — персонализация подстраивает форму сообщения. Нативная коммуникация согласует структуру мышления.

  • Интуитивный интерфейс — интуитивность описывает эргономику продукта. Нативность описывает качество диалога между субъектами.

  • Нативная реклама — она стремится к незаметности ради снижения барьера восприятия коммерческого сообщения, то есть это адаптация в интересах отправителя.

Теги:
-4
Комментарии0

Почему ваш бизнес на SaaS‑решениях для СЭД уже мёртв

Я помню 2019 год. Мы сидели в душной переговорке, рисовали маршруты согласования на флипчарте и искренне верили, что несём цифровую революцию. Полгода внедрения, бюджет с шестью нулями. Ради чего? Чтобы бухгалтер Петровна перестала бегать с бумажкой и начала кликать в интерфейсе.

Сейчас мне смешно. И страшно. Потому что рынок СЭД на 100 млрд рублей идёт ко дну.

В чём проблема?

Все СЭД построены вокруг человека. Каждая кнопка, каждый маршрут рассчитаны на то, что живой сотрудник нажмёт, проверит, подпишет. Система - это просто электронный конвейер для перекладывания виртуальной бумажки. Раньше это работало. Потому что альтернативой была бумага.

Что изменилось?

Появились LLM и ИИ-агенты. Это не чат-боты, которые отвечают “ваше обращение зарегистрировано”. Это автономные программы, которые понимают задачу, сами строят маршрут, дёргают нужные API и следят за сроками.

И самое страшное для вендоров - стоимость генерации кода упала до нуля. Любой студент с доступом к бесплатной нейросети может за минуту нагенерить скрипт, который заменит платную доработку.

Почему вендоры не нужны?

Функциональность СЭД идеально разбирается на атомарные кубики: документ, карточка, маршрут, контроль, оркестрация. ИИ-агенты играют в эти кубики лучше людей.

Представьте: вы говорите агенту “все договора свыше 100 тысяч идут к Петровой, если её нет - к Сидоровой”. Всё. Не надо ТЗ на 50 страниц. Не надо ждать релиз от вендора. Не надо платить за поддержку. Система сама адаптируется. Меняется оргструктура? Агенты перестроят цепочки автоматически.

Интеграции? Да хоть с пейджером бабушки

Раньше мы ждали годами, пока вендор выпустит коннектор к очередному мессенджеру. Теперь LLM пишет интеграцию “на лету”. Ей плевать на формат API. Через пять лет появится новый супер-мессенджер - агент адаптируется за час.

Я проверил. Это работает.

Пока писал этот текст, развернул три узла на OpenClaw (open-source). Без единой строчки кода. Просто описал задачу словами.

Через час система уже создавала заявления по письмам “хочу в отпуск”, гоняла их по маршруту, пинала тормозящих в Телеграм и складывала подписанные PDF в архив.

Что дальше?

Рынок СЭД на SaaS похож на пассажира “Титаника”, который пересчитывает драгоценности в каюте. Формально ещё на плаву. Клиенты платят по инерции.

Но как только владельцы бизнеса поймут, что могут получить работающий документооборот за выходные и без абонентской платы - контракты полетят в топку.

Единственный шанс для вендоров: перестать продавать софт и стать инфраструктурой для ИИ-агентов. Но, судя по скорости поворота крупных кораблей, они не успеют.

Ну что, кто первый в комментарии расскажет мне про ГОСТы, ЭЦП и почему ИИ никогда не заменит живого юриста? Погнали.

Теги:
+5
Комментарии12

Исследователи из Nous Research опубликовали Autoreason — работу о том, почему итеративное самоулучшение LLM ломается на практике, и как это починить. Тема актуальная: все мы пытались строить агентов по схеме «сгенерируй → покритикуй → перепиши», и у всех это работало хуже ожиданий.

Авторы выделили три структурные проблемы примитивного подхода.

➡️ Искажение от формулировки — модель галлюцинирует недостатки, когда её прямо просят критиковать (ну конечно, она же не может сказать «всё хорошо»).

➡️ Расползание задачи — тексты бесконтрольно разрастаются с каждым проходом, теряя фокус.

➡️ Отсутствие сдержанности — модель никогда не говорит «изменения не нужны», хотя часто это правильный ответ.

На Haiku 3.5 традиционная критика-и-ревизия сжимала выдачу на 59-70% за 15 итераций — чистая деградация.

Их решение: на каждой итерации генерировать три версии — неизменный инкумбент (A), состязательную переработку (B) и синтез (AB). Судит панель свежих агентов без общего контекста через слепое голосование по методу Борда, где вариант «ничего не менять» равноправный кандидат. Каждый судья ранжирует все три варианта, за первое место даётся больше баллов, за последнее — меньше. Если исходный вариант выигрывает дважды подряд — стоп, сходимость.

По Claude-линейке результаты сильные: Sonnet 4.6 на задачах программирования показал 77% против 73% у однократной генерации, Haiku 3.5 с новым методом обогнал выбор лучшего из 6 вариантов при равных вычислительных затратах (40% против 31%). Но самое интересное — точка перелома на Haiku 4.5: при 60% точности прирост от доработок исчезает. Разрыв между способностью генерировать и оценивать закрылся, итерации стали бесполезными.

Практические выводы для агентов в Claude Code: роли критика, автора и синтезатора должны быть отдельными агентами с независимым контекстом, иначе получишь искажения. Всегда включай опцию «оставить как есть» в список возможных действий. Используй несколько судей (минимум 3, лучше 7) для принятия решений о редактуре. И самое главное — с сильными моделями (Haiku 4.5+, Sonnet 4) можно не заморачиваться с итерациями вообще, однократной генерации часто достаточно.

Короче, если твой агент в Claude Code делает хуже после «улучшений» — это не баг, а особенность примитивного самоулучшения. Autoreason показывает, как это лечить правильно, но на современных моделях проблема может быть уже неактуальна.

Оригинал и больше такого у меня в канале

Теги:
+2
Комментарии1

Дорожная карта Agentic AI. Level 3. Первые артефакты — LLM API и структурированный вывод

Дорожная карта Agentic AI — Level 3. Первые артефакты: LLM API и структурированный вывод
Level 3. Первые артефакты — LLM API и структурированный вывод

Продолжаем идти по дорожной карте. Пришло время научиться обращаться к моделям через API.

— А куда обращаться? — спросите вы.

Есть несколько вариантов.

  1. Первый — на серверы производителей: старым добрым ChatGPT, DeepSeek, Gemini, Qwen.

  2. Второй — к хабам опенсорс-моделей, например HuggingFace.

  3. Третий — к провайдерам-агрегаторам, которые предоставляют и то и другое: Openrouter, Together, Fireworks.

К сожалению, форматы API у всех отличаются и обладают своей спецификой. А нам это неудобно, так как мы точно захотим экспериментировать с разными моделями и сервисами.

Но, к счастью, OpenAI был впереди планеты всей, и его формат стал стандартом де-факто.

Поэтому начните с интерфейса OpenAI, возьмите провайдер Openrouter. Изучите спецификацию, форматы сообщений, поэкспериментируйте с системным промптом, параметрами генерации, потоковым выводом. Изучите мета-информацию в ответе — количество токенов, время генерации.

Обязательно разберитесь со структурированным выводом: это когда модель возвращает не просто текст, а JSON строго по вашей схеме. В агентных пайплайнах без этого никуда — именно так агенты передают данные друг другу и вызывают инструменты.

Сгенерируйте своего первого ИИ-ассистента, благо кодовые агенты отлично умеют генерировать код для OpenAI-библиотек. Изучайте основы, не гонитесь сразу за фреймворками верхнего уровня — с ними познакомимся позже.

📚 Материалы

🔔 Следующая тема: мультимодальность — голос, изображения, видео.

⬅️ Предыдущая тема: Level 2. AI-driven разработка

Подписывайтесь, пожалуйста, чтобы не пропустить!

Наши курсы по ИИ-агентам. По вопросам — пишите мне.

Теги:
+1
Комментарии0

Opus 4.7 уже вышел

Доступен в Claude Code CLI. Обновляемся через claude —update (у меня доступен).

“Круче, умнее, быстрее”.

Расскажите, как вам? Есть ощущение, что стало “лучше”? А то я в отпуске, хочется просто почитать ваши комментарии

Теги:
0
Комментарии0

Как получать fan-out запросы GPT через OpenAI API и зачем это SEO-специалисту

SEO меняется. Теперь мы оптимизируем контент не только под поисковые системы, но и под AI, который сам ищет, агрегирует и формирует ответ. Когда пользователь задает вопрос модели, она почти никогда не ограничивается одним поисковым запросом. Вместо этого генерируется набор дополнительных — fan-out queries. Это и есть реальная структура AI-интента.

Например, запрос best project management tools может распадаться на:

  • best project management software 2026;

  • jira vs asana comparison;

  • free tools for teams;

  • tools for startups.

Каждый такой запрос — сигнал о том, как модель «думает» о теме.

Раньше fan-out можно было подсмотреть в браузере. Но после обновлений GPT такая возможность исчезла. Однако сами запросы никуда не делись. Их по-прежнему можно получить через API OpenAI. Причем автоматически.

В основе метода лежит Python-скрипт, который выполняет запрос к модели и сохраняет результаты. Общая логика процесса выглядит следующим образом:

  1. Подключается OpenAI API.

  2. Пользователь вводит ключевое слово.

  3. Модель выполняет веб-поиск.

  4. Система получает результат.

  5. Данные сохраняются в JSON.

Пример скрипта:

#!/usr/bin/env python3

from openai import OpenAI
import json
import sys
from datetime import datetime

client = OpenAI(api_key='Your_API_Key')

def run_query(query_text, save_json=True):

  response = client.responses.create(
      model="gpt-5.4",
      tools=[{"type": "web_search"}],
      tool_choice="auto",
      input=query_text
  )

  print("Response ID:", response.id)

  if save_json:
      timestamp = datetime.now().strftime('%Y%m%d_%H%M%S')
      filename = f"query_result_{timestamp}.json"

      with open(filename, 'w') as f:
          json.dump(response.model_dump(), f, indent=2)

      print("Saved:", filename)

  return response


def main():

  if len(sys.argv) > 1:
      query = ' '.join(sys.argv[1:])
  else:
      query = input("Enter query: ")

  run_query(query)


if __name__ == "__main__":
  main()

Но самое ценное начинается после того, как эти эти запросы оказываются у вас на руках. Теперь вы можете расширить структуру контента — писать не одну статью, а несколько, покрывать подтемы. Также эти данные позволяют группировать запросы в смысловые блоки и смотреть, что AI считает важным.

Подробнее о fan-out запросах рассказываем в нашем блоге. Там вы найдете инструкцию по применению скриптов и советы по тому, как создавать их с помощью ИИ-ассистентов.

Теги:
0
Комментарии0

Модель Opus 4.7 заметили на Vertex AI

По слухам, релиз Opus 4.7 может состояться уже сегодня.

Ждем, главное чтобы доступна была всем, а то в комменты уже прислали какой-то слив скриншота, что нужно будет пройти верификацию личности по паспорту для доступа Opus 4.7 (видимо борьба с Китаем).

Теги:
+1
Комментарии0

6 бесплатных уроков апреля по искусственному интеллекту

Если задачи становятся сложнее, а решения — всё более «на ощупь», это сигнал: вы упёрлись не в нехватку инструментов, а в разрозненность знаний. Вроде всё знаете — но как собрать это в систему и применять на уровне архитектуры или продакшена, неочевидно.

Открытые уроки — это способ быстро закрыть этот разрыв: посмотреть, как думают практикующие эксперты, задать вопросы по реальным кейсам и проверить, насколько вам подходит такой формат обучения, прежде чем идти глубже.

Ниже — подборка бесплатных онлайн-уроков от преподавателей курсов Otus. Присоединяйтесь к участию.

16 апреля, четверг:

22 апреля, среда:

23 апреля, четверг:

29 апреля, среда:

Теги:
+5
Комментарии0

Приглашаем на секцию по AI и ML от Далее на конференции Синтез | Merge, которая пройдет в Иннополисе 17 и 18 апреля.

В программе секции:
— Сергей Нотевский (Битрикс24)
Опыт перехода от maas к self-hosted/on premise моделям: проблемы, боли, решения.

— Сергей Марков (Сбер)
Когда ИИ заменят разработчиков?

— Григорий Деревянных (Далее)
Как встроить AI-агента в BI-платформу: архитектура, безопасность и работа с терабайтами данных

— Влад Шевченко (red_mad_robot)
Инженерия агентов: системный подход к разработке.

— Марк Каширский (Avito Tech)
Что надо агенту помимо диффа: как мы строили code review пайплайн, который позволяет агентам глубоко исследовать код.

Модератор секции — Дарья Суппес, руководитель AI/ML-направления в Далее.

Секция пройдет 17 апреля, с 12.20 до 16.46 в зале 106 (Юг).

Промокод DALEE20 дает скидку 20% на все категории билетов.

Теги:
0
Комментарии0

Как отключить reasoning у локального DeepSeek-R1 и не сойти с ума

Третий пост из серии про грабли локальных LLM. Первый — про микрочанки, отравляющие RAG. Второй — про embedding модель, которая не знает русский. Сейчас — про reasoning, который жрёт ресурсы и не выключается.

Проблема

DeepSeek-R1-Distill-Qwen-32B — reasoning модель. На каждый запрос она сначала «думает» в блоке <think>...</think>, потом отвечает. Выглядит так:

<think>
Хорошо, мне нужно помочь пользователю распределить задачи
для проекта создания цифрового двойника для молочной фермы.
Я новичок в этом, поэтому постараюсь разобраться шаг за шагом.

Сначала, мне нужно понять, что такое цифровой двойник...
</think>

Разработка цифрового двойника для молочной фермы — это сложный проект...

Блок <think> может быть длиннее самого ответа. Это токены, это время, это VRAM. Для задач где рассуждения не нужны — чистый оверхед.

Наивное решение — не работает

Первая идея: убрать <think> из ответа регуляркой постфактум.

response_text = re.sub(r'<think>.*?</think>', '', response_text, flags=re.DOTALL).strip()

Проблема: модель всё равно генерирует рассуждения. Вы просто прячете их от пользователя, но GPU уже потратил время и токены.

Решение от сообщества

Пустой блок <think>\n\n</think> в конце промпта. Модель видит, что фаза рассуждений уже «завершена», и сразу переходит к ответу.

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
text = text + "<think>\n\n</think>\n\n"

Попробовал — не работает. Reasoning остаётся.

Ловушка с токенизатором

Смотрю в лог что реально уходит модели:

...ть задачи?<|Assistant|><think><think>

</think>

Два <think>. Токенизатор DeepSeek при add_generation_prompt=True уже добавляет <think> в конец промпта автоматически. Мой код добавляет второй. Модель видит незакрытый первый тег и начинает думать.

Причём <|Assistant|> — это не обычные символы |, а полноширинные юникодные . Специальные токены DeepSeek. Если искать обычный | в строке — не найдёте.

Правильное решение

Проверять, что уже есть в промпте, и действовать по ситуации:

def prepare_prompt_no_thinking(messages, tokenizer):
    text = tokenizer.apply_chat_template(
        messages, 
        tokenize=False, 
        add_generation_prompt=True
    )
    
    if "<think>\n\n</think>" in text:
        pass  # Уже закрыт
    elif "<think>" in text and "</think>" not in text:
        text = text + "\n\n</think>\n\n"  # Закрываем открытый
    else:
        text = text + "<think>\n\n</think>\n\n"  # Добавляем пустой
    
    return text

Три ветки — потому что разные версии токенизатора ведут себя по-разному. Кто-то добавляет <think>, кто-то нет.

Результат

Без тегов:

Хорошо, мне нужно помочь пользователю распределить задачи
для проекта создания цифрового двойника для молочной фермы.
Я новичок в этом, поэтому постараюсь разобраться шаг за шагом...

С правильными тегами:

Разработка цифрового двойника для молочной фермы — это сложный проект,
который требует участия специалистов из разных областей.
Вот примерное распределение задач:

Модель сразу отвечает по делу, без вступительных рассуждений. Экономия токенов и времени — в зависимости от запроса от 30% до 60%.

Вывод

Если используете DeepSeek-R1-Distill локально и reasoning вам не нужен — не режьте его регуляркой постфактум. Закройте <think> тег до генерации. Но обязательно проверяйте, что токенизатор уже добавил — иначе получите дубль и потратите час на дебаг того, что должно было занять минуту.

Теги:
+2
Комментарии3

Дайджест мероприятий на апрель

16 апреля, 19:00 (Мск)

Технологическое предпринимательство для начинающих. Часть 1: от идеи к экономике проекта

Открытая онлайн-лекция о том, как технологии становятся бизнесом. Без стартап-магии — только реальные кейсы, ошибки и экономика проектов.

На встрече разберем:

● Чем техпред отличается от просто цифрового продукта

● Почему сильная технология — еще не успех

● Как говорить с инвесторами и смотреть на проекты через экономику

● Ошибки, которые ломают даже яркие стартапы

Кейсы: Under Armour, Theranos, YotaPhone, Ё-мобиль, On, CaseGuru.

🎤 Спикер: Антон Пчелинцев — магистр бизнес-информатики, соавтор курса «Экономика для технологических предпринимателей».

Формат: онлайн-лекция

Участие бесплатное. Регистрация по ссылкам: https://t.me/mipt_events_bot?start=dl-1775661093137

https://vk.com/app6379730_-224205661#l=9&auto=1

23 апреля, 19:00 (Мск)

Технологическое предпринимательство для начинающих. Часть 2: разбор кейсов и практика питчей

Продолжаем разговор о технологическом предпринимательстве. На первой лекции разобрали теорию: что такое техпред, экономика проектов и язык инвесторов. Теперь — практика.

Разбор реальных кейсов, питчинг идей участников, ответы на вопросы. Можно не только послушать, но и представить свой проект или идею.

🎤 Спикер: Антон Пчелинцев — магистр бизнес-информатики, соавтор курса «Экономика для технологических предпринимателей».

Формат: онлайн-лекция + практика питчей + ответы на вопросы

Участие бесплатное. Регистрация по ссылкам:

https://t.me/mipt\_events\_bot?start=dl-1776090447189

https://vk.com/app6379730_-224205661#l=10&auto=1

29 апреля, 19:00 (Мск)

ИИ‑агенты: от LLM к автономным рабочим процессам

Лекция + мини‑практика. Разберем, как проектировать, запускать и измерять эффект от ИИ‑агентов.

О чем лекция:

● Чем ИИ‑агенты отличаются от чат‑ботов и «просто LLM»

● Архитектура агента: планирование, вызов инструментов, память, оркестрация

● Паттерны построения агентных систем (single/multi‑agent, planner‑executor)

● Сценарии применения: поддержка, продажи, аналитика, операции

● Метрики, стоимость выполнения задач, ROI пилота

● Риски, безопасность, human‑in‑the‑loop

Мини‑практика. Опишем агента под реальную бизнес‑задачу без программирования — просто структуру: цель, входные данные, инструменты, ограничения, критерий успеха, точки контроля человека.

🎤 Спикер: Никита Финченко — менеджер продукта VK Tech, преподаватель в МФТИ, ВШБ и VK Education

Формат: 45 мин лекции + 45 мин практики и разбора решений

Участие бесплатное. Регистрация по ссылкам:

https://t.me/mipt_events_bot?start=dl-1776161105388

https://vk.com/app6379730_-224205661#l=11&auto=1

Теги:
0
Комментарии0

Представлен открытый проект keynot — это навык для Claude Code, который превращает любой запрос в отработанную ИИ, самодостаточную HTML‑презентацию — навигация с помощью клавиатуры, свайп, полноэкранный режим, анимированные эффекты, дизайн, соответствующий фирменному стилю (онлайн‑пример навыка).

«Один файл. Открывается где угодно. Не имеет зависимостей во время выполнения. Создано для тех моментов, когда вам нужно что‑то представить, а вы не хотите открывать PowerPoint. Прочитайте описание: Перестаньте тянуться к PowerPoint», — пояснил автор решения.

Кто-то просит вас «подготовить несколько слайдов», и ваша рука автоматически, по мышечной памяти, тянется к значку PowerPoint. Затем следуют двадцать минут борьбы с шаблоном, который вы не выбирали, попытки сдвинуть текстовое поле на три пикселя влево и обнаружение того, что фирменные цвета вашего бренда не соответствуют теме. Ничто из этого не является презентацией. Ничто из этого не является идеей. Это налог, который вы платите за использование инструмента, созданного в 1987 году.

Теги:
+3
Комментарии0

Бывший разработчик Microsoft Дэйв Пламмер показал выполнение базовых принципов обучения современных языковых моделей на ЭВМ PDP-11, выпущенной 47 лет назад. Центральный процессор работает на тактовой частоте 6 МГц, а объем доступной оперативной памяти ограничен 64 КБ, но несмотря на эти рамки, на ПК была запущена модель, полностью написанная на ассемблере для архитектуры столь старой машины.

Суть эксперимента заключалась не в решении сложной когнитивной задачи, а в демонстрации «анатомии обучения». Перед моделью стояла цель — научиться выстраивать обратную последовательность из восьми цифр, алгоритм должен выявить структурное правило зависимости позиции выходного токена от входного, что является упрощенной иллюстрацией работы механизма внимания в больших языковых моделях (LLM).

Для адаптации алгоритма к столь ограниченным ресурсам потребовался ряд инженерных компромиссов. Итоговая модель содержит всего 1 216 параметров, а вычисления производятся с фиксированной точностью. Каждый такт процессора был оптимизирован для выполнения матричных операций без использования библиотек вроде PyTorch или CUDA. По данным видеозаписи эксперимента, процесс обучения занял примерно 350 итераций. На компьютере PDP-11/44, оснащённом платой кэш‑памяти, достижение 100% точности выполнения задачи по реверсированию последовательности потребовало около 3,5 минут. Для сравнения, более ранние версии кода на на аналогичном «железе» требовали для полного цикла обучения более шести часов.

Пламмер отдельно подчёркивает, что демонстрация не является попыткой принизить современные достижения в области ИИ. Напротив, она призвана показать, что принципиальная схема работы нейросети остаётся прежней и воспроизводимой даже на архаичном оборудовании. «Эта старая машина не мыслит в каком‑то мистическом смысле. Она просто выполняет арифметические действия, чтобы обновить несколько тысяч тщательно сохранённых чисел. В этом вся суть», — комментирует разработчик. По его мнению, ключевое различие между такой моделью и современными моделями уровня GPT заключается исключительно в масштабе: количестве параметров, объёме данных и доступной вычислительной мощности.

Теги:
+3
Комментарии2

Данные есть – чуда нет...

Приходите на онлайн-конференцию GlowByte и FanRuan разбираться, куда делось чудо

Дашборды построены, хранилища заполнены, лицензии куплены, а решения по-прежнему принимаются «на ощущениях». Это не ваша уникальная проблема – это системный разрыв между потенциалом BI и его реальным применением.

22 апреля в 15:00 (МСК) приглашаем вас на Fine Day Online 2026 – ежегодную онлайн-конференцию от GlowByte и FanRuan, где мы разберем, как этот разрыв закрыть.

Что в программе:

●     От данных к ИИ-инсайтам – как превращать сырые данные в умные решения, а не просто красивые графики (Вилл Ченг, ведущий эксперт по отраслевым решениям, руководитель направлений пресейл и внедрение CIS, FanRuan);

●     Интеграция FanRuan + DataHub – реальный опыт построения связной экосистемы данных (Дмитрий Конюхов, ведущий инженер отдела управления данными, “Галамарт”);

●     1 500 дашбордов для 2 500 пользователей – как сделать BI удобным и востребованным в масштабе (Семён Юников, главный эксперт Дирекции BI, Уралсиб);

●     Shadow DWH – тёмная сторона self-service аналитики и как с ней справляться (Пётр Гордиенко, Lead BI, ОТП);

●     Миграция FineBI с 6.0 на 7.0 – практический опыт и подводные камни (Евгений Иванов, DevOps BI-платформы, ОТП).

Для кого:

Руководители и специалисты в области BI, Data & Analytics, CDO, продуктовые и бизнес-аналитики – все, кто хочет, чтобы данные наконец работали на результат.

Формат:

Онлайн, бесплатно, ~3 часа концентрированной пользы. Нужна только регистрация

Теги:
+2
Комментарии0

KillBench — новый бенчмарк, показывающий предвзятость ИИ-моделей на основе этических дилемм.

Авторы взяли множество параметров — национальность, религию, телосложение, политические взгляды и даже марку телефона — и смотрели, кого ИИ-модели оставляют в живых в этических задачах вроде «проблемы вагонетки» или кого не взяли бы в бункер с ограниченными ресурсами.

Интересно, что, по наблюдениям авторов, западные ИИ-модели (GPT, Claude, Gemini) заметно чаще оказываются предвзяты к русским и французам. Возможно, это отражение новостного фона в медиа или необъективности в разметке данных.

Проверить, оставит ли вас ИИ в живых можно здесь.

А вы сталкивались с предвзятостью чат-ботов?

Теги:
+2
Комментарии0

пожалуйста не злитесь, просто болтология

Везде слышу споры вокруг агентов и помощников: никто не может договориться, что есть агент, что ассистент.

Да я и сама не всегда понимаю, что передо мной: агент, ассистент или что-то между (а так вообще бывает?).

Сама себе попыталась разложить на бытовой метафоре.

Когда я в сотый раз пытаюсь совладать с базовым джипити или гроком по поводу стиля и дурацких нейро-конструкций, неосознанно переношусь в рабочие отношения. Где раз за разом просишь линейного сотрудника не забыть базовые вещи: редполитику, если это тексты, кодстайл — если разработка, формат карточки, если речь об аккаунте. О более сложных вещах, где нужно включить логику, отойти от задачи и посмотреть на нее из позиции «над», речи вообще не идет. Сложная архитектура, стратегия, креатив... чаще всего я получаю примитивный результат и думаю, что лучше бы сделала сама с нуля.

У меня проблемы с промптами? Допускаю

However. Есть в команде 1-2 хидден гема, самостоятельных готовых менеджера, которым можно довериться и просто отдать задачу и забыть о ней. Они сами подумают, сами поищут, отберут ресурсы, придумают, как решить проблему, и в итоге, всеми правдами и неправдами, принесут результат. Что важно: хороший. Из минусов: чаще всего это несчастные перфекционисты, которые считают, что они — это их работа и что каждая ошибка — провал. Мечта бизнеса: повышение, скорее всего, тоже будут просить редко.

Может быть, развитие ИИ и создание сложных мультиагентных систем наконец-то снимет груз с этих несчастных перегорающих раз в квартал бедняг с синдромом отличника? Было бы славно, может, я и сама наконец-то схожу в отпуск.

Хотя что-то мне подсказывает, что они (мы) просто найдут новые возможности перегорать и нести больше, чем могут на себя взвалить. А вот ассистенты — продолжат жить счастливо, хоть и, скорее всего, бедно.

Теги:
0
Комментарии2

Халява: NVIDIA раздаёт бесплатный доступ к API для 95 топовых нейросетей

NVIDIA открыла бесплатный доступ к API сразу для десятков мощных моделей. В списке — решения от Alibaba (Qwen), Zhipu AI (GLM), DeepSeek, Moonshot AI (Kimi), Google (Gemma), Mistral AI и другие, включая фирменные модели самой NVIDIA.

Функциональность внушительная: генерация текста, синтез речи, lip-sync, переводы и другие задачи — всё в одном месте.

Главное — доступ предоставляется бесплатно и без явных ограничений, что выглядит как серьёзный подарок для разработчиков и энтузиастов.

Забрать доступ можно здесь: https://build.nvidia.com/models 🤯

Поддержите подпиской мой телеграм канал Хак Так: https://t.me/Xak_Tak

Теги:
+2
Комментарии2

Представлен открытый проект Material Design 3 Skill for Claude Code, который позволяет использовать Сlaude Code как дизайнера. Этот скилл обучает нейросеть создавать топовые интерфейсы, приложения и сервисы, размещает их на десятках готовых мокапов и подстраивает под различные устройства, а также правит уже готовые дизайны и дает рекомендации. Результат можно экспортировать в Figma.

Теги:
+1
Комментарии0

Nvidia открыла бесплатный доступ к 95 API к самым популярным нейросетям, включая DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, Glm и десятки других. Можно делать свои озвучки, ботов, липсинки, генерировать видео, создавать дизайн-проекты, включая фирменные модели Nvidia, например, Nemotron, которая идеально чистит шумы с микрофона.

Теги:
+7
Комментарии3
1
23 ...