Дорожная карта Agentic AI. Level 3. Первые артефакты — LLM API и структурированный вывод

Продолжаем идти по дорожной карте. Пришло время научиться обращаться к моделям через API.
— А куда обращаться? — спросите вы.
Есть несколько вариантов.
Первый — на серверы производителей: старым добрым ChatGPT, DeepSeek, Gemini, Qwen.
Второй — к хабам опенсорс-моделей, например HuggingFace.
Третий — к провайдерам-агрегаторам, которые предоставляют и то и другое: Openrouter, Together, Fireworks.
К сожалению, форматы API у всех отличаются и обладают своей спецификой. А нам это неудобно, так как мы точно захотим экспериментировать с разными моделями и сервисами.
Но, к счастью, OpenAI был впереди планеты всей, и его формат стал стандартом де-факто.
Поэтому начните с интерфейса OpenAI, возьмите провайдер Openrouter. Изучите спецификацию, форматы сообщений, поэкспериментируйте с системным промптом, параметрами генерации, потоковым выводом. Изучите мета-информацию в ответе — количество токенов, время генерации.
Обязательно разберитесь со структурированным выводом: это когда модель возвращает не просто текст, а JSON строго по вашей схеме. В агентных пайплайнах без этого никуда — именно так агенты передают данные друг другу и вызывают инструменты.
Сгенерируйте своего первого ИИ-ассистента, благо кодовые агенты отлично умеют генерировать код для OpenAI-библиотек. Изучайте основы, не гонитесь сразу за фреймворками верхнего уровня — с ними познакомимся позже.
📚 Материалы
🔔 Следующая тема: мультимодальность — голос, изображения, видео.
⬅️ Предыдущая тема: Level 2. AI-driven разработка
Подписывайтесь, пожалуйста, чтобы не пропустить!















