Обновить
1238.73

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Хайп вокруг Model Context Protocol сейчас только набирает обороты. Все обсуждают, но толком мало кто понимает, как это работает под капотом. Я хочу поделиться тем, что сам знаю и использую, и начать серию заметок, где разберу протокол по слоям: от сервера до клиента. Без академического занудства, но с технической точностью.

Начнём с сервера. Это не просто API с ручками и базой. Это инфраструктура, которая хранит версии контрактов и управляет доступом к провайдерам через CQRS-подход. Только это не «чистый» CQRS, а своя интерпретация. У нас есть три ключевых блока: Tools — всё, что записывает (файлы, API вызовы, база), Resources — всё, что читается (ответы из API, файлы, БД), и Prompts — шаблоны и подсказки для взаимодействия. Вместе это даёт централизованный контроль и прозрачное управление контрактами.

Клиент, в отличие от классического сетевого «тупого» потребителя, выступает протокольным посредником. Он решает, что серверу можно, а что нельзя. Через Sampling клиент подтверждает вызовы к LLM, через Roots задаёт границы доступа к файловой системе, а через Elicitation уточняет недостающие данные у пользователя. Сервер может многое, но последнее слово всегда остаётся за клиентом.

В итоге MCP выглядит не как очередная модная аббревиатура, а как архитектурный способ держать баланс: серверу — удобство, пользователю — контроль. В следующей заметке покажу больше деталей клиентской стороны и зачем весь этот «слоёный пирог» вообще нужен.

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии0

LLamaSwap - гибкая альтернатива Ollama
Ollama — прекрасное приложение, основанное на llama.cpp, которым я пользовался для инференса локальных моделей до недавних пор, однако у него есть несколько критических недостатков:

  • Отсутствие поддержки всех GPU и BLAS, доступных в llama.cpp. Для меня это стало проблемой после перехода на Radeon RX 6800: инференс через Vulkan на llama.cpp работает быстрее и стабильнее, чем ROCm, но Ollama не поддерживает Vulkan.

  • Отсутствие тонкой настройки. Например, на момент написания статьи в Ollama нельзя выгружать часть MoE-слоев на CPU, что позволяет сильно увеличить скорость инференса при нехватке VRAM для загрузки всех слоев на GPU.

  • Ollama использует собственное хранилище моделей, несмотря на то, что под капотом работает с GGUF. Если загрузить модель с Hugging Face, Ollama всё равно скопирует её в своё хранилище, а модели в наше время весят не мало и занимают лишнее место на SSD.

  • Функции доступные в llama.cpp появляются в ollama с задержкой , а иногда и вовсе не появляются.

Мне нужна была альтернатива, способная динамически управлять загрузкой моделей в памяти через API без моего участия, как это делает Ollama, но без вышеперечисленных недостатков. В итоге я остановил выбор на проекте llama-swap.

Llama-Swap — приложение на Go, которое запускает несколько инстансов llama-server и проксирует запросы к ним по заданным правилам.

Плюсы по сравнению с Ollama:

  • Полный доступ ко всем возможностям llama-server (например --override-tensor для выгрузки MoE слоев на CPU).

  • Поддержка большего количества GPU кскорений (таких как Vulkan или даже связки Vulkan + CUDA)

  • Возможность настроить отдельную версию llama-server для каждой модели (если в будущих обновлениях что то сломается).

  • Более гибкая настройка правил загрузки/выгрузки моделей в память: (одновременная загрузка, поочередная по запросам).

  • Не дублирует модели на диске (если используются форматы поддерживаемые llama.cpp).

  • Из коробки есть WebUI для управления загрузкой/выгрузкой моделей.

Минусы:

  • Из коробки не работает, требуется настройка через config.yaml и наличие рабочего llama-server.

  • Проект молодой, и его дальнейшая судьба пока не ясна.

Основные пункты файла конфигурации

  • Список моделей с указанием их расположения и параметров запуска (влючая путь к llama-server).

  • Группировка моделей, к группам применяются правила загруpки/выгрузки из памяти: - Все модели в группе загружены одновременно. - Модели загружаются по мере поступления запросов

  • Различные настройки прокси, порты, таймауты и пр.

У меня мини-ПК с интегрированной Radeon 780m, 32 ГБ ОЗУ и eGPU RX 6800.
Я полностью перешел на Llama-Swap + OpenWebUI и всё больше отказываюсь от использования онлайн-сервисов вроде OpenRouter — ведь возможностей моего недорогого, по современным меркам ПК, хватает для запуска, таких моделей как Gemma3 30B и Qwen3-Coder-30B-A3B-Instruct. Думаю, в скором времени, когда ПК с объёмами памяти от 64 ГБ и выше станут ещё дешевле, интегрированная графика — мощнее и на рынке окажется множетсво БУ GPU с объемом VRAM 16ГБ и выше, часть людей, использующих LLM для своих задач, сможет полностью перейти на локальный инференс. Хотя это, возможно, это только моя фантазия.
Всем спасибо за прочтение.

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

Привет, Хабр!

Всего две недели назад вышла версия Explyt 4.1 с поддержкой Python, MCP серверов, новыми Rules и Workflows, а уже сегодня мы рады поделиться новым релизом Explyt 4.2 с поддержкой Go. Теперь все фичи AI агента доступны в GoLand.

Важное обновление

Начиная с версии Explyt 4.2, мы вводим процедуру регистрации новых пользователей. Этот процесс займёт 30 секунд и позволит: 

  • повысить стабильность и доступность инфраструктуры из любой точки мира 

  • корректно соблюдать правовые требования 

Если вы уже пользуетесь плагином, потребуется пройти авторизацию в своём аккаунте прямо из интерфейса плагина.

Запуская бесплатный 30-дневный триал Personal версии, вы сразу получаете 4000 кредитов, которые можно использовать для запросов к LLM.

Возможность пользоваться своими моделями без регистрации в версии Community по-прежнему остается.

Скачать Explyt 4.2 можно с нашего сайта. Для багрепортов и фичриквестов - GitHub Issues и чат с командой плагина. Будем рады вашей обратной связи и философским вопросам 🖖

Теги:
Всего голосов 6: ↑5 и ↓1+4
Комментарии2

Сотрудник компании написал промпт и сгенерировал картинку. Вопрос — кому она принадлежит? 🤔

На вебинаре разберемся с авторскими правами на AI-контент: насколько свободно его можно использовать, что говорит об этом закон и что делать, если сгенерированную вами картинку использовали конкуренты.

🔎 О чем расскажем?

  • Чьи в итоге права на AI-тексты, картинки и код — компании, сотрудника или AI-сервиса?

  • Что говорит о правах на AI-контент российское законодательство.

  • Судебная практика по делам о нейросетях.

  • Как использовать AI, чтобы не нарушать закон, и как закрепить авторское право на контент.

📅 Когда? 23 сентября в 11:00 по мск.

📍 Где? Онлайн — регистрируйтесь на вебинар по ссылке. Ждем всех, кто использует в работе искусственный интеллект и хочет понять, как закон регулирует AI-материалы.

А еще читайте нашу статью: «У кого права на сгенерированный AI код или картинку и как их защитить».

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии2

Сколько раз ваш бот соврал клиенту? Как вы тестируете свои ИИ сервисы?

Каждый понимает, что важной частью разработки является тестирование.

Но когда дело доходит до AI ботов или ассистентов, многие дают слабину. Или просто не понимают как эффективно проверить, что бот корректно отрабатывает задачи.

На днях обсуждали качество работы ботов и пришли к такому решению. Для проверки качества ответов, нужно создавать уникальные тест-кейсы, а именно:

  1. Создать список из 10-15 эталонных вопросов, на которые бот должен ответить с точностью 100% согласно поставленной задаче или обновлению в релизе.

  2. Создать список из 10-15 фейковых вопросов и сценариев диалога, на которые бот должен отвечать не выходя за рамки сценария.

Включить вопросы в обязательные тест-кейсы и прогонять с периодичностью n-дней.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии3

Qwen-Code - самая жирная халява. Анлим по токенам, контекстное окно в 1 лям токенов, 4к запросов в день, и всё это бесплатно.

Очередной подгончик от китайцев :)

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии15

Недавно у нас в университете ИТМО прошел форсайт, посвященный видению развития отдельных направлений искусственного интеллекта на ближайшее будущее. Были приглашены эксперты из Индии и Китая, которые рассказали о развивающихся в их странах направлениях ИИ. В том числе выступали и наши эксперты.

Мне тоже удалось выступить. Я рассказывал о временных рядах, а именно о «изощренных» методах их прогнозирования и генерации на основе физически-информированных нейронных сетей. По этому поводу можно обратиться к другим моим статьям на хабре или в блоге.

Вот к каким трем основным направлениям развития ИИ в ближайшие 5-10 лет пришло большинство экспертов:

1. Вопросы эффективности. Развитие современных методов активно порождает вопросы эффективности как программного обеспечения, так и аппаратного обеспечения («железа»). Сейчас создают очень большие модели, для обучения которых требуются тысячи видеокарт. Для инференса этих моделей требуется меньше ресурсов, но это все равно затратно. Сейчас, например, актуальны методы квантизации больших моделей. В этой области ведется много исследований. Также ученые ищут подходы к более эффективному использованию железа, например, как оптимальнее оркестрировать поток задач.

2. Биологически правдоподобные модели. Вторым направлением можно выделить построение новых моделей машинного обучения на основе принципов работы биологических нейронных сетей. Наш мозг очень эффективно обрабатывает входящую информацию: в каждый момент времени активируются не все нейроны сразу, а только те, которые нужны для текущей задачи. Кстати, если бы работали все нейроны одновременно, то в голове возник бы шум, и мы не смогли бы сконцентрироваться на чем-то одном.

А в классических нейронных сетях все не так — там задействуются все нейроны одновременно. Исключением являются модели Mixture of Experts (смесь экспертов). Их принцип работы можно вообразить так: представьте, что вы задаете нейронной сети вопрос по математике. Очевидно, что в данный момент не нужно задействовать знания по биологии, истории и т.д. В MoE есть специальный блок — маршрутизатор (router) — который отвечает за перенаправление запроса к тому или иному «эксперту». Конечно, он может направить запрос сразу к нескольким экспертам, если вопрос затрагивает разные области знаний.

На практике нет такого явного тематического разделения экспертов, обычно они подбираются и обучаются самостоятельно для наилучшей генерации той или иной последовательности. И обычно эксперты активируются не для всего запроса целиком, а для отдельных токенов (например, слов) внутри этого запроса.

В общем, направление верное, собственно все чат боты сегодня строят на этой архитектуре. Однако в реальном биологическом мозге эта система представляет собой гораздо более сложную структуру. В мозге взрослого человека около 86 миллиардов нейронов и на каждом нейроне может быть от 5 до 10 тысяч синаптических связей. Как можно понять, плотность связей в нашем мозге чрезвычайно высока.

3. Фундаментальные мультимодальные модели и новая математика. 

Наконец, последнее направление связано с созданием не просто языковых моделей, а фундаментальных моделей, работающих с разными модальностями (типами данных). На самом деле, любую информацию можно свести к языку — даже математические формулы можно просто описать словами. Однако в этом направлении предлагается переосмыслить текущие подходы и развивать модели с новой математикой для описания этих различных модальностей.

Также до сих пор нет единого математического обоснования нейронных сетей, лишь отдельные области и лишь отдельная математика. А когда будет единая теория не ясно.

В общем, есть куда двигаться. А как вы считаете какие направления появятся или переосмыслят в ближайшее 5-10 лет? Пишите комментарии, будет интересно почитать.

Мой блог: kirill_zakharov_blog

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

На Хабре только и разговоров что про ИИ. Он уже пишет код, пилотирует ракеты и, кажется, вот-вот отнимет у нас последнюю кружку с кофе на офисной кухне.

В топы залетают статьи про увольнения, будущее LLM-моделей, новости про OpenAI. Их активно обсуждают, ругаются, соглашаются. И всё меньше говорят о прошлом, о том, как всё начиналось.

А зря.

Скоро никто не ответит с ходу, почему счёт начинается с нуля, а не с единицы. Да уже сейчас многие испуганно полезут в ChatGPT.

А ведь за этим стоят фундаментальные решения, архитектурные баталии и гениальные озарения, которые определили всё, с чем мы работаем сегодня. Помнить о них — значит не наступать на пусть и симпатичные, но всё-таки грабли прошлых ошибок.

Мы в Профи.ру решили, что День программиста — идеальный повод устроить себе исторический reset --soft. Проверить, насколько мы, айтишники, помним и ценим своё прошлое.

Поэтому сделали тест, в котором погуляем по разным эпохам в ИТ.

Актуалочку тоже добавили — нагенерили красивых ИИ-картинок в Sora для каждой эпохи.

👉 Пройти тест

Если что, мы не хотим вас проверять и оценивать. Просто решили дать повод улыбнуться и отвлечься от рутинных задач.

А вы как думаете? Мы слишком забываем о прошлом? Или это естественный ход вещей? Делитесь мнением и своими результатами в комментах.

А ещё советуйте интересные вопросы, которые можно было бы добавить в этот тест :)

Теги:
Всего голосов 5: ↑4 и ↓1+3
Комментарии0

Нейросети в QA. Подборка важнейших кейсов применения.

Искусственный интеллект в QA это уже не теория из будущего, а практический инструмент, доступный здесь и сейчас. Пока одни спорят, заменит ли ИИ тестировщика, другие уже используют его, чтобы избавиться от рутины и сосредоточиться на действительно сложных задачах.

Нейросети способны взять на себя генерацию тестовых данных, помочь в написании автотестов, проанализировать тысячи строк логов и даже превратить технический отчет в понятный документ для бизнес-команды. В этом коротком посте я собрал подборку конкретных кейсов, которые помогут вам сделать работу быстрее, качественнее и интереснее.

Кейсы по использованию нейросетей в QA

  1. Генерация тест-кейсов на основе требований

  2. Подготовка позитивных и негативных тестовых данных

  3. Адаптация и улучшение баг-репортов

  4. Перевод сценариев в формат Gherkin (Given-When-Then)

  5. Генерация идей для негативного тестирования

  6. Автоматический анализ логов ошибок

  7. Помощь в написании автотестов и шаблонов

  8. Конвертация технической информации в пользовательские инструкции

  9. Голосовое управление заведением баг-репортов и создания чек-листов

  10. Генерация финальных отчётов по тестированию

  11. Помощь в написании автотестов: генерация кода, шаблонов и отдельных функций для фреймворков автоматизации

  12. Подготовка баг-таблиц и чек-листов

  13. Создание слайдов по итогам тестирования

  14. Автоматическая сверка ожидаемого и фактического поведения

  15. Генерация SQL-запросов на основе текстового запроса

  16. Перевод технических отчётов для бизнес-аудитории

  17. Проверка качества текста / интерфейса (UX-копирайтинг)

  18. Генерация данных для нагрузочного тестирования

  19. Сравнение версий документации / требований

  20. Сбор фидбэка из отзывов пользователей (тематический анализ)

  21. Создание чат-ассистента по документации и API

  22. Анализ требований на предмет неясностей, противоречий и неполноты

  23. Прогнозирование областей с высокой вероятностью дефектов

  24. Оптимизация тестовых наборов (выявление избыточных тестов)

  25. Генерация идей для тестов безопасности

Этот список лишь небольшая часть того, как нейросети могут усилить работу QA-инженера. Главный вывод прост: ИИ не заменяет специалиста, а становится его личным ассистентом мощным, быстрым и безотказным. Он помогает находить неочевидные сценарии, экономить часы на подготовке данных и отчетов и, в конечном счете, повышать качество продукта. В своем коротком посте я представил лишь самые популярные примеры того как можно использовать нейросети в работе QA, но в полной коллекции под названием "70 кейсов применения нейросетей для QA" вы найдете их гораздо больше.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии0

Сможет ли ИИ заменить юристов? Ответ — нет. И вот почему

Привет! На связи Егор Ярко, PR-директор «Технократии». Возможно, вы уже встречали наши материалы про ИИ в ленте Хабра — статьи, аналитические обзоры, новости. Теперь мы пошли дальше: делаем не только тексты, но и видеоролики по самым интересным темам.

Сегодня мы опубликовали сжатый пересказ нашего исследования о развитии индустрии LegalAI — технологий, которые автоматизируют работу юристов. Мы разобрались, насколько глубоко нейросети уже проникли в юридическую рутину и способны ли языковые модели вообще оставить юристов без работы.

Если удобнее смотреть на VK.Video, где мы тоже выложили выпуск.

Буду рад конструктивной критике — этот формат для нас пока новый, и обратная связь действительно помогает делать его лучше.

А ещё рекомендую подписаться на:

Спасибо, что дочитали! Отличной пятницы и до встречи на Хабре 👋

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии0

Вышла обновленная и дополненная версия статьи Темные лошадки ИИ - Инференс LLM на майнинговых видеокартах Nvidia CMP 40HX, CMP 50HX, CMP 90HX

В новой версии добавлены проверенные данные по CMP 40HX, результаты практических тестов и реальное сравнение с RTX 3060

Теги:
Рейтинг0
Комментарии0

Хайп вокруг Gen AI достиг уровня, когда каждый второй продукт заявляет «AI-native», а каждый первый — «с AI-функцией». Много шума про «AI-агентов» и «автономные процессы». Но что стоит за этим на практике — маркетинг или новая архитектурная парадигма?

16 сентября в 17:00 (Мск) приглашаем на бесплатный вебинар «AI-агенты в бизнес-процессах: миф или реальность?», где разберём:

✔️ Архитектура: AI-агент как промежуточный слой — надстройка над API или нечто большее?

✔️ Жизненный цикл: цикл управления процессом с недетерминированной LLM?

✔️ Безопасность и контроль: как строить контрольные точки в «автономных» процессах и какие гарантии против ошибок?

✔️ Демо: соберём простой бизнес-процесс (запрос на закупку, обработка лида) на базе AI-агентов — принципы, костыли и ограничения.

🗓 Дата: 16 сентября

Время: 17:00–18:00 (Мск)

👨‍🎓Тренер: Коптелов Андрей — эксперт в области бизнес-анализа, управления проектами и процессами.

👉 Регистрация

Теги:
Рейтинг0
Комментарии0

Continual Learning, когнитивные дневники и семантические графы: эффективное обучение ИИ

Современные ИИ-системы сталкиваются с проблемой постоянного обновления знаний. В этой статье мы рассмотрим, как continual learning, когнитивные дневники и семантические графы помогают ИИ учиться и эффективно использовать информацию

Зачем ИИ нужно учиться?

Современные ИИ не могут полагаться только на заранее подготовленные данные. Мир меняется, появляются новые знания, а задачи усложняются. ИИ, который не умеет учиться в процессе работы, быстро устаревает. Именно поэтому обучение «на лету» или continual learning необходимо для гибкой и адаптивной системы.

Классический RAG vs. структурированные знания

Важно отметить, что классический RAG (Retrieval-Augmented Generation) предоставляет в основном данные, а не знания. ИИ нужны свежие, но структурированные знания, а не просто наборы документов или текстов.

Continual Learning

Continual learning позволяет ИИ адаптироваться к новым данным без полного переобучения модели. Такой ИИ может корректировать свои выводы, интегрировать свежую информацию и улучшать свои решения со временем.

Однако прямое обучение на новых данных несёт риск: низкокачественная информация может ухудшить модель. Для безопасного использования continual learning требуется механизм предварительного анализа информации, который отсекает вредное и выбирает полезное для обучения.

Когнитивные дневники

Когнитивные дневники позволяют ИИ фиксировать знания и опыт, структурировать их и возвращаться к ним при необходимости.

Пример аналогии с человеком: студент на паре делает конспект, но не может сразу выучить весь материал. Дома он анализирует конспект, сверяется с предыдущими записями и уже имеющимися знаниями, переосмысливает и дополняет. Когнитивные дневники позволяют ИИ действовать так же — запоминать, структурировать и переосмысливать информацию.

Семантические графы

Семантические графы помогают структурировать знания, связывая объекты, понятия и события в логическую сеть. Это превращает «сырые данные» в структурированные знания, которые ИИ может использовать для осмысленных выводов и принятия решений.

Синергия подходов и варианты использования

  • Когнитивные дневники + семантические графы без continual learning:
    ИИ фиксирует знания и структурирует их, как студент, который делает конспект, даже если у него слабая память. Позволяет сохранять и переосмысливать информацию, но не обеспечивает автоматическую адаптацию к новым данным.

  • Continual learning + когнитивные дневники + семантические графы:
    Наиболее эффективная комбинация. Continual learning позволяет адаптироваться к новым данным, когнитивные дневники фиксируют и фильтруют информацию, семантические графы структурируют знания для осмысленного использования. ИИ не просто запоминает данные, а учится понимать, интегрировать и проверять новые знания, максимально приближаясь к тому, как учится человек.

Таким образом, даже без continual learning система «когнитивные дневники + семантические графы» полезна, но идеальный вариант — объединение всех трёх подходов.

Преимущества такой системы

  • Структурированное хранение знаний.

  • Возможность фильтровать и анализировать информацию перед обучением.

  • Постоянное улучшение модели без полного переобучения.

  • Возможность интеграции свежих данных и знаний в реальные задачи.

  • Подход, близкий к тому, как учится человек, что повышает качество выводов ИИ.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии7

Ближайшие события

https://sanand0.github.io/llmrandom/

Статья о том, что при попытке получить "случайное" число от 0 до 100, LLM возвращает не истинно случайное число, а демонстрируют предвзятость (bias), обусловленную особенностями обучающих данных (например знаменитое 42, а это отсылка к роману "Автостопом по Галактике"). Причем распределение этих чисел примерно одинаковое от модели к модели (OpenAI GPT-3.5 Turbo, Anthropic Claude 3 Haiku, Google Gemini 1.0 Pro), что говорит о "культурологическом" смещении в вероятностных механизмах.
В общем нейросети это не про рандом.

It picks like humans

Теги:
Рейтинг0
Комментарии1

На сайте Сколково вышла история о том, как мы перестраиваем культуру от проектной к продуктовой.
Главный инсайт — технологии сами по себе мало чего стоят. Важно проверять спрос, быстро тестировать идеи и выводить на рынок только то, что реально нужно клиентам.
В итоге мы выстроили систему R&D, научились работать с гипотезами и запустили собственные продукты. Это не только про рост бизнеса, но и про смену культуры внутри команды.

Каждая идея проходит определённые этапы: исследования, прототипирование, планирование продукта и реализация MVP. Идеи "отваливаются" на каждом этапе и это позволяет сделать процесс более дешевым и не "тащить" за собой идеи, которые в последствии не примет рынок.
Таким образом, повышается вероятность продукта на рынке.
На картинке ниже схематично представлена воронка идеи от этапа к этапу. Из 100 идей до вывода на рынок доходят примерно 7, это среднее значение по акселераторам крупных компаний.

Ссылка на публикацию: https://lnkd.in/ez3Qx26y

Теги:
Рейтинг0
Комментарии0

До и после fine-tuning — что изменится в работе модели после дообучения? 🧠

Fine-tuning, или дообучение — это дополнительное обучение уже готовой модели на специализированных данных, чтобы она лучше выполняла узконаправленные задачи.

Это проще, чем обучение модели с нуля, так как нужно доработать лишь некоторые параметры, а не миллиарды. Файнтьюнить можно уже готовые модели, которые хорошо справляются с базовыми вещами, например, написанием текстов или генерацией изображений.

Для чего же подойдет fine-tuning?  👇

  1. Исправление слабостей, если модель в чем-то проседает. Иногда стартовая модель не очень хорошо решает базовые задачи: путает термины, особенно если они схожи, или дает сложные нечитаемые ответы. Такое бывает, когда в обучающем датасете больше данных, например, на английском, а пользователи общаются на русском. Проблема решится, если дообучить модель на качественных данных с хорошими примерами, чтобы та поняла, что от нее требуется.

  2. Обеспечить работу с минимумом задержек. В некоторых сервисах важно, чтобы модель отвечала мгновенно, а не обращалась за информацией к внешней базе знаний — это увеличивает время ответа. Вы можете дообучить модель на собственных данных, чтобы она быстро получала нужные сведения.

  3. Глобально изменить датасет. Бывает, что многое из той информации, что использует модель, устаревает, или существенно меняются требования в предметной области. Тогда есть смысл собрать побольше качественных данных и провести дообучение на них.

  4. Генерация текстов в специфичном стиле. Допустим, вы хотите, чтобы модель заполняла документацию в конкретном формате, использовала юридический стиль, оформляла тексты по ГОСТ или писала как Достоевский. Подогнать стиль ответов модели под нужный формат — задача, которую можно решить с помощью fine-tuning.

🤔 Что в итоге? Fine-tuning незаменим, если нужно поменять стиль ответов, подогнать тексты под конкретный формат, исправить изначальные слабости. Или когда важно, чтобы модель давала ответы без задержек и не ходила во внешние источники. Подробнее про fine-tuning, а еще про RAG и промпт-инжиниринг читайте в нашей статье

А для дообучения вы можете использовать Evolution ML Finetuning — технология LoRA позволит сэкономить ресурсы GPU и ускорить процесс. Доступны модели из Hugging Face: сравнивайте их между собой, выбирайте подходящую и точечно настраивайте под свои задачи.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Исследование в очередной раз показало, что эффективность использования AI со стороны HR-специалистов во многом зависит от их уровня технической грамотности.

Те, кто понимает общие принципы работы ИИ-моделей, ограничения и особенности применения LLM, принимают более объективные решения в процессе найма и оценки персонала.

При этом всевозможные подсказки в интерфейсе HR-приложений (факторы оценки кандидата со стороны AI) помогают только тем, кто обладает технической грамотностью на уровне выше среднего.

Напротив, информация об ограничениях и характеристиках модели может запутать менее грамотных HR-специалистов.

Explained, yet misunderstood: How AI Literacy shapes HR Managers' interpretation of User Interfaces in Recruiting Recommender Systems

Теги:
Рейтинг0
Комментарии0

Finam X HSE AI Trade Hack: Хакатон для настоящих FinTech-энтузиастов

Хотите прокачать навыки в AI и трейдинге? Готовы создавать инновационные решения для финтеха? Тогда не упустите шанс принять участие в Finam AI Trade Hack — хакатоне от одного из ведущих брокеров на российском рынке «Финам»!

⏰ Регистрация до 19 сентября 23:59
💰 Призовой фонд: 1 200 000 руб.

Треки хакатона:

Forecast
Прогноз динамики цен с учётом новостей.
Задача: предсказать котировки на N дней вперёд, используя временные ряды и новостной контекст.

Trader
LLM-интерфейс к Trade API
Задача: реализовать MCP-сервер для получения рыночных данных и выполнения торговых операций через API FINAM.

Radar
Поиск горячих финансовых новостей.
Задача: создать сервис для автоматического поиска, анализа и оценки новостей, с возможностью генерировать черновики статей и постов.

Почему стоит участвовать:
🔸 Денежные призы
🔸 Оффер на работу в «Финаме»
🔸 Стильный мерч
🔸 Менторская поддержка
🔸 Доступ к API LLM

➡️ Подробная информация и регистрация

Теги:
Рейтинг0
Комментарии0

Data Sapience приглашает на онлайн-конференцию «Kolmogorov Online Day» ⚙️


Эксперты Data Sapience раскроют секреты эффективного управления жизненным циклом моделей и расскажут, как увеличить отдачу от ML-инвестиций.


Дата: 18 сентября 📆
Время: 16:00 ⏰
Формат: онлайн 🌐

Что будет представлено:
▪️Достижения Kolmogorov AI: этапы развития, ключевые результаты;
▪️«Тессеракт» — обзор нового ПАКа для создания доверенных моделей ИИ;
▪️Срез практик MLOps — объективный взгляд на тренды и подводные камни, а также подходы к работе с AI от независимых экспертов;
▪️Демонстрация возможностей Kolmogorov AI для построения фабрики ИИ-агентов.

Вебинар будет полезен тем, кто хочет:
▪️Автоматизировать и ускорить вывод моделей в production;
▪️Наладить эффективный MLOps и перейти от экспериментов к промышленной эксплуатации;
▪️Найти подходящие инструменты и узнать об опыте создания надежной, масштабируемой и высокопроизводительной инфраструктуры для ML-моделей.

🔗 Зарегистрироваться на конференцию

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Типы структурированных данных для ИИ-ассистентов

В 2025 году цифровой мир переживает настоящую революцию: искусственный интеллект становится не просто инструментом, но полноценным посредником между пользователем и информацией. Голосовые ассистенты, чат-боты и нейросетевые алгоритмы уже не просто «ищут» контент — они его анализируют, перерабатывают, а потом генерируют ответы в реальном времени.

В таких условиях традиционные методы SEO уступают место технологиям, которые делают контент «читаемым» не только для людей, но и для машин. Структурированные данные превратились в универсальный язык, на котором сайты общаются с ИИ. Без них даже самый полезный материал рискует остаться незамеченным.

Какие типы структурированных данных существуют:

  • FAQPage. Такая разметка увеличивает шанс попасть в «Ленту ответов» Google (Featured Snippet) и голосовые ответы.

  • HowTo. Страницы с HowTo получают на 50% больше переходов из Discover (Google Webmaster Trends 2025).  

  • Таблицы сравнений. Страницы с таблицами сравнений конвертируются на 25% лучше (данные CXL Institute).

Технологии вроде FAQPage, HowTo и таблиц сравнений — это не просто способ улучшить SEO, а стратегический актив, который определяет, будет ли ваш контент участвовать в голосовом поиске, чат-интерфейсах или AR-сценариях.

Подробно о том, как внедрить структурированные данные на своем сайте, рассказываем в нашем блоге.

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии0

Вклад авторов