ИТ-лидеры видят большой бизнес-потенциал в малых моделях ИИ благодаря гибкости, низкой стоимости и нацеленности на конкретные задачи малые языковые модели (SLM) лучше подходят для бизнес-специфичных приложений и вскоре могут обойти LLM по использованию в корпоративной среде.

Малые языковые модели (SLM) дают CIO больше возможностей разрабатывать специализированные, отраслевые AI-приложения, эксплуатация которых дешевле, чем систем на базе универсальных больших языковых моделей (LLM).

Согласно недавнему отчёту Gartner, к 2027 году более компактные, контекстно-специфичные модели обгонят LLM по объёму использования как минимум в три раза; в том же отчёте утверждается, что точность ответов LLM снижается на задачах, требующих специфического бизнес-контекста.

«Разнообразие задач в бизнес-процессах и потребность в более высокой точности подталкивают к переходу на специализированные модели, прошедшие fine-tuning на конкретных функциях или доменных данных, — говорит аналитик Gartner Сумит Агарвал, соавтор отчёта. — Эти более компактные, задачные модели отвечают быстрее и требуют меньше вычислительных ресурсов, снижая операционные и эксплуатационные затраты».

Доктор Магеш Кастури, сотрудник технического штата Wipro (Индия), отмечает, что не считает LLM более склонными к ошибкам, чем SLM, но соглашается, что галлюцинации LLM вызывают опасения. «Для доменно-центричных решений, например в банковском секторе или энергетике, SLM — правильный выбор с точки зрения гибкости, экономичности ресурсов, быстрого прототипирования и разработки, а также безопасности и приватности данных организации», — говорит Кастури.

Несмотря на фокус внимания на универсальных LLM общего назначения (OpenAI, Gemini, Claude, Grok), всё активнее появляются небольшие специализированные модели как экономичные альтернативы для задачных приложений — в том числе Llama 3.1 от Meta, семейство Phi от Microsoft и линейка Gemma SLM от Google.

Например, Google заявляет, что её недавно представленная Gemma 3 SLM может работать всего на одном GPU NVIDIA.

SLM привлекают внимание корпоративного сектора

Николас Колисто, CIO Avery Dennison, связывает растущий интерес CIO к SLM во многом с подъёмом агентного ИИ.

«Выбор правильных базовых моделей для приложений генеративного и агентного ИИ — одна из самых сложных задач для CIO и CAIO сегодня. Дело не только в бенчмарках: важно сбалансировать стоимость, безопасность, интерпретируемость, масштабируемость и скорость получения бизнес-ценности (time-to-value), — говорит Колисто. — Ландшафт смещается от крупных, универсальных моделей к более компактным, доменно-специфичным, которые лучше закрывают потребности отраслей, снижая риски и издержки».

Gartner отмечает, что SLM дают больший контроль над чувствительными бизнес-данными, при этом сокращают операционные расходы и повышают качество в конкретных доменах. Такой более прицельный подход к ИИ — для автоматизации клиентского сервиса, анализа рыночных трендов, продуктовых инноваций и сентимент-аналитики — также приносит выгоды в части приватности и соблюдения авторских прав.

«На 100% верно, — говорит Патрик Бьюэлл, Chief Innovation Officer в Hakkoda (компания IBM). — Настроенные (fine-tuned) открытые SLM, работающие за корпоративным файрволом, снимают многие вопросы безопасности, governance и стоимости».

Том Ричер, бывший CIO и основатель Intelagen (Google Partner, разрабатывающей специализированные вертикальные AI-решения), добавляет, что выводы Gartner совпадают с тем, что он видит на практике:

«Универсальные LLM нужны, но для конкретных бизнес-задач меньшие, прошедшие fine-tuning модели дают лучшие результаты и делают это эффективнее — особенно в регулируемых отраслях, — говорит Ричер. — Главный драйвер перехода к SLM — риск галлюцинаций у LLM. Склонность универсальных LLM генерировать неточные или бессмысленные ответы, особенно в специфичных или нюансированных бизнес-контекстах, — серьёзный барьер».

И далее: «В корпоративных приложениях, где критичны точность и надёжность, этот внутренний риск делает ставку только на универсальную LLM во многих случаях неприемлемой. Именно поэтому более прицельный, специализированный подход чаще всего разумнее и надёжнее. В медицине, например, нельзя допускать риск галлюцинаций».

Гибкое будущее

Прошлой осенью Microsoft объявила об адаптированных моделях ИИ на базе портфеля малых языковых моделей (SLM) Phi, чтобы расширить отраслевые возможности и позволить компаниям точнее и эффективнее закрывать кастомные потребности. Компания сообщила, что разрабатывает модели, прошедшие fine-tuning и предварительно обученные на отраслевых данных для типичных бизнес-кейсов, совместно с корпоративными партнёрами — Bayer, Rockwell Automation, Siemens Digital Industries Software и др.

Генеральный директор Microsoft Сатья Наделла недавно похвалил одну из SLM, созданную крупной авиакомпанией, которую он видел на демо в Токио. «С нашей SLM Phi бортпроводники Japan Airlines тратят меньше времени на бумажную работу и больше — на пассажиров», — написал Наделла в LinkedIn.

По утверждению Microsoft, Orca и Orca 2 демонстрируют использование синтетических данных для посттренировочного обучения мал��х языковых моделей, что позволяет им лучше справляться со специализированными задачами.

Gemma 3 от Google, основанная на Gemini 2.0, — это набор лёгких, передовых открытых моделей, спроектированных для быстрой работы прямо на устройствах — от телефонов и ноутбуков до рабочих станций. «Модели Gemma SLM используют доменно-специфичную бизнес-интеллектуальность вместо широкой генерализации и нацелены на такие отрасли, как здравоохранение, юридические услуги и финансы, превосходя LLM в соответствующих доменах», — говорится в заявлении компании для CIO.

Gartner отмечает, что предприятия могут кастомизировать LLM под конкретные задачи, применяя retrieval-augmented generation (RAG) или другие техники fine-tuning для создания специализированных моделей. Но прогноз Gartner о том, что через два года SLM по объёму использования опередят LLM, отражает ускоряющийся в индустрии тренд на более «задачеспецифичный» ИИ, соответствующий требованиям governance и регуляторного комплаенса, говорит Навин Шарма, старший вице-президент и глава направления AI & Analytics в Cognizant.

«По мере того как организации стремятся масштабировать ИИ эффективнее, более компактные, задачеспецифичные модели оказываются быстрее, экономичнее и проще интегрируются в реальные бизнес-процессы, — говорит Шарма. — Когда речь об ИИ-моделях, “меньше” может означать “умнее”, но будущее — не “или-или”, а оркестрация: большие модели дают фундамент, а небольшие, таргетированные модели закрывают точные бизнес-нужды».

Шарма также подчёркивает, что рост числа SLM не означает исчезновения больших базовых моделей.

«Если уж на то пошло, их роль стан��вится более стратегической. Вместо того чтобы быть конечным продуктом, они становятся стартовой точкой — предоставляя ключевые возможности, на которых команды могут строить, адаптировать и проводить fine-tuning под конкретные кейсы, — добавляет он. — Мы смещаемся от использования их как универсальных инструментов к использованию как базовой инфраструктуры для более узко настроенных, эффективных AI-систем, которые лучше служат бизнесу».

Вдогонку к посту — самое полезное: