Во всём мире сейчас наблюдается ажиотаж вокруг темы искусственного интеллекта и разработки приложений с его использованием. Многие стремятся внедрить искусственный интеллект в свои продукты и воспользоваться всеми его преимуществами. Поэтому сообщество Spring создало модуль 'Spring AI' для упрощения интеграции AI API в приложения Spring. Spring AI — это молодой проект, призванный упростить для разработчиков интеграцию функций искусственного интеллекта в приложения Spring. И он достигает этой цели, предлагая набор абстракций и инструментов, которые упрощают взаимодействие с такими ИИ-моделями, как OpenAI и Azure OpenAI.
Как ИИ расскажет о видео из YouTube: или RAG Telegram бот с langchain и докерами
Зачем тратить ценное личное время на просмотр продолжительных видео, когда можно получить краткий обзор от ИИ-робота? Попробуем создать бота, способного предоставлять краткий обзор любого видео с YouTube и отвечать на вопросы по его содержимому.
Интеграция LLM в корпоративное хранилище данных
В данной статье рассматриваются способы интеграции Large Language Models (LLM) в корпоративные системы хранения данных. Основное внимание уделено использованию LLM для автоматического извлечения информации из текстовых данных с последующим формированием SQL-запросов. В рамках исследования также изучаются методы пост-обработки результатов SQL-запросов с целью улучшения точности и адаптивности моделей к конкретным характеристикам и особенностям баз данных.
Работа включает в себя анализ существующих решений и методов оценки эффективности LLM в контексте их интеграции в корпоративные информационные системы. Особое внимание уделяется применению Preference Learning via Database Feedback — подхода, направленного на обучение моделей на основе обратной связи от баз данных, что способствует более точному и адаптивному выполнению запросов пользователей.
Исследование также охватывает разработку примеров интеграции LLM в реальные корпоративные хранилища данных с целью демонстрации практической применимости и эффективности предлагаемых подходов.
От промптов к дообучению: четыре уровня адаптации open-source моделей
Привет, Хабр! Меня зовут Анна Щеникова, я аналитик в Центре RnD в МТС Диджитал. Ко мне часто приходят задачи, где нужно использовать open-source LLM. Сразу же встает вопрос: а как адаптировать имеющуюся модель под конкретный кейс?
Мы выделяем четыре уровня адаптации. Для этого смотрим, какие потребуются навыки для решения этой задачи, сколько времени и человекочасов займет разработка. Поняв требуемый уровень, мы можем поставить себе дедлайны на проверку гипотезы и запланировать действия, если задача не решится выбранным способом. Ниже я расскажу, как мы разделяем разные уровни адаптации, что делаем на каждом из них и когда переходим на следующий.
Как максимально сконцентрироваться на работе
Наступает осень – студенты всех возрастов выходят на учебу за новыми знаниями. На работе появляется больше новых проектов, дел, которые откладывали в сезон отпусков. Именно сейчас нужно максимально сконцентрироваться. Для тех, кому ее не хватает на работе или просто сейчас необходимо включиться на максимум собраны несколько важных шагов, как это сделать.
Системный аналитик. Краткий гайд по профессии. Часть 1. Основы взаимодействия систем
Системный аналитик. Краткий гайд по профессии. Часть 1.
Из этой статьи вы узнаете об основах сетевого взаимодействия, основном протоколе и формате обмена данными в сетях, из каких частей состоят простейшие приложения и увидите пример сложного приложения в виде распределенной системы.
17 продвинутых RAG-техник: как превратить прототип LLM-приложения в готовое решение
GenAI стремительно ворвался в нашу жизнь. Ещё вчера мы с опаской смотрели на него, а сегодня уже вовсю используем в работе. Многие эксперты пророчат GenAI большое будущее, считая его предвестником новой промышленной революции.
И ведь действительно, LLM и мультимодальные модели уже сейчас демонстрируют впечатляющие возможности и при этом относительно просты во внедрении. Создать простое приложение на их основе - дело нескольких строк кода. Однако переход от эксперимента к стабильному и надежному решению — задача посложнее.
Как метко подметил Мэтт Тёрк: если в 2023 году мы боялись, что GenAI нас погубит, то в 2024-м мечтаем хоть как-то приручить его и запустить в "мелкосерийное производство".
Если вы уже успели создать свои первые LLM-приложения и готовы вывести их на новый уровень, эта статья для вас. Мы рассмотрим 17 продвинутых RAG-техник, которые помогут избежать типичных ошибок и превратить ваш прототип в мощное и стабильное решение.
Пристегните ремни, мы отправляемся в увлекательное путешествие по миру AGI! Вместе мы:
Поймем, как система отличает ценную информацию от информационного шума;
Разберемся, как правильно подготовить данные для LLM;
Выясним, можно ли строить цепочки из нескольких LLM;
Поймем, как направлять запросы через разные компоненты системы.
Приятного прочтения(:
Знакомимся с линейной алгеброй в NumPy
Краткий гид по основам библиотеки NumPy и основным линейно-алгебраическим операциям с её использованием
Что такое Retrieval-Augmented Generation (RAG) в языковых моделях и как оно работает?
В контексте разговоров о больших языковых моделях (LLM) все чаще возникает аббревиатура RAG – Retrieval-Augmented Generation, или если переводить на русский язык, то «поисковая дополненная генерация». В этом тексте попробуем в общих чертах разобраться, как работает RAG, и где он может быть применим на практических задачах.
«А можно быстрее?»: разбираем методы ускорения обучения нейронных сетей
Современные нейросетевые архитектуры достигают впечатляющих результатов в сложных задачах ИИ благодаря росту объемов данных и вычислительных мощностей. Однако обратной стороной медали стала высокая ресурсоемкость обучения.
Например, последняя версия GPT-4 от OpenAI обучалась на большом GPU-кластере. По некоторым данным, она содержит около 1,8 триллиона параметров, а ее обучение обошлось более чем в 100 млн долларов. А модель Llama 3.1 405B, вроде бы оптимизированная под ограниченные ресурсы, все равно требовала более 15 триллионов токенов и свыше 16 тысяч GPU NVIDIA H100.
И хотя нынешнее качество работы LLM уже можно действительно назвать выдающимся, на практике они подкидывают разработчикам широкий ряд проблем производительности: от запредельных объемов данных до оптимизации гиперпараметров. Все это приводит к потребности в ускорении обучения.
Мы подготовили серию материалов, которые помогут разобраться в ускорении обучения нейросетей. В этой статье рассмотрим различные теоретические аспекты от аппаратного ускорения до правильной организации самого обучения, в следующей — поговорим о практике. В общем, нас ждет глубокое погружение в тему. Приятного прочтения!
Как давать нейросети задания, чтобы она вас понимала
Вы уже знаете, на что способна нейросеть (спойлер: это десятки задач!). Однако она не всесильна — и не понимает, что такое хорошо, а что такое плохо, если вы ей это не объясните.
В статье поговорим о том, как взаимодействовать с искусственным интеллектом, чтобы он выдавал качественный результат. Заручились экспертизой специалистов из Практикума с курсов фронтенд-разработки, интернет и контент-маркетинга: они активно применяют нейросети в своей работе уже не первый год — и учат этому студентов.
Без кода и программистов: как ИИ убивает low-code
Искусственный интеллект стремительно врывается в сферу автоматизации бизнес-процессов и разработки, бросая вызов привычным low-code и BPM-платформам. «Через пять лет мы увидим решения, которые смогут заменить как минимум 50% программистов уровня junior и middle», ― шокирует один из экспертов. Но созрели ли мы для того, чтобы доверить искусственному интеллекту автоматизацию бизнес-процессов? «Я не готов ездить по мосту, спроектированному ИИ», ― парирует другой. Станет ли внедрение ИИ панацеей или приведет к закату эпохи low-code и BPM?
Ответы на эти и другие вопросы прозвучали в ходе дискуссии «ИИ и Low-code/No-code платформы», которая прошла на YouTube-канале AI4Dev. Павел Гребешков (Comindware), Борис Соколов (ex-UDP Auto), Константин Леладзе (Proscom), Артём Любченко («ЗЕРОКОТ») и Петр Гринь (BPMSoft) поделились своим видением перспектив интеграции ИИ и low-code/no-code платформ. Участники обсудили, как совместное использование этих технологий может повысить эффективность разработки, улучшить пользовательский опыт и открыть новые горизонты для бизнеса. Краткий обзор дискуссии - в этой статье в блоге ЛАНИТ.
Не дай мозгу себя обмануть: 5 когнитивных искажений, распространённых в IT
Мозг человека не идеален. Подобно компьютеру, в нем существуют баги — несовершенства вычислительной системы. Из-за этих несовершенств, которые, скорее всего, обусловлены эволюционным развитием психики, возникают различные артефакты мышления — не ошибки, но особенности.
Конечно же, с ними приходиться мириться. Их влияние велико. Они заставляют нас видеть и воспринимать мир не таким, каков он есть на самом деле. Когнитивные искажения приводят к неверным решениям не только в быту, но и на уровне корпоративного управления и при принятии политических решений.
Когнитивные ошибки бессознательны. Однако осознание их существования помогает критично относиться к собственному мышлению, отлавливая когнитивные «ловушки» заранее, еще на стадии появления. Ну, и таким образом принимать гораздо более обоснованные решения.
Кстати, ранее в блоге мы уже рассказывали про искажения мышления, связанные со знанием и компетенциями. Теперь настало время раскрыть тему искажений подробнее.
Обзор бенчмарков для тестирования LLM (больших языковых моделей)
Ирина Барская, Head Data Scientist в Яндексе, которая работала над голосовым ассистентом «Алиса» и Yasmina для рынка Саудовской Аравии, написала для портала Unite.ai обзор основных бенчмарков, которые используются для оценки работы больших языковых моделей. А мы этот обзор перевели.
Рецензия на книгу “Базовая математика для искусственного интеллекта”
Сегодня обзор новой книги по математическому аппарату ИИ — для всех вовлеченных в анализ данных и построение ML/DL моделей. «Базовая математика для искусственного интеллекта» (Essential Math for AI: Next‑Level Mathematics for Efficient and Successful AI Systems) от издательства O'Reilly Media, в переводе от БХВ Петербург — это фолиант на 600 стр. для дата-сайентистов всех уровней. Полезность книги — в обширном материале по мат.аппарату ИИ, собранном в одном месте.
Быстрое введение в мир существующих больших языковых моделей (LLM) для начинающих
Особенности и отличия семейств LLM в одной статье. Разберемся, что это такое, как они развивались и чем отличаются друг от друга. Рассмотрим характеристики основных моделей (GPT-3, GPT-4, Gemini, LLAMA, Claude и др.). Для новичков и желающих упорядочить знания в сфере LLM.
Дообучение saiga2_7b_lora
Дообучение 7-миллиардной модели Saiga2 под свои задачи, используя сгенерированный датасет с помощью GPT. В данной статье есть все необходимые ссылки и код для предобработки и запуска обучения модели, а также квантования модели.
Теория игр может сделать ИИ более корректным и эффективным
Исследователи используют идеи теории игр, чтобы улучшить большие языковые модели и сделать их более последовательными.
Представьте, что у вас есть друг, который дает разные ответы на один и тот же вопрос в зависимости от того, как вы его задали. «Какая столица Перу?» получит один ответ, а «Лима — столица Перу?» — другой. Вы, вероятно, немного обеспокоены умственными способностями вашего друга, и вам почти наверняка будет трудно доверять его ответам.
Именно это и происходит со многими большими языковыми моделями (LLM), сверхмощными инструментами машинного обучения, которые поддерживают ChatGPT и другие чудеса искусственного интеллекта. Генеративный вопрос, который является открытым, дает один ответ, а дискриминативный вопрос, который подразумевает необходимость выбора между вариантами, часто дает другой. «Происходит разрыв, когда один и тот же вопрос формулируется по-разному», — сказал Атул Пол Джейкоб, докторант Массачусетского технологического института.
Топ 5 продвинутых инструментов Data Science. Изучи за выходные и будешь выделяться
Привет, чемпионы! Сегодня рассмотрим, как облегчить себе жизнь, применяя 5 инструментов в своих проектах. Эти инструменты улучшат ваш код, сделают ваш pipeline более стабильным и позволят не писать один код по 10 раз. Круто? Погнали!
Автоматизация Code Review с помощью LLM
Как разработчики большой мультибрендовой торговой площадки (Faire) внедрили автоматизированные c LLM Code Review (статья - мой перевод для нашего ТГ канала посвященного разработке софта при помощи LLM).
В Faire мы верим в ценность код-ревью и всегда придерживаемся этой практики. Хотя многие аспекты код-ревью требуют глубокого понимания проекта, существуют также множество общих требований, которые можно учесть без дополнительного контекста. Например, наличие ясного заголовка и описания, достаточное покрытие тестами, соблюдение стиля кода, выявление изменений несовместимых между сервисами.
Похоже, что LLM хорошо подходят для выполнения таких общих задач код-ревью. Имея достаточно информации о pull request: метаданные, diff, логи сборки и отчеты о покрытии тестами, можно эффективно настроить LLM для добавления полезной информации, выявления багов или потенциально опасных изменений и даже автоматического исправления простых ошибок.
Information
- Rating
- 515-th
- Location
- Москва и Московская обл., Россия
- Date of birth
- Registered
- Activity