Обновить
8
0

DevOps Engineer

Отправить сообщение

Сравниваем работу open source Python — библиотек для распознавания именованных сущностей

Время на прочтение13 мин
Охват и читатели27K

Введение


Мы в компании создаем сервис, который позволяет автоматически создавать, управлять и безопасно хранить лицензионные соглашения и прочие договоры между фрилансерами и их клиентами.

Для решения это задачи я опробовал десятки решений в области обработки естественного языка, в том числе решения с открытым кодом и хотел бы поделиться опытом работы с open source Python — библиотеками для распознавания именованных сущностей.

Распознавание именованных сущностей


Несколько слов о самой проблеме. Named Entity Recognition (NER) — это направление технологии обработки человеческого языка, программная реализация которой позволяет находить в речи и тексте опредмеченные категории слов и словосочетаний. Сначала это были географические наименования, имена людей, организаций, адреса, однако в настоящее время это понятие сильной расширилось и с помощью NER мы ищем в тексте относительные и абсолютные даты, числа, номера и т.д.
Выявление именованных сущностей — это «ворота» в человеческий язык, оно позволяет выявлять и обрабатывать намерения человека, устанавливать связи слов в его речи и реальным миром.

Читать дальше →

Применение LLM + RAG для диалоговых систем в службе поддержки

Уровень сложностиСредний
Время на прочтение19 мин
Охват и читатели7.5K

Автоматизация клиентской поддержки с помощью больших языковых моделей — перспективное направление, но без доработки они не всегда способны дать точные и релевантные ответы. Меня зовут Михаил Крюков, технический директор платформы Robovoice (SL Soft), и в этой статье я расскажу, как усиливать LLM с помощью RAG.

Используя реальный кейс, я расскажу о выборе LLM (сравнивали GigaChat MAX, GPT-4o, LLaMA 3.1 70B, YandexGPT 4 и Gemma 2 9b) и RAG (RagFlow, Dify и LangChain Custom + Vector database). Разберу ключевые сложности при интеграции — подготовку датасетов, настройку RAG, борьбу с «галлюцинациями» моделей, затрону вопросы экономики проекта и способов удешевления стоимости диалога. Статья будет полезна разработчикам и бизнесу, планирующим автоматизировать первую линию поддержки с помощью ИИ. Инфраструктура и железо в материале не освещены.

Читать далее

Интеграция LLM в корпоративные чат-боты: RAG-подход и эксперименты

Уровень сложностиПростой
Время на прочтение11 мин
Охват и читатели5.9K

Всем привет! На связи команда AI-Run из X5 Tech, мы занимаемся генеративными сетями в целом и языковыми моделями в частности. В этой статье мы опишем наш опыт работы с большими языковыми моделями (LLM), их внедрение для обработки корпоративных данных, а также поделимся нашими результатами и выводами.

Ещё мы расскажем о нашем подходе к использованию LLM, подробно остановимся на методе Retrieval Augmented Generation (RAG) и рассмотрим примеры использования чат-ботов на корпоративных порталах X5.

Эта статья будет полезна разработчикам, которые интересуются внедрением LLM для работы с корпоративными данными. Она основана на нашем выступлении на митапе, но не ограничивается им, а, скорее, дополняет его. 

Читать далее

Как ИИ расскажет о видео из YouTube: или RAG Telegram бот с langchain и докерами

Время на прочтение11 мин
Охват и читатели6.3K

Зачем тратить ценное личное время на просмотр продолжительных видео, когда можно получить краткий обзор от ИИ-робота? Попробуем создать бота, способного предоставлять краткий обзор любого видео с YouTube и отвечать на вопросы по его содержимому.

Читать далее

Применение технологии RAG при построении интегрированных систем для цифровых продуктов: детальный разбор

Время на прочтение8 мин
Охват и читатели2.3K

В 2024 году популярными словами и постоянной темой для обсуждения в IT были большие языковые модели (LLM), обработка естественного языка (NLP), искусственный интеллект и создание ценностей. Однако вкатиться в эту экосистему без подготовки может быть довольно сложно. Давайте начнём с того, что рассмотрим понятие генерации с дополненной выборкой (Retrieval Augmented Generation, RAG), чтобы лучше понять эту технологию и возможность её использования в наших цифровых продуктах.

Читать далее

Всё, что я узнал о запуске локальных языковых моделей

Уровень сложностиПростой
Время на прочтение19 мин
Охват и читатели23K

В мире, где облачные решения диктуют свои правила, локальные модели дают свободу — полную приватность, работу офлайн и отсутствие ограничений. Эта статья для тех, кто хочет впервые попробовать самостоятельно запустить ИИ на своем компьютере.

В статье подробно разобраны разные виды LLM, их особенности и сценарии использования. Какие модели лучше подходят для программирования? Какие эффективнее справляются с переводами, генерацией текста или анализом больших объемов данных? Автор статьи Chris Wellons* протестировал популярные открытые модели — Mistral, Qwen, DeepSeek-Coder, Mixtral, Llama 3.1 и другие, — чтобы понять их сильные и слабые стороны. Также автор делится опытом и практическими советами, которые помогут вам запустить и использовать LLM на собственном оборудовании. Хотите разобраться, какую модель выбрать под свои задачи и как эффективно запустить её на локальном оборудовании? Тогда приступим!

*Обращаем ваше внимание, что позиция автора может не всегда совпадать с мнением МойОфис

Читать далее

Что такое DeepSeek и на что способна китайская нейросеть, из-за которой OpenAI снизил цену на ChatGPT

Время на прочтение9 мин
Охват и читатели143K

Стандартный сценарий выхода новой нейросети обычно включает в себя громкие заявления, масштабную рекламную кампанию и последующее разочарование пользователей. Так было с Apple Intelligence, Galaxy AI и даже Google Gemini. Но китайская DeepSeek нарушила привычный ход вещей. Этот чат-бот удивил всех не столько своими возможностями, сколько впечатляющей доступностью. Именно он показал, что эффективно работающая нейросеть может быть доступной. В результате западные IT-гиганты внезапно столкнулись с серьезным конкурентом, который одним фактом своего выхода уже устроил на американском фондовом рынке “Черный понедельник”. Если вы еще не изучили DeepSeek самостоятельно, под катом подробный разбор практики работы с новинкой.

Читать далее

Почему DeepSeek способен конкурировать с OpenAI и как повторить их опыт

Время на прочтение3 мин
Охват и читатели7.5K

За последние два года - за время невероятной популярности Generative AI - появилось много перспективных компаний, создающих новые прорывные модели. Последний пример - это китайский стартап DeepSeek, благодаря которому у нас есть открытые аналоги OpenAI GPT-4o и o1. С теми же (что проверено бенчмарками) возможностями в плане выполнения текстовых инструкций, задач на математику, логику и кодинг.

Читать далее

Как оценивать интеллект? Подход Google

Время на прочтение13 мин
Охват и читатели14K
От себя:

В ноябре 2019 года вышла программная статья от Google «Об оценке интеллекта» Франсуа Шолле (создатель Keras).
64 страницы посвящены тому, как появилось современное понимание ИИ, почему машинное обучение от него так далеко, и почему мы все еще не можем адекватно измерить «интеллект».


Чтобы отбор был честным, задание для всех одно: залезьте на дерево

Наша команда занимается NLP и общей методологией ИИ-тестов, учитывая последние тренды в универсальных трансформерах типа BERT, которые оцениваются тестами на логику и здравый смысл. Так, NLP забирает в себя все новые задачи, связанные с воспроизведением все более сложных действий и по сути отражающих механизмы мышления. Оказалось, что и другие области ML отхватили свой кусок пирога в этом направлении. Например, CV — «Animal AI Challenge».

Понятно, что сейчас “лучше” при возможности делать ML-модели более интерпретируемыми, не использовать 10 маленьких классификаторов, а тренировать одну модель, и так далее, но насколько это все-таки далеко от реального “интеллекта”?
Читать дальше →

О том, как красная селёдка попала в девелоперскую команду

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели6.5K

Эта статья -- про английский. Про английский в англоговорящих командах, где наряду с не-носителями языка работают самые настоящие нейтивы: американцы, британцы и т.д.

Начну с того, что попрошу вас представить кое-что. Нарисуйте себе картинку, где вы планируете искать работу в англоговорящей команде. Но ваш английский уж до того пропах нафталином, что, пожалуй, соваться на этот рынок стоит только после всеобъемлющего повторения базы. И я говорю не только о ставших притчей во языцех временах английского языка.

Вы находите буклетик, где очередная школа английского языка предлагает айтишнику "вспомнить всё" в одном из своих курсов. Вы внимательно изучаете программу курса (здесь, на пункте "произношение популярных айтишных слов", ваш речевой аппарат могут схватить судороги, а язык захочет вырваться наружу, шепелявя что-нибудь th-содержщее).

Но вот вы видите блок уроков, посвящённых идиомам. Идиомам. И-ди-о-мам. Кому они нужны, эти идиомы? Разве айтишники используют их в командном общении?

Вот тут вы должны удивлённо вскинуть брови, потому что, скажу я вам, идиомы так часто используются в командной работе, что, пожалуй, могут потягаться с фразовыми глаголами.

Давайте-ка вспомним что такое "идиома". А что такое идиома вообще? Идиома -- то набор слов, который имеет смысл в определенном языке, но не может быть дословно переведён без потери смысла на другой язык. Ну, например, в русском есть идиома "быть на седьмом небе". В английском языке тоже есть такая идиома, но звучать она будет по-другому -- to be on cloud nine.

Так уж случилось, что в интернациональных командах очень часто члены команды имеют классный английский (как нейтивы, так и не-нейтивы), а, значит, их речь наполнена всем: фразовыми глаголами, идиомами, сленгом и т.п.

Читай про селёдку

Жизнь в Норвегии: 6 лет спустя

Время на прочтение11 мин
Охват и читатели46K

Всем привет! Меня зовут Виталий, и когда-то я написал статью о своём переезде в Норвегию. С тех пор прошло шесть лет. За это время я получил много вопросов и узнал больше о жизни в стране. В этой статье я хочу поделиться тем, что узнал, и затронуть темы, которые были интересны читателям в прошлый раз.

Я рассматриваю жизнь в стране с точки зрения человека, который работает в индустрии высоких технологий — например, программистов, тестировщиков, системных администраторов, аналитиков, и так далее. Это довольно важно, потому что такие аспекты жизни в стране, как поиск работы или изучение языка, могут выглядеть иначе и иметь иную важность для представителей других специальностей.

Поскольку многим может быть интересен мой личный опыт и впечатления, я постараюсь поделиться ими в конце каждого раздела.

Читать далее

Динамический промптинг, или RAG наоборот

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели3.4K

Привет! На связи снова команда LegalDocs правового департамента ПАО «Сбербанк». В прошлый раз мы рассказали вам о конструкторе извлечения для аналитиков, а сегодня хотим поделиться с вами, как мы сделали «RAG наоборот» — выработали методику автоматизации рутинных задач аналитиков.

Читать далее

Улучшаем RAG с помощью графов знаний

Время на прочтение15 мин
Охват и читатели5.4K

Генерация с дополненной выборкой (RAG) — это метод, который соединяет внешние источники данных для улучшения вывода больших языковых моделей (LLM). Этот метод идеально подходит для LLM для доступа к частным или специфичным для предметной области данным и решения проблем, связанных с галлюцинациями. Поэтому RAG широко используется для поддержки многих приложений GenAI, таких как чат-боты AI и системы рекомендаций.

Базовый RAG обычно объединяет векторную базу данных и LLM, где векторная база данных хранит и извлекает контекстную информацию для пользовательских запросов, а LLM генерирует ответы на основе извлеченного контекста. Этот подход хорошо работает во многих случаях, однако он испытывает трудности со сложными задачами, такими как многоадресное рассуждение или ответы на вопросы, требующие соединения разрозненных фрагментов информации.

Например, вопрос «Какое имя было дано сыну человека, который победил узурпатора Аллектуса?»

Читать далее

RAG в действии: актуальные инструменты и возможности их применения

Уровень сложностиПростой
Время на прочтение18 мин
Охват и читатели5.3K

Задумывались ли вы, кто на самом деле находится по ту сторону телефонной линии или чата? В современном мире за приятным голосом неизвестного абонента или ненавязчивым текстовым сообщением часто скрывается вовсе не человек, а искусственный интеллект. Этот робот обучен выполнять задачи маркетинга и клиентской поддержки. Но когда мы пишем негативный фидбек или выражаем свои пожелания, то надеемся если не на изменения, то хотя бы на эмоциональную реакцию. Но ИИ такой ответ — не по силам.

Читать далее

Как создать ИИ-бота с помощью нейросетей за месяц и привлечь инвестиции. История Daria AI

Время на прочтение6 мин
Охват и читатели12K

Когда Михаил Авдеев в январе 2024 года слег с высокой температурой, он и представить не мог, что это станет отправной точкой для создания одного из самых перспективных стартапов в бьюти-индустрии России. Сегодня Daria AI — это чат-бот, который автоматизирует работу администраторов салонов красоты, решая их ключевые боли. Как возникла идея проекта, как команда привлекла первых клиентов и чем стартап выигрывает у конкурентов? Обо всем по порядку.

Читать далее

Как я сделал игру на ChatGPT

Уровень сложностиПростой
Время на прочтение12 мин
Охват и читатели33K

Рассказываю как сделал текстовый квест на ChatGPT и с какими проблемами столкнулся в промптинге. Что и как не получалось и как потом получилось.

Внутри полный текст промпта.

Читать далее

Модель o3 от OpenAI показала результат 75,7% в бенчмарке ARC-AGI-Pub

Время на прочтение5 мин
Охват и читатели5.4K

Франсуа Шолле, создатель фреймворка Keras и основатель ARC Prize Foundation, поделился итогами тестов новой модели o3 от OpenAI в тестах бенчмарка ARC-AGI-Pub. Эта модель достигла впечатляющего результата — 75,7% на полу-приватном наборе оценки при соблюдении установленного публичного лимита вычислительных ресурсов в $10 тысяч. Конфигурация o3 с увеличенным уровнем вычислений (172-кратное увеличение) показала результат 87,5%.

Этот результат представляет собой неожиданный и значительный скачок в возможностях искусственного интеллекта, демонстрируя способность к адаптации к новым задачам, ранее невиданную в моделях семейства GPT. Для сравнения, ARC-AGI-1 потребовал 4 года, чтобы повысить результат с 0% у GPT-3 в 2020 году до 5% у GPT-4o в 2024 году. Все представления о возможностях ИИ требуют пересмотра подхода к бенчмаркам ARC в свете достижений o3.

Читать далее

17 продвинутых RAG-техник: как превратить прототип LLM-приложения в готовое решение

Время на прочтение18 мин
Охват и читатели9.9K

GenAI стремительно ворвался в нашу жизнь. Ещё вчера мы с опаской смотрели на него, а сегодня уже вовсю используем в работе. Многие эксперты пророчат GenAI большое будущее, считая его предвестником новой промышленной революции.

И ведь действительно, LLM и мультимодальные модели уже сейчас демонстрируют впечатляющие возможности и при этом относительно просты во внедрении. Создать простое приложение на их основе - дело нескольких строк кода. Однако переход от эксперимента к стабильному и надежному решению — задача посложнее.

Как метко подметил Мэтт Тёрк: если в 2023 году мы боялись, что GenAI нас погубит, то в 2024-м мечтаем хоть как-то приручить его и запустить в "мелкосерийное производство".

Если вы уже успели создать свои первые LLM-приложения и готовы вывести их на новый уровень, эта статья для вас. Мы рассмотрим 17 продвинутых RAG-техник, которые помогут избежать типичных ошибок и превратить ваш прототип в мощное и стабильное решение.

Пристегните ремни, мы отправляемся в увлекательное путешествие по миру AGI! Вместе мы:

Поймем, как система отличает ценную информацию от информационного шума;

Разберемся, как правильно подготовить данные для LLM;

Выясним, можно ли строить цепочки из нескольких LLM;

Поймем, как направлять запросы через разные компоненты системы.

Приятного прочтения(:

Читать далее

Стоит ли ChatGPT о1 Pro своих денег? Небольшой тест-драйв модели

Время на прочтение8 мин
Охват и читатели15K

Доброго времени суток, Хабр. Хотя с релиза новой модели прошло порядка двух недель, мне все равно захотелось протестировать модель, хотя уже и есть различные обзорные материалы. Все-таки, все познается на практике. Поэтому предлагаю меньше слов и больше дела, приглашаю вместе со мной протестировать модель о1 в режиме pro, а также сравнить ее с ChatGPT o1 и ChatGPT 4o, чтобы понять, стоит ли она своих денег.

Приятного прочтения (:

Читать далее

Как работают квантовые компьютеры. Собираем паззл

Время на прочтение33 мин
Охват и читатели307K


Квантовые компьютеры и квантовые вычисления — новый баззворд, который добавился в наше информационное пространство наряду с искусственным интеллектом, машинным обучением и прочими высокотехнологическими терминами. При этом мне так и не удалось найти в интернете материал, который бы сложил у меня в голове пазл под названием “как работают квантовые компьютеры”. Да, есть много прекрасных работ, в том числе и на хабре (см. Список ресурсов), комментарии к которым, как это обычно и бывает, еще более информативны и полезны, но картинка в голове, что называется, не складывалась.


А недавно ко мне подошли коллеги и спросили “Ты понимаешь как работает квантовый компьютер? Можешь нам рассказать?” И тут я понял, что проблема со складыванием в голове целостной картинки есть не только у меня.


В результате была сделана попытка скомпилировать информацию о квантовых компьютерах в непротиворечивую логическую схему, в которой бы на базовом уровне, без глубокого погружения в математику и структуру квантового мира, объяснялось что такое квантовый компьютер, на каких принципах он работает, а также какие проблемы стоят перед учеными при его создании и эксплуатации.

Получилось или нет - решать, как обычно, вам.

Информация

В рейтинге
Не участвует
Откуда
Dornbirn, Vorarlberg, Австрия
Зарегистрирован
Активность