Обновить
773.52

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Представлен сервис Kira.art, который позволяет редактировать картинки прямо в чате. Все просто: грузим картинку и описываем, что хотим получить. Никаких кистей, слоёв и прочих инструментов. Можно поменять оттенок глаз на фото, добавить или удалить фон и другие предметы, создать арт или стилизовать пикчу, например, в аниме. Внутри также есть встроенный апскейлер — бустануть качество фото можно в несколько раз. Никаких сложных промптов, диалог идёт на естественном языке.

Теги:
Всего голосов 3: ↑3 и ↓0+5
Комментарии1

С учётом бурного роста популярности чат‑ботов вроде ChatGPT и того, что некоторые пользователи склонны слишком доверять информации, которую такие инструменты выдают, интересно посмотреть, откуда они её берут. Такие данные (по состоянию на июнь) есть у аналитиков Semrush по 150 тысячам цитирований.

В Visual Capitalist представили инфографику с ресурсами в сети Интернет, на которые чаще всего ссылаются ИИ‑модели вроде чат‑ботов ChatGPT. Некоторые пользователи склонны слишком доверять информации, которую такие инструменты выдают по запросу к ИИ-системам.

Самым популярным источником знаний для ИИ оказался Reddit — форум упоминается в 40% цитат. За ним с большим отрывом идёт «Википедия», дальше — YouTube и Google.

Оказалось, что ИИ-системы в основном модели полагаются на дискуссии на форумах и контент, курируемый сообществами модераторов, отмечают в Visual Capitalist. В связи с этим есть риск, что распространённые там взгляды, неточности и предвзятости могут перекочевать в ответы моделей и распространиться ещё шире.

Теги:
Всего голосов 3: ↑3 и ↓0+5
Комментарии1

Валидация RAG с помощью RAGAS — доклад на IT-конференции GoCloud Tech 2025 ☁️

Retrieval-Augmented Generation — мощный инструмент, но вы уверены, что ваш RAG действительно работает? RAGAS — это метрика, которая даст ответ. По ходу доклада разберемся, как оценивать качество генерации, релевантность документов и достоверность ответов. Поговорим о метриках и пайплайнах, а также покажем, как найти слабые места в RAG-системе до того, как это сделает пользователь.

Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать. 

📅 Когда: 3 сентября в 12:00 мск

👉 Зарегистрироваться

Что еще интересного будет на GoCloud Tech, смотрите в программе конференции.

Теги:
Всего голосов 2: ↑1 и ↓1+2
Комментарии0

Исследователи из Чикагского и Роттердамского университетов выяснили на базе изучения данных 67 тыс. собеседований, что при большой загрузке и текучке голосовые ИИ‑агенты более эффективно отбирают кандидатов на работу, чем люди.

Проблема человеческого фактора в рекрутинге — это усталость, предвзятость и непоследовательность.

Рекрутеры‑люди могут забывать задавать ключевые вопросы, особенно при массовом подборе. Исследование показало, что ИИ‑агенты, в отличие от людей, всегда придерживаются сценария, охватывая значительно больше важных тем. В результате у нанимающих менеджеров оказывается больше релевантной информации для принятия решения, а усталость, предвзятость и непоследовательность рекрутёров‑людей наоборот игнорируется с помощью ИИ.

Хотя ИИ‑агенты ускорили процесс назначения собеседований, рекрутерам‑людям требовалось в два раза больше времени на проверку результатов таких интервью. Выгода от использования ИИ в рекрутинге зависит от масштаба. Для крупных компаний с большим потоком кандидатов и высокими зарплатами рекрутеров экономия может быть значительной. Кроме того, более качественный подбор снижает текучесть кадров, что особенно важно в таких отраслях, как колл‑центры.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии1

«‎ИИ не существует» или пять опасных заблуждений про ИИ, которые тормозят технологический прогресс

Когда речь заходит о внедрении ИИ, всегда находятся скептики. Они повторяют одни и те же фразы: на первый взгляд логичные, но на деле  —  тормозящие развитие. Такие установки демотивируют команды и мешают компаниям трансформироваться. Разберем пять самых популярных.

1. «ИИ — это просто статистика»

На первый взгляд — так и есть: нейросети действительно основаны на математике и вероятностях. Но по сути похожим образом работает и человеческий мозг: мы тоже оцениваем вероятности, ищем закономерности и строим прогнозы, хотя используем иной тип вычислений. Наш мозг до сих пор остается большой загадкой, а нейросети можно рассматривать как лабораторный макет мышления — упрощенный, но доступный для изучения.

Так современные исследования показывают, что модели обладают эмерджентными свойствами: они решают задачи, которым их не учили, а в скрытых слоях формируются целые стратегии. Да, «это просто статистика», но именно статистика лежит в основе прогноза погоды, медицины и экономики — и мы доверяем ей, потому что она видит больше, чем человек. И вот главный вопрос: когда машина учится понимать и предсказывать мир, чем ее деятельность принципиально отличается от нашей?

2. «Это все хайп, скоро пройдет и пузырь лопнет»

Удобно: можно ничего не менять и остаться в зоне комфорта. Но ИИ уже встроен в повседневную жизнь — от рекомендательных систем до банковского скоринга. Да, вокруг ИИ действительно завышенные ожидания — так всегда бывает с новыми технологиями (см. кривую Gartner). Но хайп не отменяет того факта, что компании уже перестраивают процессы и продукты, а выгоды измеряются миллиардами долларов. Подождать пару лет — значит отстать навсегда. Что опаснее — переоценить возможности ИИ или проспать момент, когда конкуренты перестроят рынок?

3. «Нейросети все равно ошибаются»

Да, ошибаются. Но и люди ошибаются — зачастую даже чаще. Отличие в том, что модели работают быстрее и дешевле. Ошибки — не повод отказываться от ИИ, а часть рабочего процесса. Грамотный подход — строить систему, в которой ИИ делает 80% работы, а человек проверяет критические 20%. Те, кто осваивает такие гибридные процессы, вырываются вперед. Кто победит — тот, кто ждет безошибочный ИИ, или тот, кто учится работать с его ошибками?

4. ИИ обесценивает опыт и знания людей

Люди подсознательно боятся, что машина быстро осваивает то, на что раньше уходили годы учебы и работы. Во время первой промышленной революции ткачи разрушали станки, боясь потерять работу. Но ИИ не обесценивает опыт — он меняет роли. Тогда исчезли ткачи, но появились инженеры, а сегодня ИИ забирает на себя рутину и освобождает место для управленческих и творческих задач. Ответственность все равно остается за человеком, а ИИ — лишь инструмент. Разве инструмент, который расширяет возможности мастера, обесценивает его опыт?

5. Российский контекст

В России нет полноценных LLM уровня флагманских моделей от OpenAI и Anthropic. Импортозамещение пока невозможно: собрать качественный датасет на русском сложно, вычислительные мощности ограничены санкциями, а многие таланты работают на западные компании. Доступ к зарубежным решениям закрыт, а открытые модели не дотягивают до флагманских. Если догнать в лоб нельзя, не пора ли проявить смекалку: научиться синтезировать данные и обучать модели децентрализованно?

Главная причина отрицания ИИ кроется не в самой технологии, а в человеке. Нам проще быть в зоне комфорта, но признать сегодняшнюю значимость ИИ — значит признать необходимость учиться и перестраивать привычный процесс работы. Это требует усилий, а мозг всегда ищет путь экономии. Иллюзия комфорта опаснее всего: она оборачивается отставанием — личным, профессиональным и национальным.

Будущее у нас заберет не ИИ, а привычка жить прошлым и отрицать перемены.

***

Если вы не хотите отставать от прогресса и смотрите в будущее подписывайтесь на мой TG-канал, где я рассказываю как работают все эти ИИ-чудеса и как внедрять ИИ в бизнес.

Теги:
Всего голосов 8: ↑5 и ↓3+3
Комментарии4

ML Impact — рассказываем, как компании внедряют ML и что из этого получается

Мы запустили ресурс о том, как эффективно использовать искусственный интеллект в рабочих задачах. Уже доступны материалы про настоящую роль ИИ в автоматизации и работу EDGE AI. Скоро появятся новые статьи! 

Их можно использовать, чтобы обосновать коллегам или руководству целесообразность запуска ML-проекта. У вас под рукой будет готовый ресурс, которым можно просто поделиться — вместо тысячи слов и долгих объяснений.

Перейти в ML Impact

Теги:
Всего голосов 4: ↑4 и ↓0+8
Комментарии0

Отчёт аналитиков из Стэнфорда под названием «Канарейки в угольной шахте?» утверждает, что ИИ уничтожает рабочие места молодых специалистов и выпускников колледжей.

Теги:
Рейтинг0
Комментарии1

Обновлён репозиторий System Prompts Leaks с гайдами для большинства современных нейронок от Anthropic, Google, OpenAI, Perplexity, xAI до других топовых разработчиков, включая базу по всем моделям — как их обучали, что под капотом, бенчи, пределы возможностей и правила, по которым ИИ размышляет, а также лайфхаки, как обойти ограничения, цензуру и тормоза, пошаговые инструкции о том, как создать свою нейронку под конкретные задачи и сэкономить десятки рабочих часов на рутине.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

Can a Machine Think?

Пару дней назад я нашёл свою первую публично опубликованную статью, которую написал более 5 лет назад

Через 2 года после того, как OpenAI выпустили документ "Improving Language Understanding by Generative Pre-Training" — то, что можно считать основой GPT-1

Тогда рассуждения об ИИ, с которым можно качественно общаться, воспринимались как что то далекое. Похоже на то, о чем рассуждал ещё Алан Тьюринг

А Siri и Google Assistant были вершиной публично доступных чат-ботов

Но прошло 5 лет, и ИИ агенты это уже данность. Они спокойно проходят не только тесты Тьюринга, но и вообще любые тесты

Но есть одна проблема...

Мы уперлись в стену

GPT-5 показывает фундаментальное ограничение GPT моделей — мы близки к исчерпанию всех оцифрованных человеческих знаний, которые нужны моделям на стадии предобучения

Можно улучшать модели через мелкие улучшения изнутри, увеличивать reasoning tokens за счет роста вычислительных мощностей и структур сетей, но от этого подобные модели не перестанут быть next token prediction

Если привести аналогию, то модель "пытается познать мир", находясь внутри библиотеки. Но насколько большую библиотеку ты не создавай, по настоящему познавать мир через нее у модели не получится

Для познания мира мы, люди, используем совершенно другой механизм — любопытство.

И это — наше главное эволюционное преимущество, которое привело нас туда, где мы есть

В чём разница между пересказом и пониманием?

«Откуда мы знаем, что существуют чёрные дыры, квазары, взрываются сверхновые и образовываются всевозможные химические элементы, из которых состоит наше тело и Земля? Ведь это невообразимо далеко и невероятно сложно»

«Мы это знаем благодаря телескопам и измерительным устройствам» — это плохое объяснение

«Мы знаем, что существуют конкретные законы физики, мы проверили эти законы много раз, мы получили много информации о том, что эти законы соблюдаются и на Земле и за миллиарды километров, поэтому мы с хорошей точностью знаем что происходит при взрыве сверхновой» — это хорошее объяснение

Объяснения — это самый базовый элемент, который позволяет человечеству создавать новые знания

Которые создаются только таким способом

Выдвинуть гипотезу — догадаться/предположить, что что-то устроено определённым образом
Сделать действия — проверить гипотезу экспериментами
Обработать данные — получить обратную связь от мира
Сделать выводы — выбросить гипотезу, принять или доработать

А затем ждать лучшего объяснения

И да, это стандартный продуктовый подход через HADI циклы

И именно этот процесс привёл к созданию всего знания, всех инструментов в мире

Другого процесса создания знания не существует

Библиотека vs Лаборатория

Мы посадили ИИ в библиотеку, а ему нужна лаборатория

Текущие модели — отличные библиотекари. Они идеально пересказывают существующие знания, комбинируют их и даже делают инсайты на основе прочитанного

Но если мы хотим настоящий AGI, то он должен стать учёным. Он должен создавать новые знания

Bottle Neck человечества для создания знаний

На планете менее 1% людей в определённый момент времени занимаются созданием знаний на границе неизвестного

Мы ограничены количеством мозгов и рук, которые способны выдвинуть гипотезу, проверить ее и сделать выводы

Вот где настоящее бутылочное горлышко роста знаний — не в данных, а в количестве мозгов и рук, способных выдвинуть и проверить гипотезу.

Путь к сингулярности

Для создания AGI нам нужно научить ИИ

  1. Выдвигать гипотезы

  2. Проверять их экспериментально

  3. Делать выводы и, в идеале, делиться ими

Для этого ему понадобится доступ к нашему миру через сенсоры. И развитие робототехники — необходимый шаг

AGI = Модель + HADI циклы + Реальный мир

После того, как мы научим ИИ проходить HADI циклы, мы войдём в эру сингулярности знаний

Рост знаний будет ограничен только вычислительными мощностями, а не количеством любопытных людей на планете.

Вместо 1% человечества, которые генерируют знания, нам нужно будет создать ИИ-ученых, работающих 24/7

Это и будет состояние мира, близкого к настоящей сингулярности

Теги:
Всего голосов 9: ↑8 и ↓1+8
Комментарии0

Представлен бесплатный ИИ-агент Academic Deep Search & QA для учёбы и любых исследований — от контрольных и рефератов до объёмных дипломов для школьников и студентов. Решение помогает по темам от математики и программирования до философии, химии и биологии, делает работу даже по узким специализациям вроде квантовой физики, включая реально полезное и системное исследование. Нейросети можно задавать вопросы онлайн и уточнять материал, менять структуру работы и добавлять новые факты. Ответ ИИ выдаёт на академическом уровне со всеми ссылками, объяснениями, цитатами и визуалом.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Неросети GPT 5 Pro и Gemini 2.5 Pro Deep Think ответили профильному эксперту Денису Ширяеву на вопрос: «Если бы за всю жизнь, человек мог бы прочитать строго 10 книг, не больше, какие книги это были бы и почему?».

Ответ ИИ:

  • Карл Саган — «Космос». Книга о фундаментальном строении вселенной, космогонии и скептицизме. Автор показывает красоту сомнения во всем и способы выхода за рамки традиционного мышления.

  • Донелла Медоуз — «Азбука системного мышления» (Thinking in Systems). Произведение, которое помогает декомпозировать любые системы: от политических партий до финансовых рынков и ИТ‑платформ и проследить их реакцию на непредвиденные обстоятельства.

  • Даниэль Канеман — «Думай медленно… решай быстро». Буквально азбука когнитивных искажений, а также подлинная инструкция по выживанию в мире инфошума и постоянных отвлечений.

  • Элизабет Колберт — «Шестое вымирание». Книга помогает проследить полный спектр изменений в человеке и обществе в контексте истории, экономики и политики.

  • Марк Аврелий — «Размышления». Шедевр стоицизма. Книга бустит внимание, помогает воспитать непоколебимую дисциплину, отличать контролируемые факторы от хаоса и проповедует мягкую, но твердую доброту.

  • Мэри Шелли — «Франкенштейн, или Современный Прометей». Книга о том, что знание и сила не даруют право, не позволяют распоряжаться чужими жизнями. Крайне актуальна в эпоху биотехнологий и нейросетей.

  • Вирджиния Вулф — «Своя комната». Чеклист и инструкция для воспитания истинного таланта и его развития, а также преодоления социальных, экономических, политических и гендерных барьеров.

  • Джордж Оруэлл — «1984». Практические пособие по тоталитаризму и новоязу, особенно, в цифровой среде.

  • Чинуа Ачебе — «Распад» (Things Fall Apart). Книга рассказывает о распаде колониальных империй, цене прогресса и нелегкой судьбе стран, вышедших из‑под власти метрополий. Нереальная прокачка ваших моральных ценностей.

  • Федор Достоевский — «Братья Карамазовы». Книга о границах истинной свободы и ответственности за свои решения и поступки. Фундаментальный анализ человеческих страстей и мотивации.

Теги:
Всего голосов 14: ↑2 и ↓12-9
Комментарии4

При чтении раздела постов Хабра моё внимание привлекла публикация, где автор размышлял про опечатки в промптах. Хочется вынести пару собственных мыслей из комментария в отдельный пост.

Да, слова разбиваются на токены. В токенизаторе обычно много слов английского языка, слабее представлены уже остальные западноевропейские. Некоторые языки — например русский — у многих моделей выражены как соответствие одного токена на одну букву. В любом случае, кажется, что если изменить одну букву в слове, то всё сломается, и качество ответов катастрофически упадёт, поскольку искомый токен (или их последовательность) не получится.

На деле не всё так плохо. Без каких-либо особых усилий языковые модели легко выдерживают небольшое число опечаток в промпте и не снижают качество ответов (arXiv:2407.08989). Конечно, не последнюю роль играет, в каких словах сделана опечатка (arXiv:2411.05345).

Сейчас доступ к моделям с reasoning кое-где дают даже бесплатно. Такие чат-боты не пытаются быстренько ответить, а могут несколько секунд, пару минут или хоть чертверть часа размышлять над ответом, самостоятельно искать дополнительную информацию в Интернете и вызывать другие внешние инструменты. Если заглянуть внутрь, то обычно один из первых шагов размышлений — это перефразирование пользовательского запроса. Модель говорит сама себе: «Пользователь хочет X». Из ещё одной статьи известно, что простое перефразирование пользовательского запроса повышает качество ответов (arXiv:2309.10687).

Но это всё скучные исследования. Практическая демонстрация: возможно получить хороший внятный ответ хоть на запрос вида «Rgw suddwewbxw vwrqwwb X, E%1 cwxreia>». В примере ниже ChatGPT 5 Thinking сама догадывается, что пальцы пользователя соскочили на одну клавишу влево.

На самом деле этот пример я додумал из подсмотренного на подреддите /r/OpenAI. Три недели назад реддитор mimic751 показал, что ChatGPT без размышлений ответил на вопрос с огромным числом опечаток — у пользователя пальцы не попадали по клавиатуре и нажимали на кнопки рядом с нужными буквами. При этом в отличие от моего примера это был не строгий шифр, а мешанина из примерно десятка правильных нажатий с двумя десятками опечаток.

Как видно, опечатки в промптах нежелательны, но языковые модели из-за своей статистической натуры прощают очень многое.

Теги:
Всего голосов 12: ↑12 и ↓0+14
Комментарии5

Илон Маск сообщил, что зарегистрировал Macrohard — компанию, которая будет выступать прямым конкурентом Microsoft. Планируется, что этот проект займётся разработкой ПО и ИИ-проектами.

«Название шуточное, но проект вполне реален!», — написал Маск. Проект Macrohard он охарактеризовал как «компанию, в которой разработкой ПО занимается исключительно ИИ», так что она будет связана с xAI. «В принципе, учитывая, что такие компании — разработчики ПО как Microsoft — сами не выпускают физического оборудования, их работу должно быть возможно полностью симулировать с помощью ИИ», — пояснил Маск.

Теги:
Всего голосов 3: ↑3 и ↓0+7
Комментарии2

Ближайшие события

Потребление энергии американскими дата‑центрами стремительно растет из‑за искусственного интеллекта. Они потребляют огромное количество электричества. По оценкам экспертов, ChatGPT-5 может потреблять до 20 раз больше энергии, чем ChatGPT-1. Это увеличивает стоимость электричества для всех потребителей, но если дата‑центры и ИИ‑компании получают прибыль, то граждане просто платят все больше и больше.

Теги:
Всего голосов 2: ↑2 и ↓0+5
Комментарии2

Влияют ли орфографические ошибки в запросе на ответ нейросети?

Лично я часто отправляю в нейросеть сырой текст с ошибками, но она всегда меня понимает и делает то, о чём я её прошу.

Получается, нейросетям не так важно, есть ли ошибки в тексте?

Не совсем.

Нейросети устроены так, что могут догадаться, какое слово вы имели в виду.
Как?
Ранее я писал про токены — именно на них и разбивается текст. Давайте для примера разобьём слово с ошибкой и без:
"Привет" → ["Пр", "ивет"]
"Пирвет" → ["П", "ир", "вет"]
Можно попробовать самим — ТУТ (нужен VPN).

Выходит, что слово с ошибкой разбилось аж на три токена, причём довольно далёких от исходного слова по смыслу.

Есть два варианта:
1️⃣ Нейросеть по контексту догадается, что это слово — "привет".
2️⃣ Такая ошибка (опечатка) не редкость, и в системе токенов (векторных представлений) токены "привет", "п", "ир", "вет" могут находиться рядом. А значит, для нейросети они будут иметь схожий смысл, и она поймёт, что вы имели в виду.
* Если непонятно, что значит "находятся рядом" — можно почитать статью ТУТ, там объясняется просто но подробно.

На практике могу сказать, что в обычных вопросах и просьбах орфографические ошибки не влияют на результат.
Но если ошибка полностью меняет слово или делает его непонятным, нейросеть, как и человек, постарается угадать смысл по контексту.

Идеально — писать без ошибок, чтобы получать максимально точные результаты. Но в повседневной жизни нейросеть способна сгладить ваши ошибки, как это делает человек.

Вывод:
Восприятие текста нейросетью очень похоже на человеческое. Небольшие ошибки, скорее всего, не повлияют на результат, а серьёзные будут компенсированы контекстом — нейросеть догадается. Проблема может возникнуть, если ошибка превращает слово в другое существующее слово, и контекст не позволяет понять, что вы имели в виду — как и человек, нейросеть может запутаться.

Лучше избегать ошибок, но их наличие — не критично!

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии4

Три математических подхода к аллокации бюджета

В новой статье на Хабре мы разбираем задачу, с которой сталкивается любой продуктовый аналитик и маркетолог.

Задача: есть бюджет B и n клиентов с разной доходностью. Как распределить деньги так, чтобы максимизировать ROI?

Дано:

Скаляр B ∈ R>0​.

Вектор V = [V1, V2, …, Vn] ∈ Rn>0.

Константы: ϵ>0, Bavg>0, Bmax>0.

Найти:  Vb = [Vb₁,Vb₂, …, Vbₙ] ∈ Rⁿ>0

Три подхода к решению:

1️. Линейное ранжирование

qi = (ri - Rmedian - 1) × Δ

где Δ = (ERavg - ERmin) / Rmedian

Простой, но игнорирует абсолютные разницы между клиентами.

2️. Сохранение формы распределения

Vb = V - mean(V) + ERavg

scale = (ERmax - ERmin) / (Vmax - Vmin + 1e-8)

Vb = Vb × scale + shift

Нормирует целевое распределение с учетом границ.

3️. Оптимизация через минимизацию функции потерь

По сути, это вариация подхода 2. В этом подходе мы стремимся максимально сохранить исходное распределение и минимизировать отклонения от ограничений на среднее и максимально/минимально допустимые значения, переходя к задаче оптимизации

Результаты, все формулы, примеры кода на Python и кейсы из банковской практики ждут вас в статье. Если вы аналитик, продуктолог или просто любите, когда бизнес-решения основаны на точной математике и реальных данных — это для вас.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

В Alibaba выпустили пока бесплатный ИИ-агент для написания кода Qoder, который может сам создавать готовые приложения из простого промта. Разработчики решения написали, что это платформа для кодинга «нового поколения». Анализирует весь проект и кодовую базу, сходу понимает как именно вы пишете код и пытается делать также, разбивает сложные задачи на шаги и решает постепенно, пишет спецификацию, планирует и выполняет изменения в коде.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии1

Представлен промпт, который заставит ИИ общаться как человек. Пользователь Reddit сочинил запрос, чтобы приручить любую нейросеть. Даже GPT-5 начинает болтать, как живая, и выдавать стройные, логичные рассуждения в непринуждённой беседе.

Теги:
Всего голосов 3: ↑1 и ↓2+1
Комментарии0

Узнайте, как с помощью RAG дать AI-агенту релевантную информацию из ваших документов и избавить его от галлюцинаций 🤖

📆 Когда: 28 августа в 11:00 мск

📍 Где: онлайн

На вебинаре расскажем, как правильно подготовить документы с информацией для агента, где все это хранить, а еще — как настроить обработку данных так, чтобы LLM не пришлось дообучать, а ответы при этом стали лучше. Работу с RAG рассмотрим на примере сервиса Evolution Managed RAG.

О чем поговорим:

  • как используем RAG в Cloud.ru — опишем реальный кейс;

  • как управлять данными и версионировать базы знаний;

  • как работает Evolution Managed RAG и какие у него возможности;

  • проведем демо и покажем бота в Telegram, который отвечает на вопросы на основе ваших данных.

Будет полезно всем, кто хочет внедрить AI-инструменты для работы с клиентами или автоматизации задач, например разработчикам, архитекторам и другим IT-специалистам.

Зарегистрироваться 👈

Теги:
Рейтинг0
Комментарии0

Вклад авторов