Обновить
125.06

Natural Language Processing *

Компьютерный анализ и синтез естественных языков

Сначала показывать
Порог рейтинга
Уровень сложности

Проблемы с логикой у LLM и с доверием не только у LLM

Уровень сложностиПростой
Время на прочтение21 мин
Охват и читатели3.8K

Проблемы качества базы данных LLM[1] и необучаемости LLM в силу ограничения размеров контекстного окна сводятся к одной проблеме никак с LLM не связанной — оценке доверия к публикациям и их авторам вообще. Вторая проблема — LLM не умеет решать простые логические задачи легко решаемые грамотными людьми, что свидетельствует о сходстве LLM с неграмотными людьми неспособными к абстрактному мышлению. В ближайшем будущем LLM не сможет достичь уровня логического мышления грамотного человека, зато LLM обладает большими чем у человека способностями к эриксоновскому гипнозу, а значит и к мошенничеству.

Читать далее

Как оживить Кандинский матрицами вращений для генерации видео (часть 1-я)

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели2.1K

В статье коснемся темы матриц вращений и особенно их версии для многомерных пространств. Матрицы вращений широко используются в задачах 3D моделирования, для контролируемого поворота объекта. Но как оказалось, можно посмотреть на них шире и применить к многомерному латентному пространству диффузионных моделей. И первые опыты показали применимость матриц вращений при решении задачи генерации видео из текста. Статья (1-я часть) основана на моей магистерской работе в МФТИ, которую защитил в июне 2024г.
Продолжение во 2й части.

Читать далее

Обучение с подкреплением на основе обратной связи от человека (RLHF). История становления идеи. LLM, KL-контроль

Уровень сложностиПростой
Время на прочтение13 мин
Охват и читатели4.1K

Техника тренировки модели на основе обратной связи от людей (RLHF) была предложена как один из способов повысить согласованность модели. Люди, при том что являются основным источником предвзятостей в данных, одновременно являются своего рода высшим авторитетом в оценке текстов на соответствие каким либо ценностям.

В серии статей мы разберем каждую часть и внутренние детали пайплайна RLHF отдельно и поймем, как сообщество пришло к этой идее. Сделаем мы через через исторический обзор подвыборки статей по теме, каждая из которых опиралась на результаты предыдущих и приносила что то важное и новое в формирование общего пайплайна.

Это первая статья цикла о LLM, Предобучении и KL‑контроле.

Читать далее

OpenAI представила GPT-4o mini и мы её уже внедрили

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели7.1K

Сегодня нас порадовали очередные горячие новости из мира ИИ! Open AI представили GPT-4o mini — новую доступную и высокоинтеллектуальную «маленькую» языковую модель, которая значительно умнее, дешевле и так же быстра, как GPT-3.5 Turbo. Недолго думая, мы внедрили и протестировали новую модель на своих задачах. Результаты внизу.

Читать далее

Карачаево-балкарский переводчик

Уровень сложностиПростой
Время на прочтение4 мин
Охват и читатели1.7K

Это небольшая статья, но, чтобы её написать, нужно было очень много проделать. Тут кратко описано про язык, про сбор нами данных и про обучение моделей. Это скорее не инструкция, как делать, а способ заявить о проделанном.

Про народ и язык

Раз в названии написано «переводчик», значит речь идёт о языке. На нём говорят карачаево‑балкарцы (официально народ искусственно разделён на «карачаевцев» и «балкарцев») — кавказцы, проживающие к северу, востоку и западу от горы Эльбрус в основном в Республиках Карачаево‑Черкессия и Кабардино‑Балкария.

Читать далее

В 48 собесах от оффера в Гугл

Уровень сложностиСредний
Время на прочтение21 мин
Охват и читатели14K

Здравствуй, хабр! Что-то я давно не писал, отбился от рук, а ведь когда-то мы целый курс машинного обучения на Хабре вели. Расскажу про свой недавний заход по собесам, что спрашивали, какие выводы сделал. Контекст: Applied Machine Learning science (в том числе этот ваш Generative AI), Нидерланды, уровень синьор+. Я долго получал отказы, старался не унывать и в конце таки нашил лычку Staff GenAI Field Solutions Architect в Google Cloud. Тут поделюсь статистикой собесов, полезными ресурсами и, конечно, всякими советами.

Читать далее

Как сбить цензор GPT-3.5 за 250 рублей?

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели28K

Всего за 3 доллара и 15 минут ожидания можно заставить модель забыть про мораль и безопасный контент. В этой статье мы расскажем, как это сделать, и поделимся своими результатами.

Читать продолжение в источни...

Prompt engineering 101

Уровень сложностиПростой
Время на прочтение26 мин
Охват и читатели15K

Привет!

Использование LLM все больше проникает в бизнес. И ритейл — не исключение. В X5 мы решили сделать небольшую методичку по prompt engineering для обычного бизнес‑пользователя. Мы посмотрели на получившийся результат и решили поделиться этой методичкой с сообществом, чтобы как можно больше людей смогли овладеть разными техниками, позволяющими работать с LLM эффективнее.

Для этого нам сначала придется разобраться с тем, как вообще устроены LLM, затем поговорим о промптах: общие принципы построения, техники оптимизации и промпты для изображений. А на десерт предложим вам продвинутые техники работы с LLM: автоматизированные подходы по улучшению промптов, Retrieval‑Augmented Generation и разметка данных для ML с помощью LLM.

Читать далее

GPT для генерации кода в реальном применении на производстве

Время на прочтение4 мин
Охват и читатели11K


Кажется почти все используют GPT или другие LLM-based-решения для генерации кода. Есть куча проектов, где так же генерируют фронт (код интерфейсов). Собственно, когда у нас появилась дизайн-система со множеством компонентов, стало понятно, что это идеальная документация для обучения модели, ведь она включает в себя описание типов, аргументы, тесты и состояния использования компонентов.

В какой-то момент я начал задумываться, почему мы не используем код, который есть в дизайн-системе, чтобы он автоматически генерировался помощником. Достаточно векторизовать эту базу, дальше модель сможет на основе нашей дизайн-системы выдавать готовые решения по текстовому запросу.

Многие наши компоненты достаточно сложные. Самый сложный — таблица, потому что у нас много разных типов таблиц для производственных данных. Внезапно выяснилось, что разработчику нужно три дня, чтобы вникнуть в матчасть и написать свою первую таблицу — или же примерно 30 секунд на запрос «сделай мне таблицу для такой-то задачи», чтобы GPT-4 выбрал подходящие параметры и сразу показал, что надо. Либо дал скорректировать запрос, если таблица не подходит.
Читать дальше →

Как сделать голосовой интерфейс к LLM

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели5.5K

В конце февраля на Бали прошел фестиваль Lampu, организованный по принципам знаменитого Burning Man. По его традиции, участники самостоятельно создают инсталляции и арт-объекты.

Мы с друзьями из кемпа 19:19, вдохновившись идеей католических исповедален, придумали сделать свой AI Confession Room, где любой желающий мог бы поговорить с искусственным интеллектом.

Читать далее

Искусство общения с LLM: Гайд по техникам Prompt Engineering

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели14K

Привет, Хабр! Меня зовут Никита Кулин, ML-Engineer NLP моделей.

В этом гайде мы поговорим о подготовке к prompt-engineering, о базовых принципах написания промпта, про его структуру и про типы решаемых задач, о продвинутых техниках через рассуждения для повышения качества ответа и снижения вероятности появления галлюцинаций. Гайд будет полезен для всех, кто начинает погружаться в промптинг.

Это мой первый пост, поэтому буду рад любой обратной связи!

Читать далее

Диалекты, зумеры и боты: секреты тестирования NLU-систем

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели950

Привет, Хабр! Меня зовут Даниил Трублаевич, я занимаюсь тестированием диалоговых систем в компании Just AI. Сегодня сложно отрицать, что боты, голосовые ассистенты и виртуальные помощники стали неотъемлемой частью нашей повседневной жизни. Но, чтобы эти системы были действительно эффективными, они должны не просто распознавать слова и фразы, но и корректно понимать их смысл в различных контекстах.

Тестирование NLU – сложный процесс, так как невозможно точно определить границу полноты тестирования. Для этого и существуют некоторые лайфхаки – правила тестирования, о которых хочется поговорить в этой статье. Материалы разделены на два блока: личный опыт QA-инженера и тестирование при помощи нейросетей. 

Читать далее

Забытые системы ИИ — как «Сайк» здравому смыслу учили

Уровень сложностиПростой
Время на прочтение6 мин
Охват и читатели2.4K

Разговорами о работе с ИИ уже никого не удивить. Нейросетями не пользуется только ленивый, а бизнес всё чаще запускает свои языковые модели. Но мало кто помнит, что еще в 80-х один амбициозный исследователь взялся разработать свою интеллектуальную систему с чувством «здравого смысла». Проект назвали «Сайк», и он до сих пор существует — даже имеет ряд кейсов коммерческого применения. Мы в beeline cloud решили обсудить, как он устроен, и что лежит в основе решения.

Читать далее

Ближайшие события

Google AI Studioзно умеет обманывать

Уровень сложностиСредний
Время на прочтение8 мин
Охват и читатели5.7K

Это моя первая статья на Хабре. Ну как принято, я сразу сделаю оговорки (тот самый дисклеймер) о том, что все, что я тут пишу — это мой личный опыт, мое личное мнение, я не стремлюсь как‑то где‑то и чем‑то кого‑то (тем более корпорацию Гугл, чьими продуктами я очень в принципе доволен и рад пользоваться) задеть, ущемить интересы, создать антирекламу, кого‑то опозорить (бла, бла..) и т. д. и т. п. Если кто‑то что‑то увидит негативное в свой адрес — это я не со зла и не специально (заранее извиняюсь), просто проводя аналитические оценки я пришел к таким выводам.

Решил поделится некими размышлениями о том, как ИИ от Гугла иногда преднамеренно (в смысле возможно ему специально включили «это» в алгоритм) или в процессе общения, сам того не ведая, научился «врать» (простите модераторы, не нужно сильно модерировать, это я просто запарился с этим ИИ, потому как немного пострадал).

В общем, история простоя и короткая. Я, как, наверное, и все любители (и не только) частенько отдаю на «аутсорс» (или точнее вскармливаю) определенные задачи ИИ‑шкам. Последнее время нравился Google AI. Ну а что? Многие со мной согласятся, что по сравнению с ChatGPT, работает Google AI более релевантно. Не слишком фамильярничает, не перегружает «водой» (если контекст этого не требует), отвечает быстрее, ну и 2 млн. токенов дает «на халяву» загрузить и анализировать. Для аналитика прям «ляпота и не только».

Короче, решали мы с Google AI (далее чтобы не копи/пастить давайте по тексту я назову его ГАИ) задачу. Ничего особенного, ГАИ мне давал, вроде, как обычно все результаты, и вроде так, как я от него добивался (в прямом смысле слова). Здесь я немного отступлю, просто экспромт возник — не перелистываем абзац, пожалуйста, просто есть один нюанс, о котором я пользуясь моментом тоже хочу узнать, может кто скажет дельное. Когда пишешь задачу особенно по матстатистике или эконометрике, и загружаешь в ГАИ, то надо в обяз прописывать условия типа «распиши решение с детальным описанием алгоритма» или «представь ответ с описанием формулы или расчета» и т. д. Я конечно понимаю, что имею дело с ИИ, но почему с тем же ЧатомГПТ или Клодом так детально писать не нужно? Они сами все предельно коротко, но емко напишут, а вот ГАИ — нееет, обязательно где‑то сократит и именно так, что потом «черт не разберет». Короче как я не пытался его настроить, без вышеназванных фраз, а-ля «дай ответ с подробным описанием...» ничего не получается. Конец отступлению.

Читать далее

Эволюция сервиса классификации

Время на прочтение8 мин
Охват и читатели1.2K

Привет, Хабр. Меня зовут Аделина Ямалтдинова, я разработчик технологического сервиса «Классификатор» — одной из частей платформы «Преферентум».

Как вы могли догадаться из названия, сервис нужен для классификации неструктурированной информации — документов, заявок, звонков и т. д. Он применяется для маршрутизации обращений на горячую линию, сортировки входящих документов в СЭД, тематической классификации, выявления негативных отзывов, определения типа и контроля комплектности документации и т. п. Таким образом, «Классификатор» упрощает переход компаний к интеллектуальной автоматизации различных бизнес‑процессов, обогащая используемые системы ИИ.

В статье я расскажу об устройстве нашего «Классификатора» и о том, как мы его улучшаем.

Читать далее

ИИ LLama3 без ограничений: локальный запуск, GROQ и интеграция в Телеграм бота с помощью Python

Уровень сложностиСредний
Время на прочтение25 мин
Охват и читатели26K

Друзья, приветствую вас в очередной статье. Сегодня я расскажу, как использовать LLAMA3 ИИ в своих проектах. После небольшой подготовки мы приступим к созданию полноценного Telegram бота.

Сегодня мы:

Научимся устанавливать LLama3 на локальную машину.

Научимся бесплатно запускать LLama3 через платформу GROQ.

Разберемся с преимуществами и недостатками первого и второго способа развертывания LLama3.

Напишем полноценного Telegram бота с использованием aiogram3, который сможет работать как с локальной версией LLAMA3, так и через сервис GROQ (технически он сможет работать с любой подключенной нейросетью).

Запустим Telegram бота на VPS сервере (опционально).

Читать далее

Irbis-7B или как мы учили ЛЛМку казахскому языку

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели6.1K

Языковые модели, основанные на архитектуре трансформеров, такие как Llama, Mistral и прочие, показывают впечатляющие результаты на английском языке. Однако их эффективность на других языках, включая казахский, может страдать. Дообучение на отдельный домен, даже при наличии хорошего датасета, может не давать значительного прироста в качестве. И дело не столько в том, что базовая модель при обучении видела мало текста на казахском, сколько в неэффективной токенизации. Этот недостаток приводит к тому, что модели не могут в полной мере использовать свой потенциал на языках, отличных от английского. В данной статье мы расскажем решали эту проблему при создании казахской языковой модели.

Читать далее

Есть ли жизнь до fit/predict?

Уровень сложностиСредний
Время на прочтение12 мин
Охват и читатели1.9K

Всем привет! Меня зовут Даниил Карпов, я старший NLP-разработчик в MTS AI. В эпоху LLM и огромных датасетов, вмещающих в себя весь интернет, кажется, что качество самих данных ушло немного на второй план: чем больше данных/параметров, тем лучше. Однако экстенсивный рост рано или поздно упирается в ограничения, когда становится уже слишком дорого/невозможно его продолжать. Роль хороших данных не стоит недооценивать, грамотный отбор может помочь значительно ускорить и удешевить обучение с одной стороны, тогда как отбраковка откровенно плохой разметки поможет улучшить качество с другой. Здесь я расскажу о некоторых из таких методов, которые использовались в процессе подготовки данных.

Читать далее

Real AI Семантический Анализатор и решение задачи по извлечению поручений из распорядительных документов

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели955

Привет Хабр!

Чуть больше года прошло с момента последней публикации, в которой описано одно из применений технологии анализа текста, основанной на разработанном нами «свойство-ориентированном подходе».

За это время мы провели работу по переходу от технологии к продукту - семантическому анализатору Real AI SA, решающему реальную задачу бизнеса, и сделали следующее: провели около двадцати проблемных интервью, создали юридическое лицо, получили грант от Фонда Содействия Инновациям, разработали и зарегистрировали ПО для извлечения поручений, начали пилотирование решения.

Подробнее о практической задаче – автоматическом заполнении карточек поручений в системе электронного документооборота путем анализа распорядительных документов, а также о нашем подходе к ее решению хотелось бы рассказать в этой статье.

Читать далее

Атрибутивное распознавание документов

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели3.1K

Многие компании, несмотря на переход на электронный документооборот, всё равно сталкиваются с задачами автоматизации ввода информации с бумажных документов. Все они хотят избавиться от этой рутинной операции, и внедряют системы атрибутивного распознавания. На практике, часто оказывается, что такие системы не всегда соответствуют ожиданиям. Сегодня хочу обсудить подходы к решению задачи атрибутивного распознавания, а также проблемы с которыми я сталкивался за 10 лет практики в этой области. 

Многие забывают, что само распознавание документов не является конечной целью. Главная задача - это сократить человеческие трудозатраты на ввод информации с бумажных документов. т.е. в теории, если производительность человека на ввод информации магическим образом вырастет, то и распознавать ничего не надо.  Скорее всего, для этой магии нам конечно понадобится распознавание, но это лишь один из инструментов. 

Так как же сократить трудозатраты?

Вклад авторов