Search
Write a publication
Pull to refresh
2
0
Anatolii @ARazum

QA in AI

Send message

Как объяснить функции активации вашему коту: простое руководство

Level of difficultyEasy
Reading time8 min
Views29K

Итак, функции активации. Что мы знаем о них помимо загадочной тайны ужасных соглашений о наименованиях (о чем поговорим позже ?) и зачем они нам нужны (если вас это вообще интересно)?

Идея, собственно, настолько проста, что даже ваш кот может разобраться в этом. Прежде всего, что-то похожее есть в наших головах. Для этого давайте взглянем на упрощенный нейрон (органический и искусственный):

Читать далее

Как объяснить градиентный спуск вашей маме: простое руководство

Level of difficultyEasy
Reading time7 min
Views25K

Градиентный спуск лежит в основе большинства методов AI/ML. Звучит как-то странно и пугающе. Спуск? Блин, надеюсь, мне не придется прыгать с парашютом...?

Не волнуйтесь, возможно, все же придется прыгнуть, но только если вы этого захотите. Это объяснение способен понять даже ваш 10-летний племянник.

Читать далее

Первый AI-калькулятор: сколько сотрудников можно заменить на AI и выгодно ли это для бизнеса?

Reading time3 min
Views1.8K

Первый AI-калькулятор: сколько сотрудников можно заменить на AI и выгодно ли это  для бизнеса?

«Мы все останемся без работы» — кричат любители паники на фоне новостей об AI. И не зря. Сделали калькулятор и посчитали, что сокращения затронут практически все области и что это очень выгодно для бизнеса. 

На связи RAFT, мы разрабатываем IT-продукты и внедряем AI-решения в бизнесы из разных сфер. Рассказываем про наш калькулятор, который считает, сколько людей останутся без работы при внедрении AI-технологий. 

А еще — сколько на этом сэкономит бизнес. Рассмотрим на примере Яндекса, Альфа-банка и Wildberries. Это не наши клиенты, но интересно посмотреть, сколько они могут сэкономить просто на внедрении AI.

Читать далее

Создание чат-бота для конференции с GPT Engineer за 2 часа

Level of difficultyMedium
Reading time15 min
Views4.4K

Когда решили принять участие в недавней конференции Highload, и нам потребовалось что-то интересное и интерактивное, чтобы привлечь людей к нашему стенду. После некоторых раздумий выбор пал на создание чат-бота. Но совсем не типичного: основная его цель - общение с пользователями в игровом формате. Бот показывает изображение, сгенерированное AI, и предлагает составить промт, который бы максимально точно воссоздал это изображение. Довольно занимательно, правда?

Сроки поджимали, до конференции оставалось всего два дня, и, поскольку все остальные были заняты, я вызвался разработать  Telegram бота. Честно признаться, такой опыт был у меня впервые, но я верил в силу всемогущего искусственного интеллекта, и принялся за дело!  

Для тех, кто не знаком, GPT Engineer - это инструмент, схожий с Auto-GPT. Он способен автономно генерировать код и создавать целые приложения, основываясь лишь на описании. По крайней мере, такова теория. На практике все немного сложнее: да, он может генерировать код, но успешно запустить его - уже совсем другая история. Это хорошая отправная точка, однако для достижения желаемого результата вам, скорее всего, придется дорабатывать и корректировать ее. Об этом, и о том как скоро AI заменит программистов - в конце статьи.

Чтобы использовать GPT Engineer, нужно склонировать репозиторий и настроить его, следуя инструкциям в прилагаемом файле README. По сути, это набор скриптов на Python, поэтому процесс настройки относительно прост. Когда все будет готово, опишите, что вы хотите сделать в файле 'main_prompt', который вам нужно будет создать в папке projects. Затем запустите инструмент и подождите, пока он сгенерирует код.

Читать далее

ChatGPT для разработчиков: API, лимиты, как втягивать в него базу знаний, что нельзя сделать, что лучше делать осторожно

Reading time12 min
Views35K
image

Мы с командой вернулись тут с Хайлоада, и там даже CTO крупных компаний задают много вопросов про разработку с LLM. Наша компания занимается прикладной разработкой всего того, что касается GPT/LLM.

Расскажу про очевидные вещи, о которых у меня там спрашивали CTO и разработчики.

Самый частый вопрос: можно ли подключать свою базу документов и можно ли по ней нормально работать?

Можно. Для этого нужно две вещи:

  1. OpenAI может работать с вашей базой, например, вики техподдержки, но её надо векторизовать. Получится, что модель только ищет по ней и может отвечать фрагментом исходника, но может его обрабатывать как текст (то есть сравнивать, анализировать и тому подобное).
  2. Дальше можно использовать подход QA Retrieval Chain для работы с векторной базой. Работает это так: задаём вопрос, LLM формируют запрос к векторной базе, мы вынимаем из неё данные, подкладываем их в вопрос как контекст и передаём в LLM, а они формируют ответ.

Но давайте начнём сначала. Основное:

  1. Какого размера промпты могут быть, сколько, какие лимиты, как их частично обходить.
  2. Как подключается база, как закидывать реально большие документы, как эмбеддится вектор, на каких языках это происходит и тому подобное.
  3. Разные API.
  4. Агентная модель GPT Engineer и АutoGPT.
  5. Фреймворк лангчейн (построение цепочек запросов и разбиение макрозапроса на сотни).

Поехали!
Читать дальше →

Information

Rating
8,959-th
Registered
Activity

Specialization

Quality Assurance Engineer, Quality Assurance Analyst
Middle
Git
Python
PostgreSQL
MongoDB