Как стать автором
Обновить

Как сделать свой AnythingGPT, отвечающий на вопросы так, как вам это необходимо (Python, OpenAI Embeddings, ChatGPT API)

Уровень сложностиСредний
Время на прочтение17 мин
Количество просмотров17K
Всего голосов 12: ↑12 и ↓0+12
Комментарии15

Комментарии 15

Как Вы считаете, когда станет реальным скормить самописному боту, скажем, всего Льва Толстого. И чтоб он начал отвечать на вопросы как будто бы это Лев Толстой.
Тут ключевой момент - чтоб это бы свой честный бот. А не облачный, с их цензурой и толерантностью.

Для этого вам нужно тренировать свою или файнтюнить уже существующие модели, например из коллекции huggingface. Их можно запускать локально, если есть достаточно мощная видео-карта. Можно и без неё, но очень долго. Но можно в Google Colab, там есть возможность выбирать среду выполнения с мощными картами, такими как A100

А инструментарий программный бесплатный уже есть? Или еще нужно подождать пару лет?

Когда я тестировал LLama, я разочаровался в этих «убийцах ChatGPT” :) По крайней мере пока даже близко не вижу альтернатив настолько гладких и качественных

LLama2 пробовали? Мои поверхностные тесты показали очень хорошие результаты. Да и скорость генерации ответа порадовала.

первую, вторая только сейчас вышла, но первая была не диалоговая и контраст был очень сильный

Мне первая тоже не понравилась. И проблема была даже не в том, что она не диалоговая (у меня на тот момент была хорошая практика составления правильных промтов), а в том, что качество ответов было довольно посредственным. Не на много лучше какой-то GPT-J.

LLama2 же на голову выше первой версии. И в некоторых случаях выдаёт ответы не хуже ChatGPT. Но нужно больше опытов, чтобы понять всё её сильные и слабые стороны.

Спасибо, стоит попробовать

Ее тут кстати тюнили и квантизировали под разные задачи stabilityui. Их модель stable beluga 7b даже в колабе запускается. Колаб

Благодарю?

Расширение своими знаниями возможно для любой OpenAI модели?
Я могу расширить GPT-4 или GPT-3.5-turbo-16k?

Интересная статья. Мне не хватило в начале примеров, например что было и что стало. И желательно не из специализированной тематики крипты, а на более общих примерах. Если правильно понял, вы смогли скармливать вместе с запросом базу данных и получать ответ от нейронки с учётом этой базы?

Если вы пишете вопрос к ChatGPT, то он отвечает исходя из своих «знаний», то есть того, на чем он был обучен (если не знает, отвечает полную чушь и вполне уверенно)

Если вы хотите, чтобы он отвечал на основе какого-то заданного текста, можете в запросе к нему написать:

«ответь на вопрос {вставьте ваш вопрос}, учитывая {вставьте ваш текст}»

Но очень длинный текст вставить не получится, так как у ChatGPT есть ограничение на длину запроса несколько тысяч слов. И если хочется заставить его отвечать на вопросы по большой базе знаний, которая не уместится в этот размер, нужно что-то изобретать типа такого контекстного поиска, который наиболее релевантные фрагменты должен подобрать и подставить в запрос. В этом идея

Ребята, скажите пожалуйста. Очень нужна модель для анализа сентимента твитера или ютуба. Где её взять? Откуда начать?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории