Комментарии 31
openai
CLI позволяет также передавать датасет для валидациию Учитывая, что "время - деньги", по результатам валидации можно прикинуть, когда модель "сошлась" и уменьшить количество эпох обучения.
% openai api fine_tunes.create -m davinci -t dataset.jsonl \
-v validation.jsonl
После завершения обучения в "обучении" появится прикрепленный файл:
% openai api fine_tunes.get --id ft-{your_fine_tune_id}
{
...
"validation_files": [
{
...
"id": "file-{file_id}"
}
]
}
Если этот файл скачать (через CLI я не увидел способа, качаю python-скриптом), то в нем будет видно, как с ростом числа примеров (возможно) улучшаются показатели validation_loss, validation_sequence_accuracy, validation_token_accuracy. Если они делают это (условно) в середине файла, то можно подумать о сокращении количества эпох обучения
но сам бот оказался очень точным
Похоже на то, что он умеет быстро гуглить :)
А возможно его настроить на «пожизненное» обучение? Чтобы все дальнейшие запросы и ответы chatgpt передавались также в файлик и использовались для дообучения вашей цифровой копии?)
А если задать такую фразу "косой косой косил косой косой" - что это значит? Поймет?
заяц инвалид по зрению работал неисправным инструментом :)
Такую даже я не понял. Прилагательное к косе не идентифицировал.
Такую даже я не понял. Прилагательное к косе не идентифицировал.
косой — субъект с дефектом зрения
косой — инструмент
косил — действие
косой — дефект инструмента или его специфическая конструкция
косой — название инструмента имеющего дефект или специфическую конструкцию.
(я давно столкнулся с явлением, когда люди не могут пройти капчу — иногда и массово, если не повезет :)
С разъяснениями-то понятно, я про оригинальную фразу. Кстати вашу интерпретацию я даже с расшифровкой не понимаю.
косой — субъект с дефектом зрения или еще может быть " субъект под действием алкоголя"
косой — субъект, в нашем случае заяц
косил — действие
косой — дефект инструмента или его специфическая конструкция
косой — название инструмента имеющего дефект или специфическую конструкцию
За GPT-3 не уверен, а вот ChatGPT имеет шансы.
– Переведи на английский фразу "косил косой косой косой", и приведи на русском два подробных возможных варианта её смысла.
– "He was cutting with a crooked crooked crooked scythe."
He was cutting grass with a scythe that was not only bent and twisted, but also had a crooked handle and blade, making the task much more difficult.
He was cutting grass with a scythe that was not only bent and twisted, but also had a crooked handle and blade, while he himself had a physical disability or injury making it hard for him to use the tool in a straight way, and as a result the cutting was not precise and efficient.
– На русском, пожалуйста.
– "Он косил косой косой косой"
Он косил траву косой, которая не только была искривленной и скрученной, но также имела искривленное рукоять и лезвие, что делало задачу гораздо сложнее.
Он косил траву косой, которая не только была искривленной и скрученной, но также имела искривленное рукоять и лезвие, в то время как у него самого была физическая недостаточность или травма, из-за которой ему было трудно использовать инструмент прямо, и в результате коса была неточной и неэффективной.
При выполнении команды openai tools fine_tunes.prepare_data -f dataset.jsonl -q вылетают ошибки с ссылками на библиотеки
C:\bot\TelegramChatGPT-main>openai tools fine_tunes.prepare_data -f dataset.jsonl -q
Analyzing...
Traceback (most recent call last):
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\openai\validators.py", line 512, in read_any_format
df = pd.read_json(fname, lines=True, dtype=str)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\pandas\util_decorators.py", line 211, in wrapper
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\pandas\util_decorators.py", line 331, in wrapper
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\pandas\io\json_json.py", line 757, in read_json
return json_reader.read()
^^^^^^^^^^^^^^^^^^
Небольшой оффтоп, но вдруг кто-то пользуется API для дописывания текстов: даже при крошечных платных запросах на модель text-davinchi-003 в ответе в 90% случаев возвращается ошибка 503 service overloaded, пользователи в разделе поддержки жалуются на это повально. Модели младше вроде -002 или другие выдают слабый текст. Есть какие-то рабочие и годные аналоги генераторов текста по фразе? Видели много, но все либо очень медленные, либо качество не огонь.
Вопрос из анкеты "Каким был твой самый неподходящий или неловкий пердёж?"
Высокоинтеллектуальный собеседник будет.
Эх,.доросли бы до уровня - скинул линк на доку какого-нибудь инструмента, и спустя некоторое время он все знает про него
Добрый день! Меня зовут Виталий, CTO. Сейчас нахожусь в поиске эксперта по разработке решений на основе GPT-3 в крупный онлайн-проект (онлайн-университет). Хочу с вами обсудить варианты сотрудничества, если интересует - можете оставить данные чтобы я мог с вами связаться
The code has several syntax and indentation issues. Here is the corrected code:
def _get_user(id):
user = users.get(id, {'id': id, 'last_text': '', 'last_prompt_time': 0})
users[id] = user
return user
def _process_rq(user_id, rq):
try:
user = _get_user(user_id)
last_text = user['last_text']
if time.time() - user['last_prompt_time'] > 600:
last_text = ''
user['last_prompt_time'] = 0
user['last_text'] = ''
if rq and len(rq) > 0 and len(rq) < 1000:
inc_detect = translator.detect(rq)
if inc_detect.lang == 'ru':
eng_rq = translator.translate(rq, dest='en', src='ru').text
print(f">>> ({user_id}) {rq} -> {eng_rq}")
rq = eng_rq
else:
print(f">>> ({user_id}) {rq}")
prompt = f"{last_text}Q: {rq} ->"[-1000:]
print("Sending to OpenAI: " + prompt)
completion = openai.Completion.create(
engine=model, prompt=prompt, max_tokens=256, stop=[stop_symbols], temperature=0.7)
eng_ans = completion['choices'][0]['text'].strip()
if "->" in eng_ans:
eng_ans = eng_ans.split("->")[0].strip()
ans = eng_ans
if inc_detect.lang == 'ru':
rus_ans = translator.translate(eng_ans, dest='ru', src='en').text
print(f"<<< ({user_id}) {ans} -> {rus_ans}")
ans = rus_ans
else:
print(f"<<< ({user_id}) {ans}")
user['last_text'] = prompt + " " + eng_ans + stop_symbols
user['last_prompt_time'] = time.time()
return ans
else:
user['last_prompt_time'] = 0
user['last_text'] = ''
return "!!! Error! Please use simple short texts"
except Exception as e:
print(e)
return f"Error {e}"
У меня на работе менеджеры используют для переписок заранее заготовленные ответы на вопросы. Обычные скрипты, по алгоритму от здравствуйте, до хорошего вам дня. Интересно, есть ли возможность, какую-то модель обучить на этих скриптах, в виде вопросов-ответов, чтобы она сама отвечала?) Желательно бы с возможностью ее скачать себе, чтобы не платить постоянно за запросы клиентов. Я уже представляю их лица, если чат сам сможет отвечать на вопросы по услугам, размерам и стоимости как живой человек). Девочки, вы свободны, ахах)
Fine tuning создаёт полную копию модели под каждого пользователя? gpt 3 это вроде 700гб
Крайне маловероятно. Скорее тренируется только веса выходного слоя. Как сказал кто-то из разработчиков в интервью, файнтюнинг не добавляет новых знаний в модель, они и так там все есть, а лишь говорит, какие именно знания пользователь предпочитает получить.
Переносим свою картину мира в чат-бота на базе GPT-3