Pull to refresh

Comments 31

openai CLI позволяет также передавать датасет для валидациию Учитывая, что "время - деньги", по результатам валидации можно прикинуть, когда модель "сошлась" и уменьшить количество эпох обучения.

% openai api fine_tunes.create -m davinci -t dataset.jsonl \
         -v validation.jsonl

После завершения обучения в "обучении" появится прикрепленный файл:

% openai api fine_tunes.get --id ft-{your_fine_tune_id}
{
  ...
  "validation_files": [
    {
      ...
      "id": "file-{file_id}"
    }
  ]
}

Если этот файл скачать (через CLI я не увидел способа, качаю python-скриптом), то в нем будет видно, как с ростом числа примеров (возможно) улучшаются показатели validation_loss, validation_sequence_accuracy, validation_token_accuracy. Если они делают это (условно) в середине файла, то можно подумать о сокращении количества эпох обучения

но сам бот оказался очень точным


Похоже на то, что он умеет быстро гуглить :)

А возможно его настроить на «пожизненное» обучение? Чтобы все дальнейшие запросы и ответы chatgpt передавались также в файлик и использовались для дообучения вашей цифровой копии?)

Да, никаких проблем с этим нет.

А если задать такую фразу "косой косой косил косой косой" - что это значит? Поймет?

заяц инвалид по зрению работал неисправным инструментом :)

Такую даже я не понял. Прилагательное к косе не идентифицировал.

Такую даже я не понял. Прилагательное к косе не идентифицировал.


косой — субъект с дефектом зрения
косой — инструмент
косил — действие
косой — дефект инструмента или его специфическая конструкция
косой — название инструмента имеющего дефект или специфическую конструкцию.

(я давно столкнулся с явлением, когда люди не могут пройти капчу — иногда и массово, если не повезет :)

С разъяснениями-то понятно, я про оригинальную фразу. Кстати вашу интерпретацию я даже с расшифровкой не понимаю.

косой — субъект с дефектом зрения или еще может быть " субъект под действием алкоголя"

косой — субъект, в нашем случае заяц

косил — действие

косой — дефект инструмента или его специфическая конструкция

косой — название инструмента имеющего дефект или специфическую конструкцию

косой — субъект, в нашем случае заяц


Это сугубо локальный мем :)
Для тех, кто никогда не слышал «А нам все равно» — лишено всякого смысла :)

(а для тех, кто таки смотрел «Джентльменов удачи» — появится еще один :)
Так что не будем усложнять задачу для ИИ :)

За GPT-3 не уверен, а вот ChatGPT имеет шансы.

– Переведи на английский фразу "косил косой косой косой", и приведи на русском два подробных возможных варианта её смысла.

– "He was cutting with a crooked crooked crooked scythe."

  1. He was cutting grass with a scythe that was not only bent and twisted, but also had a crooked handle and blade, making the task much more difficult.

  2. He was cutting grass with a scythe that was not only bent and twisted, but also had a crooked handle and blade, while he himself had a physical disability or injury making it hard for him to use the tool in a straight way, and as a result the cutting was not precise and efficient.

– На русском, пожалуйста.

– "Он косил косой косой косой"

  1. Он косил траву косой, которая не только была искривленной и скрученной, но также имела искривленное рукоять и лезвие, что делало задачу гораздо сложнее.

  2. Он косил траву косой, которая не только была искривленной и скрученной, но также имела искривленное рукоять и лезвие, в то время как у него самого была физическая недостаточность или травма, из-за которой ему было трудно использовать инструмент прямо, и в результате коса была неточной и неэффективной.

На русском, пожалуйста.


Таки да, с «Бриллиантовой рукой» и «Джентльменами удачи» его не ознакомили :)

Косой — заяц, «Косой» — кличка.

При выполнении команды openai tools fine_tunes.prepare_data -f dataset.jsonl -q вылетают ошибки с ссылками на библиотеки

C:\bot\TelegramChatGPT-main>openai tools fine_tunes.prepare_data -f dataset.jsonl -q
Analyzing...
Traceback (most recent call last):
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\openai\validators.py", line 512, in read_any_format
df = pd.read_json(fname, lines=True, dtype=str)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\pandas\util_decorators.py", line 211, in wrapper
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\pandas\util_decorators.py", line 331, in wrapper
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "C:\Users\Сергей Сергеев\AppData\Local\Programs\Python\Python311\Lib\site-packages\pandas\io\json_json.py", line 757, in read_json
return json_reader.read()
^^^^^^^^^^^^^^^^^^

А можно такое в следующий раз под спойлер убирать?

Небольшой оффтоп, но вдруг кто-то пользуется API для дописывания текстов: даже при крошечных платных запросах на модель text-davinchi-003 в ответе в 90% случаев возвращается ошибка 503 service overloaded, пользователи в разделе поддержки жалуются на это повально. Модели младше вроде -002 или другие выдают слабый текст. Есть какие-то рабочие и годные аналоги генераторов текста по фразе? Видели много, но все либо очень медленные, либо качество не огонь.

Сеошные тексты Аль так вообщем?

Вопрос из анкеты "Каким был твой самый неподходящий или неловкий пердёж?"

Высокоинтеллектуальный собеседник будет.

Эх,.доросли бы до уровня - скинул линк на доку какого-нибудь инструмента, и спустя некоторое время он все знает про него

Добрый день! Меня зовут Виталий, CTO. Сейчас нахожусь в поиске эксперта по разработке решений на основе GPT-3 в крупный онлайн-проект (онлайн-университет). Хочу с вами обсудить варианты сотрудничества, если интересует - можете оставить данные чтобы я мог с вами связаться

Добрый день, ответил вам в личку.

Мы можем с этим помочь, наша почта themefody@ya.ru

The code has several syntax and indentation issues. Here is the corrected code:

def _get_user(id):
    user = users.get(id, {'id': id, 'last_text': '', 'last_prompt_time': 0})
    users[id] = user
    return user

def _process_rq(user_id, rq):
    try:
        user = _get_user(user_id)
        last_text = user['last_text']
        if time.time() - user['last_prompt_time'] > 600:
            last_text = ''
            user['last_prompt_time'] = 0
            user['last_text'] = ''

        if rq and len(rq) > 0 and len(rq) < 1000:
            inc_detect = translator.detect(rq)
            if inc_detect.lang == 'ru':
                eng_rq = translator.translate(rq, dest='en', src='ru').text
                print(f">>> ({user_id}) {rq} -> {eng_rq}")
                rq = eng_rq
            else:
                print(f">>> ({user_id}) {rq}")

            prompt = f"{last_text}Q: {rq} ->"[-1000:]
            print("Sending to OpenAI: " + prompt)
            completion = openai.Completion.create(
                engine=model, prompt=prompt, max_tokens=256, stop=[stop_symbols], temperature=0.7)
            eng_ans = completion['choices'][0]['text'].strip()
            if "->" in eng_ans:
                eng_ans = eng_ans.split("->")[0].strip()
            ans = eng_ans
            if inc_detect.lang == 'ru':
                rus_ans = translator.translate(eng_ans, dest='ru', src='en').text
                print(f"<<< ({user_id}) {ans} -> {rus_ans}")
                ans = rus_ans
            else:
                print(f"<<< ({user_id}) {ans}")
            user['last_text'] = prompt + " " + eng_ans + stop_symbols
            user['last_prompt_time'] = time.time()
            return ans
        else:
            user['last_prompt_time'] = 0
            user['last_text'] = ''
            return "!!! Error! Please use simple short texts"
    except Exception as e:
        print(e)
        return f"Error {e}"

Спасибо! По наивности думал, что на гитхабе выкладывают проверенный код.

У меня на работе менеджеры используют для переписок заранее заготовленные ответы на вопросы. Обычные скрипты, по алгоритму от здравствуйте, до хорошего вам дня. Интересно, есть ли возможность, какую-то модель обучить на этих скриптах, в виде вопросов-ответов, чтобы она сама отвечала?) Желательно бы с возможностью ее скачать себе, чтобы не платить постоянно за запросы клиентов. Я уже представляю их лица, если чат сам сможет отвечать на вопросы по услугам, размерам и стоимости как живой человек). Девочки, вы свободны, ахах)

Звучит так, что их можно просто алгоритмическим чат-ботом заменить ) Можно взять какой-нибудь zero-code конструктор, вроде chatfuel и на нем реализовать замену девочкам.

Спасибо за наводку)

Fine tuning создаёт полную копию модели под каждого пользователя? gpt 3 это вроде 700гб

Крайне маловероятно. Скорее тренируется только веса выходного слоя. Как сказал кто-то из разработчиков в интервью, файнтюнинг не добавляет новых знаний в модель, они и так там все есть, а лишь говорит, какие именно знания пользователь предпочитает получить.

те это как промт на вход который вшит в модель?

Sign up to leave a comment.

Articles