А проверить сей факт легко на нерассуждающих моделях - последним сообщением от ллм сами напишите первые символы, например {"ff": и ллм свой ответ начнет именно с этих символов, неважно при этом что было в промпте, потому что она попытается завкршить свой же ответ
Это не рассуждкния в прямом смысле, конечно, я долго думал какой бы пример привести... И в итоге пришел к такому - если попросить ллм написать вам жсон, а она начнет писать XML - то ей очень тяжело одуматься, остановиться и перейти к жсону, однако же если попросить ее подумать, то она может сначала написать и то и другое, но конечным ответом выбрать верный вариант.
Просто потому что в предыдущих сгенерированных токенах он есть.
Галлюцинации появляются в тот момент, когда вредный токен попал в ответ, потому что каждый новый токен определяет последующие.
Рассуждения там все же есть и действительно нужны.
Поскольку ллмки создают токены на основе изначальных и только что созданных, рассуждения позволяют уйти этим рассуждением в нужную сторону, вместо обычного галлюцинирующего ответа.
3. Не всех можно замотивировать. Некоторые люди просто не выкладываются на 100%, и ты ничего с этим не сделаешь. В таких случаях важно честно сообщить руководству, что человек не подходит команде.
У вас, я так понимаю, 320 рабочих часов в месяце, а вы премируете только тех, кто при этом говорит что работает 480?)
Там mvc, тут mvc, там сервисы и солид, тут так же.
Плюс ллмки сейчас на любой банальный аопрос мгновенно отвечают что и почему.
Ндигственно, жава дурацкая, котлин - вот выбор.
Конечный воркфлоу прилетает в тул или просто текстом?
Я правильно понял, что вы сделали через тулы проверку воркфлоу, но не само получение воркфлоу?
Он пишет
@Service
Есть и такая.
NIZHNY NoVGOROD - Ne Ispolzuy Zelenie Holodnie Nelipkie Ymajki, No o Velikih Golubih Ochen Razumno, O Doska
Это не анонимизация как минимум потому, что именно чптгпт занимается парсингом и самой анонимизацией :)
Я понимаю что создастся, я не понимаю зачем на дату время ретрая, оно же близко к уникальному будет
create index on outbox (status, next_retry_at);
Такой индекс работает?
Я испорчен интернетом и в вашем лого вижу подвох :)
Вы абсолютно правы!
Пишет человек
Точно человек
За вас ллм отвечает?
Почему не котлин?
Написать этот вопрос в поисковик или иишку и делать то что там написано
Работает в России, прямо сейчас балуюсь без впн. Оплату не смотрел правда
А проверить сей факт легко на нерассуждающих моделях - последним сообщением от ллм сами напишите первые символы, например {"ff": и ллм свой ответ начнет именно с этих символов, неважно при этом что было в промпте, потому что она попытается завкршить свой же ответ
Это не рассуждкния в прямом смысле, конечно, я долго думал какой бы пример привести... И в итоге пришел к такому - если попросить ллм написать вам жсон, а она начнет писать XML - то ей очень тяжело одуматься, остановиться и перейти к жсону, однако же если попросить ее подумать, то она может сначала написать и то и другое, но конечным ответом выбрать верный вариант.
Просто потому что в предыдущих сгенерированных токенах он есть.
Галлюцинации появляются в тот момент, когда вредный токен попал в ответ, потому что каждый новый токен определяет последующие.
Рассуждения там все же есть и действительно нужны.
Поскольку ллмки создают токены на основе изначальных и только что созданных, рассуждения позволяют уйти этим рассуждением в нужную сторону, вместо обычного галлюцинирующего ответа.
А вы с таким подходом подходите команде? Это 100% или можете больше?)
У вас, я так понимаю, 320 рабочих часов в месяце, а вы премируете только тех, кто при этом говорит что работает 480?)
Если что и как решаешь ты - значит да :)