Как стать автором
Обновить

Комментарии 4

За чатботом в любом случае перепроверять, если тема важная. В ChatGPT тоже выставил concise в трейтах собеседника и все равно чаще сталкиваюсь с тем что ответ ясен с первых слов, готов следующий вопрос, а бот ещё предыдущее сообщение обдумывает и дописывает

Занятно. На вопрос про Японию 4.1 отвечает четко, кратко и точно. ЧЯДНТ?

Япония не выиграла Вторую мировую войну. Наоборот, она потерпела поражение в 1945 году после капитуляции, вызванной атомными бомбардировками Хиросимы и Нагасаки, а также вступлением СССР в войну против Японии.


Хотите, чтобы я рассказал кратко, почему Япония вступила в войну?

Это связано с тем, что существует два механизма: глобальные и локальные маршруты.

https://t.me/greenruff/2073?single

Кратко, суть в том, что под воздействием норадреналина подавляется активность лобной доли. Это приводит к коротким маршрутам: короткая речь, быстрые действия. Норадреналин выбрасывается во время стресса, когда требуется не рассуждать, а выбрать самый короткий, самый сильный при этом маршрут, для быстрых действий в случае опасности /стресса.

Это отражается на уровне текстов. Короткие тексты содержат отражения этих признаков воздействия норадреналина. Обучение на этих текстах и такие же ответы приводят к симуляции такого поведения.

На уровне нейронов, норадреналин изменяет соотношение сигнал/шум. Теперь, те сигналы, которые раньше считались устойчивыми начинают считаться шумом. За счёт этого увеличивается контраст самых сильных сигналов, наиболее коротких. Это приводит к тому, что сигнал не проходит по всем областям, а только по локальной области. Это позволяет решить ряд проблем:

1) все силы бросаются на реакцию на стресс, быстрым действиям. Так как опасность может стоить жизни

2) берутся самые сильные сигналы в области и сокращается время реакции. Поэтому во время стресса, кто то неосознанно забежит у горящее здание спать других, а кто то победит подальше от пожара. Это и есть работа данного механизма. Он словно изменяет яркость на картинке, когда в итоге все соседнее изображение исчезает, и остаются только самые яркие цвета. Связи теряются, мы видим только самые сильные признаки на картинке.

Тексты, это отражение этих признаков. Когда сетка генерирует короткие, это тоже самое как у человека. Это не значит, что они обязательно неправильные. Остаются самые сильные связи. Например, студент учил упорно вопросы к экзамену. Мы разбудили его во время сна и спрашиваем ответ на них. Он ответит, эти связи у него самые сильные, а резкое пробуждение это стресс. Он выдаст их сходу. Но если мы попросим его назвать имя первой учительницы, он не сможет его вспомнить. Норадреналин блокирует это.

Тоже самое с LLM. Москва - столица России, она выдаст коротко. Но если это сложные связи со множеством деталей, то вероятно отразит те же признаки.

А что если ответы генерить сразу в двух нейросетях, вероятно с разной "температурой" влияющей на креативность. Далее третья нейросеть выделяет участки ответа, являющиеся фактами, и сравнивает ответы двух нейронок, если есть расхождения фактах, то вызывает RAG и, например, по FAISS ( и другим источникам) ищет документы с фактами и уточняет.
Отправляет клиенту ответ с уточнением.

А если ответы двух нейронок в фактах сошлись, то можно без доп проверки сразу их клиенту отправить.
Предполагая, что галлюцинации не могут быть одинаковыми. Но можно потом и такие кейсы тоже перепроверять, и дообучать, донастраивать по ним. Например раз в неделю перепроверять все отправленные без доп проверки факты по базе фактов.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий