Комментарии 8
Вот всегда удивляла попытка дать именно LLMкам задачи на поиск совпадений или паттернов, или расшифровать скрытый шифр, и так далее. Не надо так. Вот эти вот поиски паттернов - это же типичная задача для теста на IQ (не буду сейчас обсуждать их коллизию с общей интеллектуальностью, не об этом) - и тут как раз общеизвестно что LLMки сейчас имеют около 100IQ (claude, в этом плане там выше, чем у ChatGPT). То есть именно в задаче поиска паттернов LLM нейросеть чуть хуже чем средний человек. А тут еще и паттерны нетиповые. То есть это не та задача, которую можно эффективно дать текстовой нейросети, по крайней мере сейчас, это не тот инструмент и не та задача.

Что человек, что машина ищут так же.
А что происходит, если ранее обученная машина (на множестве таких вот выученных закономерностей), начинает пытаться понять нечто-новое? Происходит то, что она уже выученными пытается интерпретировать новые данные. .. Это называется "глаза зашорены". Поэтому иногда маленькая LLМ лучше большой обученной
Кстати, здесь тоже 2 переменные
А что за модель?
Поговорим с языковой моделью