Как стать автором
Обновить

Комментарии 8

Вот всегда удивляла попытка дать именно LLMкам задачи на поиск совпадений или паттернов, или расшифровать скрытый шифр, и так далее. Не надо так. Вот эти вот поиски паттернов - это же типичная задача для теста на IQ (не буду сейчас обсуждать их коллизию с общей интеллектуальностью, не об этом) - и тут как раз общеизвестно что LLMки сейчас имеют около 100IQ (claude, в этом плане там выше, чем у ChatGPT). То есть именно в задаче поиска паттернов LLM нейросеть чуть хуже чем средний человек. А тут еще и паттерны нетиповые. То есть это не та задача, которую можно эффективно дать текстовой нейросети, по крайней мере сейчас, это не тот инструмент и не та задача.

Разница между LLM-многомиллионной и LLM-копеечной в том, что последняя не отягощена "как надо правильно думать". И поэтому она закономерность находит.

Что человек, что машина ищут так же.

А что происходит, если ранее обученная машина (на множестве таких вот выученных закономерностей), начинает пытаться понять нечто-новое? Происходит то, что она уже выученными пытается интерпретировать новые данные. .. Это называется "глаза зашорены". Поэтому иногда маленькая LLМ лучше большой обученной

Кстати, здесь тоже 2 переменные

Что по ссылке? Упрощённая версия от Андрея Карпаты

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации