Тоже подумал о том, что, возможно, цепочка рассуждений ограничена только 2-мя шагами. И, в дополнение, есть статья с попыткой объяснения явления гроккинга через понятие цепи (circuit) нейронов (оригинал статьи здесь: https://arxiv.org/pdf/2309.02390). Более внятное объяснение на русском я встретил в тг "Борис опять" от 18.09.2023
Была забыта ссылка на открытый курс deeplearning.ai, посвящённый как раз вызову функций и парсингу данных: https://www.deeplearning.ai/short-courses/function-calling-and-data-extraction-with-llms/
Спасибо за статью! Интересно и познавательно) Довольно много моментов перекликается с ТОС Голдратта. По сути, там тоже позиционирование внимания на том, что ограничивает систему в целом. И там есть описание подходов, как разруливать конфликты "если А, то В, но С"
Верно. И "подсчитываемые предметы" - это как раз то самое однородное качество. Просто более высокого уровня абстракция.
А о корреляции способности к абстракции и результатов теста как раз и написал автор
Тоже подумал о том, что, возможно, цепочка рассуждений ограничена только 2-мя шагами. И, в дополнение, есть статья с попыткой объяснения явления гроккинга через понятие цепи (circuit) нейронов (оригинал статьи здесь: https://arxiv.org/pdf/2309.02390). Более внятное объяснение на русском я встретил в тг "Борис опять" от 18.09.2023
Была забыта ссылка на открытый курс deeplearning.ai, посвящённый как раз вызову функций и парсингу данных: https://www.deeplearning.ai/short-courses/function-calling-and-data-extraction-with-llms/
Спасибо за статью! Интересно и познавательно) Довольно много моментов перекликается с ТОС Голдратта. По сути, там тоже позиционирование внимания на том, что ограничивает систему в целом. И там есть описание подходов, как разруливать конфликты "если А, то В, но С"