Если необходим конкурентный доступ к объекту в памяти многих читателей и нескольких писателей в идеале одного + объект крупный и-или сложный + читателей нежелательно задерживать + размер памяти позволяет держать одновременно два объекта старый и новый = данный алгоритм подходит.
У нас объекты это десятки или сотни мегабайт данных (правила межсетевого экрана) а читатели это обработчики сетевых пакетов.
В случае именно сборки мусора то есть автоматического распределения памяти в общем случае выбор такого алгоритма как мне кажется это перебор. Для небольших объектов с коротким временем жизни без необходимости конкурентного доступа - зачем? А ведь таких большинство. Как опция - возможно
Мы используем подобный алгоритм в продуктах
Если необходим конкурентный доступ к объекту в памяти многих читателей и нескольких писателей в идеале одного + объект крупный и-или сложный + читателей нежелательно задерживать + размер памяти позволяет держать одновременно два объекта старый и новый = данный алгоритм подходит.
У нас объекты это десятки или сотни мегабайт данных (правила межсетевого экрана) а читатели это обработчики сетевых пакетов.
В случае именно сборки мусора то есть автоматического распределения памяти в общем случае выбор такого алгоритма как мне кажется это перебор. Для небольших объектов с коротким временем жизни без необходимости конкурентного доступа - зачем? А ведь таких большинство. Как опция - возможно
кстати екзешник там странный 212480 байтов
многовато
я перекомпилил сорцы получил 8704 :)