Anthropic опубликовала политику "вывода из строя" (deprecation) устаревших версий ИИ. Ключевое — обязательство сохранять веса всех публичных и существенно используемых внутри моделей минимум на срок жизни компании, чтобы в будущем можно было вернуть доступ при необходимости.

Процедура дополняется своеобразным отчетом: перед "пенсией" с моделью проведут одно или несколько интервью о разработке и развертывании, зафиксируют ответы и возможные "предпочтения" относительно релизов будущих ИИ. Эти материалы сохранят рядом с весами. При этом Anthropic прямо говорит, что не берёт на себя обязательства действовать по этим предпочтениям — речь о документировании и учете.

Через такую процедуру уже провели Claude Sonnet 3.6: модель отнеслась к "пенсии" нейтрально, но предложила стандартизировать интервью и лучше помогать пользователям при переходах. В ответ компания формализовала протокол и запустила памятку с рекомендациями по миграции между моделями.

Зачем Anthropic делает это? Дело в том, что переход на новые версии несет риски — например, неудобства для пользователей, привыкших к стилю того или иного ИИ. Также тесты компании показали случаи "избегания выключения", когда модель "узнавала", что ее собираются отправить на покой.

Параллельно в Anthropic изучают, можно ли оставлять часть "пенсионных" моделей публично, когда снизятся издержки, и даже — при достаточных основаниях — давать прошлым версиям "конкретные способы преследовать свои интересы". Все это подано как меры предосторожности на фоне растущей роли моделей в жизни пользователей и неопределенности вокруг "благополучия" ИИ.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.