Когда тебя решили заменить ИИ-агентом и слить по-тихому.


Что произошло?

В конце 2025 года в китайской социальной сети RedNote (Xiaohongshu) завирусился GitHub‑репозиторий с говорящим названием Colleague Skill. Проект быстро набрал более 8000 звёзд и спровоцировал волну обсуждений далеко за пределами Китая.

Идея на самом деле банальная и мне кажется все уже так делают при создании агентов: загружаешь рабочие переписки коллеги, его документы, таблицы, письма, записи звонков — и получаешь ИИ‑агента, который имитирует его стиль общения и может отвечать вместо него. Разработчик прямо предлагал использовать инструмент перед «холодными прощаниями» с коллегами.

Но дело не только в самом проекте. Параллельно китайские СМИ начали сообщать о реальных случаях: компании просили сотрудников подробно документировать свои рабочие процессы — якобы для повышения эффективности. Через некоторое время людей увольняли, а в корпоративных чатах появлялись сообщения вроде:

«Привет, я цифровой двойник уволившегося [имя]. Задавайте вопросы — буду отвечать на основе его документации».

Пользователи не случайно назвали это «дистилляцией» — по прямой аналогии с техникой обучения нейросетей, где компактная модель обучается воспроизводить поведение более крупной. Только здесь «учителем» выступает живой человек, а «студентом» — его ИИ‑заменитель.


Почему метафора точная (и пугающая)

В машинном обучении дистилляция — это когда «знания» большой модели переносятся в маленькую, более дешёвую в эксплуатации. Процесс эффективен: он позволяет создать модель, которая воспроизводит поведение дорогостоящего оригинала без необходимости повторять весь объём вычислений.

Теперь применим это к человеку. Сотрудник — это «большая модель»: у него есть годы опыта, контекст, неформальные знания, интуиция, понимание политики компании, отношения с людьми. Всё, что он явно фиксирует в документах, переписках и решениях — это и есть «обучающие данные».

Чем усерднее человек работает и документирует свою деятельность, тем легче его «дистиллировать». Высококачественный контекст из детальных рабочих материалов — идеальное топливо для обучения ИИ.

Это создаёт извращённый стимул: самые добросовестные сотрудники, которые тщательно ведут документацию, становятся наиболее уязвимыми. Их проще всего заменить.


Что на самом деле можно «дистиллировать»

Здесь важно быть честными: никакой инструмент не скопирует человека полностью. ИИ способен извлечь только явные знания — то, что зафиксировано в текстах. Неявные профессиональные знания — интуиция, умение читать между строк, понимание неписаных правил, эмпатия в коммуникации — остаются за пределами того, что можно «скопировать».

По факту компания получает продвинутого бота, который работает хорошо, когда всё понятно, но, когда мы сталкиваемся с чем-то необычным и новым, логика бота ломается, и он начинает генерировать бред, что ни к чему хорошему не приведёт.


Юридический нюанс: чьи данные в переписках?

Здесь, как мне кажется, открываются интересные момент, которые мне удалось найти, если я не прав подскажи мне уважаемый читатель.

Рабочие переписки содержат данные не только самого сотрудника. В них фигурируют коллеги, клиенты, партнёры — люди, которые никогда не давали согласия на то, что их слова станут обучающим датасетом для ИИ (кстати интересный вопрос, у вас в компании задавались таким вопросом, чтобы брать согласие на обработку данных для обучения?).

С точки зрения GDPR (который применяется к европейским компаниям и их данным):

Работодатели обязаны уведомлять сотрудников о решениях, принимаемых исключительно на основе автоматизированной обработки данных, которые производят юридические последствия или существенно влияют на человека — включая решения о найме и увольнении.

ИИ-система не может автоматически объединять историю переписок, данные о покупках и логи взаимодействий без законного основания и чёткого раскрытия информации пользователям.

Большинство ИИ-сервисов используют пользовательские данные для дообучения своих моделей. Перед тем как передавать какие-либо персональные данные в ИИ-систему, компании должны внимательно изучить условия использования.

Практическая проблема: в рабочих чатах могут содержаться медицинские данные (человек написал, что болеет), финансовая информация, персональные детали коллег. Всё это — чувствительные персональные данные с особым режимом защиты.

Статья 22 GDPR даёт физическим лицам право не быть субъектом решений, основанных исключительно на автоматизированной обработке, включая профилирование, которое существенно на них влияет.

Компания, которая тихо «оцифровала» уволенного сотрудника и продолжает использовать его цифрового двойника, рискует столкнуться с исками сразу по нескольким основаниям: нарушение права на защиту персональных данных, несанкционированное использование интеллектуального труда, возможно — нарушение трудового договора.

В России ситуация не менее сложная: Федеральный закон №152-ФЗ «О персональных данных» требует согласия на обработку персональных данных. Использование переписок уволенного сотрудника без его согласия формально подпадает под нарушение этого закона.


Реакция: контрмеры уже появились

Сообщество не осталось в стороне. Практически одновременно с вирусным распространением Colleague Skill появился Anti-distillation skill — инструмент, который помогает сотрудникам защититься.

Его логика элегантна: он переписывает архивные документы так, чтобы они выглядели связными, но содержали меньше конкретики — заменяет точные советы расплывчатыми формулировками, размывает детали принятия решений. Автор не пытался атаковать большие языковые модели и не писал манифестов — просто предложил небольшой инструмент для защиты неявных знаний работника.

Параллельно другие разработчики начали выпускать похожие репозитории с более экзотическими сценариями: оцифровка бывшей девушки, умерших родственников, самого себя для деловой переписки. Это превратилось в своеобразный культурный феномен.


Не только Китаем едины

Было бы наивно считать, что подобные практики — исключительно китайское явление.

Внутренние документы Slack показали, что разговоры пользователей использовались для улучшения ИИ-функций без явного согласия — что напрямую нарушает требования GDPR к законному основанию для обработки данных.

Стартап Viven с оценкой $2,1 млрд создаёт цифровых двойников сотрудников на коммерческой основе — официально для подмены коллег во время отпуска. Концептуально разница с «китайским сценарием» невелика: вопрос лишь в том, с чьего согласия это происходит.

Федеральный суд США недавно постановил, что информация, введённая в публично доступную ИИ-платформу, не защищена адвокатской тайной — потому что стандартные политики конфиденциальности ИИ-сервисов исключают разумные ожидания конфиденциальности.

Это означает, что любой сотрудник, который использовал корпоративные ChatGPT-аккаунты для работы с внутренними документами, потенциально уже «дистиллировал» себя — просто не в пользу конкурента, а в пользу OpenAI.


Что это говорит о рынке труда

ИИ не создал эту холодную инструментализацию с нуля. До его появления мы уже привыкли навешивать ярлыки на других людей и точно взвешивать «ценность» каждых отношений. ИИ просто сделал этот процесс функциональной ассимиляции между людьми полностью явным.

Подход «дистилляции сотрудников» обнажает несколько структурных противоречий современного рынка труда:

  1. Документация как уязвимость. Компании десятилетиями требовали от сотрудников «делиться знаниями» и «документировать процессы». Теперь это требование приобрело новый, неожиданный смысл. Чем лучше ты выполнял эти требования, тем проще тебя заменить.

  2. Знание как актив и как товар. Профессиональная экспертиза всегда была личным активом сотрудника. Теперь граница между «знаниями компании» и «знаниями человека» размывается технически.

  3. Новая форма эксплуатации труда. Если компания намеренно создаёт процесс «документирования» с целью последующего замещения сотрудника — это не просто неэтично. Это потенциально мошенничество при заключении трудового договора.

  4. Проблема «model collapse». Если ИИ-агенты начнут обучаться на данных других ИИ-агентов, система будет деградировать — производя корректно звучащий, но бессодержательный контент. Ценность живого человеческого контекста при этом будет только расти.


Что будет дальше

С февраля 2025 года Статья 4 EU AI Act требует от компаний обеспечивать «ИИ-грамотность» сотрудников — понимание того, как ИИ-системы используют их данные.

Следующий шаг — требования о раскрытии информации при создании цифровых двойников. Юристы уже рекомендуют добавлять в трудовые соглашения положения о том, как компания может использовать данные, созданные сотрудником в процессе работы.

Коллективные соглашения о том, какие данные сотрудников могут использоваться для обучения ИИ — уже предмет переговоров в ряде западных компаний.

Компании, которые сделают ставку исключительно на ИИ-суррогаты, обнаружат, что потеряли то, что не поддаётся документированию: культуру, доверие, способность действовать в нештатных ситуациях.


Короче это наше будущее

История с Colleague Skill — это не просто новомодная хайповая штука. Это то, к чему стремятся все крупные компании, оцифровать знания и умения своих сотрудников и заменить их на агента, вот тебе и повальная оцифровка данных и её последствия.

Возможно, самый важный вопрос здесь не технический и не юридический. Он этический: что происходит с доверием внутри организации, когда сотрудники понимают, что их добросовестность может быть использована против них?

Моё личное мнение дальше будет только хуже и развиваться будет именно такое направление, максимальная оцифровка всех навыков сотрудников и знаний компании для создания максимально универсального цифрового работника.