Комментарии 1
Очень интересны подробности выбора такого подхода именно на примере персональных данных. Как случилось, что на вычисление таблиц с ними вручную команде потребовался бы год времени?
Поясню: мы с командой разрабатываем продукт, в основной базе которого 1000 с небольшим таблиц. Не думаю, что это мега большой объём, но мне сложно представить БД с любым количеством таблиц, где связку фио и номер паспорта можно найти более, чем в одной таблице, про которую знают все разработчики и аналитики/дата старты.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
ИИ в Data Governance: как мы ускорили маркировку персональных данных