Как стать автором
Обновить

Комментарии 8

Теги порадовали )

P.S.: для других БД тоже есть аналогичные штуки: раз, два, три, например.
Что за таблица такая «Costumers»? :)
Сборище костюмеров, наверное
:-) Исправил
А циферки по производительности на больших объемах?
Я хотел это оставить для другой статьи, но скажу предварительные данные.

На моем компьютере (Intex i7, SQL сервер в локальной сети) миллион записей, подобных приведенным выше, вставляется:
— через SqlBulkCopy: 6 405 ms (~ 6,5 сек)
— Bulk Insert: 184 629 ms (~ 185 сек)

Так же существует исследование от Alberto Ferrari:
www.sqlbi.com/wp-content/uploads/SqlBulkCopy-Performance-1.0.pdf
Спасибо за статью!
С помощью класса SqlBulkCopy реализовал универсальную утилиту загрузки данных в SQL Server — ImportExportDataSql, о которой написал статью.
С помощью ImportExportDataSql:
— загружаю CSV файлы большого объема (более 1Гб) в БД
— выгружаю выборочные данные из БД в SQL формате и затем выполняю этот скрипт на другой БД (т.е. использую как средство ручной синхронизации данных)
— копирую джобы с одной машины на другую
— выгружаю структуру БД
Приложение ImportExportDataSql бесплатное, оповещает об обновлениях, портативное (не требует установки), наличие командной строки, удобно загружать Excel и CSV файлы с настройкой полей
Добавляйтесь в группу VK, пишите свои пожелания, буду рад доработать приложение под Ваши нужды
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации