2016-11-16 30 views
0

我想了解从(Azure托管)SQL Server到Blob存储将大量数据 - 〜6M文本行迁移的最佳方法。Azure数据同步 - 将每个SQL行复制到Blob

大部分情况下,这些记录都是归档记录,很少被访问 - blob存储作为保存这些记录的地方是有意义的。

我看了一下Azure Data Factory,它似乎是正确的选择,但我不确定它满足要求。

简而言之,对于表中的每一行,我想要创建一个blob,其中该行的内容为1列。

我看到教程(即https://docs.microsoft.com/en-us/azure/data-factory/data-factory-copy-activity-tutorial-using-azure-portal)擅长解释批量到批量数据管道的迁移,但我想从一个批量到多个数据集进行迁移。

希望有道理,有人可以帮忙吗?

+0

当你有表格存储时,为什么要将文本迁移到BLOB? – Paparazzi

+0

在这种情况下,每行都有大量的文本,并且对于正在使用的Blob是我们的合适商店 – Nagoh

回答

1

到目前为止,Azure Data Factory没有内置任何东西,例如SSIS中的For Each循环。你可以使用自定义的.net活动来做到这一点,但它需要大量的自定义代码。

我会问,如果你将这个转移到另一个数据库,你会创建600万个具有相同结构的表吗?有单独的项目会得到什么?

另一种选择可能是将其转换为JSON,这很容易使用Data Factory。以下是我最近将数据移入DocumentDB的示例。

Copy From OnPrem SQL server to DocumentDB using custom activity in ADF Pipeline

SSIS 2016年的Azure Feature Pack,让Azure的任务,如天青斑点上传任务和Azure的斑点目标。你可能会更好使用这个,也许一个OLEDB命令或带有Azure Blob目标的For Each循环可能是另一种选择。

祝你好运!

相关问题