在使用azure数据工厂完成复制到azure blob存储之后,我试图将驻地文件移动到不同的目录 . 有没有人知道如何实现它?
我建议你使用 Azure Trigger Function 来实现你的要求 .
Azure Trigger Function
第1步:您可以创建一个Azure Function Blob Trigger来监控您的blob帐户 .
步骤2:每当blob文件进入blob存储时,将执行触发器中的代码 . 您可以获取blob全名并将其作为消息推送到例如 Azure Queue Storage .
Azure Queue Storage
步骤3:然后创建一个内部服务(或应用程序或脚本),它连续运行以监视队列存储 . 如果有消息进入,则获取文件名并将其移动到另一个文件夹 .
希望它能帮到你 .
如果要实现使用Azure数据工厂 -
有一个可以在Data Factory(V2)管道中创建的基于事件的触发器,这基本上会根据事件触发管道 . 从文档:
只要文件到达您的存储位置并创建相应的blob,此事件就会触发并运行您的数据工厂管道 . 您可以在数据工厂管道中创建响应blob创建事件,blob删除事件或两个事件的触发器 .
链接 - here . &here
完成此操作后,下一步将是Azure Data Factory的复制活动,以将数据从文件系统复制到文件系统 . 注 - 您需要为复制活动设置自托管集成运行时以在文件系统上工作(link)
链接 - here .
2 回答
我建议你使用
Azure Trigger Function
来实现你的要求 .第1步:您可以创建一个Azure Function Blob Trigger来监控您的blob帐户 .
步骤2:每当blob文件进入blob存储时,将执行触发器中的代码 . 您可以获取blob全名并将其作为消息推送到例如
Azure Queue Storage
.步骤3:然后创建一个内部服务(或应用程序或脚本),它连续运行以监视队列存储 . 如果有消息进入,则获取文件名并将其移动到另一个文件夹 .
希望它能帮到你 .
如果要实现使用Azure数据工厂 -
有一个可以在Data Factory(V2)管道中创建的基于事件的触发器,这基本上会根据事件触发管道 . 从文档:
链接 - here . &here
完成此操作后,下一步将是Azure Data Factory的复制活动,以将数据从文件系统复制到文件系统 . 注 - 您需要为复制活动设置自托管集成运行时以在文件系统上工作(link)
链接 - here .