Azure 数据工厂复制数据活动 SQL 接收器存储过程和 ARM 模板中的表类型参数

2024-04-16

我正在部署一个包含复制数据活动的 Azure 数据工厂管道,其中接收器是 SQL Server 存储过程。我提供存储过程名称,该名称映射到数据工厂的 ARM 模板中的 sqlWriterStoredProcedureName。最近,用于在复制数据活动中设置接收器的界面已更改为包含表类型参数名称,该名称应映射到 TableType (sqlWriterTableType)。

我应该使用什么属性来设置表类型参数名称?我猜它会类似于 sqlWriterTableTypeParameter 或 sqlWriterTableTypeParameterName。

有人能指出我正确的方向吗?


MSFT 支持终于回到我身边。要在定义数据工厂的 ARM 模板中设置的属性是“storedProcedureTableTypeParameterName”

使用 kirikintha 的 foo 示例:

CREATE PROCEDURE [dbo].[spFoo]
   @FooTypeVariable [dbo].[FooType] READONLY
AS
...

当调用 SQL 存储过程作为数据工厂复制活动接收器时,ARM 模板将如下所示:

...

    "sink": {
     "type": "AzureSqlSink",
     "sqlWriterStoredProcedureName": "[[dbo].[spFoo]",
     "sqlWriterTableType": "[[dbo].[FooType]",
     "storedProcedureTableTypeParameterName": "FooTypeVariable"
     }

...
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Azure 数据工厂复制数据活动 SQL 接收器存储过程和 ARM 模板中的表类型参数 的相关文章

  • Azure 数据工厂中没有管道图

    我使用复制数据向导创建了 2 个管道 但当我单击 图表 操作时 两个管道都没有显示 我收到消息 该工厂不包含管道或数据集 管道均成功运行 并且在单击 管道 边栏选项卡时确实会显示 两条管道均配置为一次性 关于为什么会发生这种情况以及如何解决
  • 使用 python azure 函数从 azure blob 存储读取文件

    我创建了一个天蓝色函数Python 3 9我将使用执行该功能Http Trigger via Azure data factory 现在 在我的 python azure 函数中 我想从我的存储帐户访问存储容器并从同一容器读取文件 以便对文
  • azure数据工厂:如何将文件夹的所有文件合并到一个文件中

    我需要创建一个大文件 通过合并分散在 Azure Blob 存储中包含的多个子文件夹中的多个文件 还需要进行转换 每个文件包含单个元素的 JSON 数组 因此最终文件将包含一个JSON 元素数组 最终目的是在 Hadoop 和 MapRed
  • Azure 数据工厂:事件未启动管道

    我已经设置了一个包含复制活动的 Azure 数据工厂管道 出于测试目的 源和接收器都是 Azure Blob 存储 我不想在源 Azure Blob 存储上创建新文件后立即执行管道 我创建了 BlovEventsTrigger 类型的触发器
  • Azure 数据工厂:对于特定属性,每个 item() 值不存在

    我的每个活动都有一个存储过程 SP 其中我显然使用 item 输入值 现在假设 SP 的输入值为 item a item b 和 item c 问题 对于 foreach 的某些迭代 item b 不存在 这是预期的 那么我应该如何在存储过
  • 来自参数的 Azure 数据工厂源数据集值

    我在 Azure Datafactory 中有一个由 CSV 文件支持的数据集 我在数据集中添加了一个附加列 并希望从数据集参数传递它的值 但值永远不会复制到该列 type AzureBlob structure name MyField
  • 使用 JSON 为数据工厂中的每个循环提供数据

    数据工厂新手 我正在努力解决以下问题 我有一个 Web 活动 它调用 API 并返回以下 JSON ResponseCode 200 ResponseText OK Data ramco purchaseordershipment ramc
  • 有没有办法在 Azure 数据工厂中插入带有嵌套数组的文档?

    我正在尝试在 CosmosDb 中添加具有嵌套数组的文档 我正在使用Copy Activity 样本文件 itemNumber D10001 readings value 25 ets 100011111 value 35 ets 1000
  • 如何在 Azure 数据工厂的复制活动期间向文件名添加日期?

    我正在从 Azure 数据工厂中的 SFTP 中提取一个文件夹 该文件夹将始终具有相同的名称 因此我在复制活动中明确指定了它 但我试图弄清楚如何添加复制它的日期到当前文件名 该文件夹取自 SFTP 并存储在 ADLS Gen2 中 下面附上
  • Azure-data-Factory 复制数据如果某个文件存在

    我的 blob 容器中有很多文件 但是 我只想仅当 blob 容器上存在某个文件 例如 SRManifest csv 时才运行存储过程 我在数据工厂上使用了获取元数据和 IF 条件 你能帮我写一下动态脚本吗 我试过这个 bool start
  • Azure 数据工厂表达式生成器字符串格式错误:无法识别的令牌(换行)

    我有一个映射数据流 我想在其中对源使用自定义 SQL 查询 但我无法将其分成多行 我收到一条错误消息 令牌识别错误 如果我删除换行符并将整个查询放在一行上 它可以工作 但看起来很难读 我想保留查询格式 有谁知道如何做到这一点 LE 同样的情
  • Azure 数据工厂:如何在另一个管道成功完成后触发管道

    在 Azure 数据工厂中 如何在其他管道成功完成后触发管道 详细地 我试图在其他管道成功完成后触发 SSIS 包 我已经知道我可以将 SSIS 包保存为管道 并像其他管道一样使用触发器运行它 但是如何确保 SSIS 包管道仅在其他管道完成
  • Azure 数据工厂复杂 JSON 源(嵌套数组)到 Azure Sql 数据库?

    我有一个 JSON 源文档 将定期上传到 Azure blob 存储 客户希望使用 Azure 数据工厂将此输入写入 Azure Sql 数据库 然而 JSON 很复杂 有许多嵌套数组 到目前为止我还没有找到一种方法来扁平化文档 也许这不受
  • Azure 数据工厂 - 按日期过滤 Mongodb 源数据集

    此场景非常简单 如 ADFv2 文档和示例中所述 我创建了一个复制管道来从 MongoDB 集合获取数据 并将其写入 Azure SQL 数据库 完整的收集数据已成功传输 并且所有映射均已正确设置 当我尝试过滤源数据集以仅获取最后一个数据集
  • 如何使用 Azure 数据工厂管道调用 REST API?

    我想使用 ADF Pipeline 执行具有 oauth 身份验证的 REST API 如果没有 oauth2 我可以调用任何 REST API 所以我的问题是 这个 ADF 管道是否支持带有 oauth2 身份验证的 REST API 如
  • Azure 数据工厂 v2:活动执行管道输出

    有没有办法在活动 执行管道 中引用已执行管道的输出 即 主管道按顺序执行2个管道 第一个管道生成一个自己创建的 run id 需要将其作为参数转发到第二个管道 我已阅读文档并检查主管道是否记录了第一个管道的输出 但看起来这不可能直接实现 到
  • Azure 数据工厂复制数据活动 SQL 接收器存储过程和 ARM 模板中的表类型参数

    我正在部署一个包含复制数据活动的 Azure 数据工厂管道 其中接收器是 SQL Server 存储过程 我提供存储过程名称 该名称映射到数据工厂的 ARM 模板中的 sqlWriterStoredProcedureName 最近 用于在复
  • 通过 ADF 将记录加载到 Dynamics 365

    我正在 Azure 数据工厂中使用 Dynamics 连接器 TLDR 此连接器是否支持加载需要传入父记录密钥的子记录 例如如果我想创建一个contact并将其附加到父级account 我更新插入一条带有 null 的记录contactid
  • Azure Synapse Analytics - 运行数据流时出现异常

    使用 Synapse Analytics Workspace 的预览和相关的 Synapse Studio 我创建了一个数据流 该数据流只需将 parquet 文件从 Datalake gen2 存储加载到 SQL 池内的表中 运行仅包含此
  • Azure 数据工厂复制数据速度很慢

    源数据库 Azure VM D16s v3 上托管的 PostgreSQL 目标数据库 Azure VM D4s v3 上托管的 SQL Server 开发人员版本 源数据库大小约为1TB 目标数据库为空 现有架构与源数据库相同 吞吐量仅为

随机推荐