析器或分析器或由我们的移解决方案合作伙伴之一构建的解决方案加速器. 这些工具通常会提供有关环境内部情况的详细报告,并根据复杂性将数据管道和作业分解为不同的类别。它允许您确定迁移计划所需的工作以及在此过程中可能需要的任何代码重构。 除了分析作业的复杂性之外,这些分析工具还可以生成一些有用的摘要,包括列出中的资产和工件清单;例子包括 SQL脚本 动态SQL 功能, 引用对象 程序对象交叉引用 代码总行数的示例摘要输出代码分析器的示例摘要输出 分析器通过自动分析代码/脚本让您更好地了解您的环境,因为您可以进行详细的迁移评估和工作量估算。
您已准备好踏上迁移之旅的下一步
开发 现在您已经在发现步骤中评估了 工作负载,下一步是将历史数据和相关工作负载实际迁 平台。本节将引导您完成实现该目标的开发活动。 2.1 数据仓库抽取 要开始数据迁移,是一种客户端实用程序,可提供可扩展、高速和并行的数据提取和加载。使用 ,您可以大规模地从 中的所 电话号码列表 有表中提取数据,然后将数据文件推送等云对象存储中。利用 TPT 卸载数据提供了以下列出的几个关键优势: 能够定义字段分隔符、日期格式和编码类型 控制确定数据卸载的资源分配以获得更好的性能 定义生成的输出文件的数量及其对应的文件类型 在出现故障和中断时支持检查点和恢复操作 或者,您也可以使用您选择的 ETL 工具(如Arcion或其他工具)来执行上述操作。
您可以使用云原生 CLI 或托管服
务或使用任何开源第三方摄取工具将这些提取的文件推送到云存储。 一旦提取的 csv 或文本格式的加载就绪文件登陆云存储,您就可以使用 行自动增量摄取。它将负责历史数据的摄取。 说明数据从 Teradata 传输到 AWS S3 的图表 说明数据从 Teradata 传输到 AWS S3 的图表 从增量加载的角度来看,您必须 GT列表 确保摄取过程将源数据推送到范围内所有表的云存储位置。我们建议直接使用原始源系统来解耦摄取管道并消除对系统的依赖。通常,这是一个 数据工厂Arcion 或其他摄取工具处理,具体取决于您选择的摄取工具和源系统。对于使用或快速加载脚本的现有逻辑,您现在正在对 Teradata 执行增量加载,这可以作为MERGE INTO的一部分来处理 中的功能。