DataX插件开发指南

合集下载

DataX插件开发指南

DataX插件开发指南

Linux公社()于2006年9月25日注册并开通网站,Linux现在已经成为一种广受关注和支持的一种操作系统,IDC是互联网数据中心,LinuxIDC就是关于Linux的数据中心。

提供包括Ubuntu,Fedora,SUSE技术,以及最新IT资讯等Linux专业类网站。

DataX插件开发指南版本号修改内容修改日期修改人V0.1 创建2011-09-08 何健超目录一、概述 (4)二、Reader插件开发(以httpreader为例) (5)1、确定插件所需配置的参数 (5)2、构建相应包和类结构 (5)3、实现重载方法 (7)4、自定义split方法 (9)三、Writer插件开发(以streamwriter为例) (12)1、确定插件参数、构建相应包和类结构 (12)2、实现重载方法 (13)四、插件运行配置(以httpreader为例) (15)1、注册插件 (15)2、修改build.xml文件,打包 (15)一、概述DataX是一个在不同类型的数据库(文件系统)之间交换数据的工具,采用“框架+插件”的结构,框架相当于一个数据中转平台,而插件则为访问不同类型的数据库(文件系统)提供实现。

DataX插件分为Reader和Writer两类。

Reader负责从数据源端读取数据到Storage(交换空间),Writer负责将Storage中的数据写入到数据目的端。

Storage 可以适配不同种类的Reader和Writer,从而实现数据同步。

目前DataX版本已经提供的Reader插件如下:1、hdfsreader : 支持从hdfs文件系统获取数据。

2、mysqlreader: 支持从mysql数据库获取数据。

3、sqlserverreader: 支持从sqlserver数据库获取数据。

4、oraclereader : 支持从oracle数据库获取数据。

5、streamreader: 支持从stream流获取数据(常用于测试)6、httpreader : 支持从http URL获取数据。

dataX说明文档2

dataX说明文档2

dataX研究说明目录1.dataX概述 (1)2.部署dataX (1)2.1 安装dataX前检查 (1)2.2mysql数据库安装 (2)2.3oracle数据库安装 (3)2.4dataX安装 (8)3.oracle数据库导入到mysql数据库用例说明 (9)附录1:数据库操作语句 (16)1.dataX概述DataX是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现包括OceanBase、MySQL、Oracle、HDFS、Hive、HBase、OTS、ODPS等各种异构数据源之间高效的数据同步功能。

2.部署dataX2.1 安装dataX前检查在安装DataX前需要检查安装的服务器是否满足以下内容:①处理器为―X86_64‖。

②Python版本>=2.4。

③Java版本>=1.6。

首先以root权限登陆linux系统,执行以下命令查看linux处理器:[root@localhost bin]# uname -aLinux localhost.localdomain 2.6.32-358.el6.x86_64 #1 SMP Tue Jan 29 11:47:41 EST 2013 x86_64 x86_64 x86_64 GNU/Linux执行以下命令查看Python版本:[root@localhost bin]# python --versionPython 2.6.6执行以下命令查看java版本:[root@localhost bin]# java -versionjava version "1.7.0_09-icedtea"2.2mysql数据库安装下载mysql源码,并解压安装。

新建mysql组以及用户:#groupadd mysql#useradd –g mysql mysql;源码包解压:#tar mysql-5.1.50-linux-x86_64-glibc23.tar.gz ;将解压后的源码包放置/usr/local,并改名为mysql;设置目录的所属用户为mysql :#chown –R mysql /usr/local/mysql ;目录的所属组为mysql :#chgrp –R mysql /usr/local/mysql ;初始化数据库,一定要在mysql根目录中执行mysql_install_db:#/usr/local/mysql/scripts/mysql_install_db –user=mysql;默认在/user/local/mysql/data设置目录的所属用户为root:#chown –R root/usr/local/mysql;设置目录的所属用户为mysql :#chown –R mysql /usr/local/mysql/data;复制mysql的配置文件到/etc目录下,并改名为f:cp /usr/local/mysql/support-files/f /etc/f;复制启动脚本到/etc/rc.d/init.d目录下,并命名为mysqld:cp/usr/local/mysql/support-files/mysql.server /etc/rc.d/init.d/mysqld;#service mysqld start 立即启动mysql;设置mysql的密码为:#/usr/local/mysql/bin/mysqladmin –u root password 123456;然后输入密码进入mysql ,退出mysql命令quit:#/usr/local/mysql/bin/mysql –u root –p;若链接不上数据库做以下处理:#vi /etc/sysconf/iptables-A INPUT -m state --state NEW -m tcp -p tcp --dport 3306 -j ACCEPTgrant all privileges on *.* to root@'%' identified by "123";2.3oracle数据库安装一、修改操作系统核心参数在Root用户下执行以下步骤:1)修改用户的SHELL的限制,修改/etc/security/limits.conf文件输入命令:vi /etc/security/limits.conf,按i键进入编辑模式,将下列内容加入该文件。

Datax3.0使用说明

Datax3.0使用说明

Datax3.0使⽤说明原⽂链接:⼀、datax3.0介绍1、DataX 是⼀个异构数据源离线同步⼯具,致⼒于实现包括关系型数据库(MySQL、Oracle等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间稳定⾼效的数据同步功能。

2、DataX3.0框架设计DataX本⾝作为离线数据同步框架,采⽤Framework + plugin架构构建。

将数据源读取和写⼊抽象成为Reader/Writer插件,纳⼊到整个同步框架中。

1. Reader:数据采集模块,负责采集数据源的数据,将数据发送给Framework。

2. Writer:数据写⼊模块,负责不断向Framework取数据,并将数据写⼊到⽬的端。

3. Framework:⽤于连接reader和writer,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换等核⼼技术问题。

3、DataX3.0核⼼架构1. 核⼼模块介绍:- DataX完成单个数据同步的作业,我们称之为Job,DataX接受到⼀个Job之后,将启动⼀个进程来完成整个作业同步过程。

DataX Job模块是单个作业的中枢管理节点,承担了数据清理、⼦任务切分(将单⼀作业计算转化为多个⼦Task)、TaskGroup管理等功能。

- DataXJob启动后,会根据不同的源端切分策略,将Job切分成多个⼩的Task(⼦任务),以便于并发执⾏。

Task便是DataX作业的最⼩单元,每⼀个Task都会负责⼀部分数据的同步⼯作。

- 切分多个Task之后,DataX Job会调⽤Scheduler模块,根据配置的并发数据量,将拆分成的Task重新组合,组装成TaskGroup(任务组)。

每⼀个TaskGroup负责以⼀定的并发运⾏完毕分配好的所有Task,默认单个任务组的并发数量为5。

- 每⼀个Task都由TaskGroup负责启动,Task启动后,会固定启动Reader—>Channel—>Writer的线程来完成任务同步⼯作。

datax sqlserver insertorreplacetemplate -回复

datax sqlserver insertorreplacetemplate -回复

datax sqlserver insertorreplacetemplate -回复【datax sqlserver insertorreplacetemplate】是什么?如何使用它?datax是阿里巴巴集团开源的一款大数据传输工具,可以实现不同数据源之间的数据传输。

datax sqlserver insertorreplacetemplate是datax工具中的一个插件,主要用于将数据从其他数据源导入到sqlserver数据库中。

本文将一步一步介绍如何使用datax sqlserver insertorreplacetemplate。

第一步:环境准备在使用datax sqlserver insertorreplacetemplate之前,需要先安装并配置好相关环境。

首先,确保已经安装了JDK,可以通过在命令行窗口中输入`java -version`来检查。

如果没有安装,则需要先下载并安装JDK。

其次,下载并安装datax。

可以到datax的GitHub仓库(第二步:创建数据源在使用datax sqlserver insertorreplacetemplate插件之前,需要先创建数据源。

这里以MySQL数据库为例,在MySQL数据库中创建一个表,并插入一些测试数据。

第三步:编写配置文件创建一个json格式的配置文件,用于配置datax sqlserver insertorreplacetemplate插件的相关参数。

以下是一个示例配置文件的内容:json{"job": {"content": [{"reader": {"name": "mysqlreader","parameter": {"username": "root","password": "123456","column": ["id","name","age"],"connection": [{"querySql": ["select * from test"],"jdbcUrl": ["jdbc:mysql:localhost:3306/test"]}]}},"writer": {"name": "sqlserverwriter","parameter": {"username": "sa","password": "123456","writeMode": "insertOrUpdate","column": ["id","name","age"],"connection": [{"jdbcUrl":"jdbc:sqlserver:localhost:1433;DatabaseName=test"}]}}}],"setting": {"errorLimit": {"record": "0","percentage": "0.02"}}}}在上述配置文件中,我们指定了数据源的读取和写入的相关配置,包括数据库连接信息、数据表名、列名等。

大数据采集技术-DataX中的MySQL插件配置

大数据采集技术-DataX中的MySQL插件配置
பைடு நூலகம்
DataX中的HDFS插件配置
MySQL写插件配置
谢谢
DataX中的MySQL插件配置
MySQL读插件配置
DataX中的MySQL插件配置
MysqlWriter 插件实现了写入数据到 Mysql 主库的目的表的功能。在底层实 现上, MysqlWriter 通过 JDBC 连接远程 Mysql 数据库,并执行相应的 insert into ... 或者 ( replace into ...) 的 sql 语句将数据写入 Mysql,内部会 分批次提交入库,需要数据库本身采用 innodb 引擎。 MysqlWriter 面向ETL开发工程师,他们使用 MysqlWriter 从数仓导入数据 到 Mysql。同时 MysqlWriter 亦可以作为数据迁移工具为DBA等用户提供服 务。
DataX中的MySQL 插件配置
一.掌握MySQL插件读取配置 二.掌握MySQL插件写入配置
DataX中的MySQL插件配置
MysqlReader插件实现了从Mysql读取数据。在底层实现上,MysqlReader 通过JDBC连接远程Mysql数据库,并根据用户配置的信息生成查询SELECT SQL语句,然后发送到远程Mysql数据库,并将该SQL执行返回结果使用 DataX自定义的数据类型拼装为抽象的数据集,并传递给下游Writer处理。 对于用户配置Table、Column、Where的信息,MysqlReader将其拼接为 SQL语句发送到Mysql数据库;对于用户配置querySql信息,MysqlReader 直接将其发送到Mysql数据库。

datax mongodbreader 中query示例使用 -回复

datax mongodbreader 中query示例使用 -回复

datax mongodbreader 中query示例使用-回复如何使用datax mongodbreader进行查询。

datax是一款开源的数据同步工具,用于实现不同数据源之间的数据传输。

其中的mongodbreader插件,是用于从MongoDB数据库中读取数据的插件。

本文将以"使用datax mongodbreader进行查询"为主题,详细介绍如何一步一步进行操作。

第一步:安装和配置datax首先,我们需要安装和配置datax。

datax是基于Java开发的,所以我们需要先安装JDK,再下载和解压datax安装包。

然后,我们需要配置datax的环境变量,以便在任何路径下都能够访问到datax的执行文件。

第二步:了解datax mongodbreader的基本配置在开始使用datax mongodbreader之前,我们需要了解一些基本的配置信息。

在datax的安装目录下,可以找到mongodbreader插件的配置模板文件"mongodbreader.json"。

该文件包含了mongodbreader的所有配置项,我们需要根据自己的需求进行相应的配置。

第三步:配置mongodbreader的连接信息在配置文件中,我们需要先配置mongodbreader的连接信息。

首先,我们需要指定要连接的MongoDB数据库的Host和port,可以通过添加以下配置项进行设置:{"name": "mongodbreader","parameter": {"connection": [{"host": "localhost","port": 27017}]}}其次,我们需要指定要读取的数据库和集合,可以通过添加以下配置项进行设置:{"name": "mongodbreader","parameter": {"collection": [{"dbName": "test","collectionName": "user"}]}}这样,我们就配置好了mongodbreader的连接信息。

datax remote_reader 例子 -回复

datax remote_reader 例子-回复什么是datax remote_reader?DataX是阿里巴巴集团开发的一款通用数据传输工具,可用于不同数据源之间的数据交互。

它提供了许多数据读取和写入插件,以满足不同数据源的需求。

其中,datax remote_reader是DataX的一个重要插件,用于从远程数据源中读取数据。

本文将逐步介绍datax remote_reader 插件的使用方法。

第一步:安装DataX首先,我们需要在本地环境中安装DataX。

请访问DataX的官方仓库(第二步:下载datax remote_reader插件DataX的插件能够提供不同数据源的读写支持。

为了使用datax remote_reader插件,我们需要先下载它。

请访问DataX插件仓库(第三步:配置datax remote_reader配置datax remote_reader需要一些基本信息,包括远程数据源的IP 地址、端口号、用户名、密码等。

你可以将这些配置信息写入Json文件中,作为datax remote_reader的配置文件。

下面是一个datax remote_reader插件配置文件的示例:{"connection": [{"type": "jdbc","username": "your_username","password": "your_password","url":"jdbc:mysql:your_server_ip:your_server_port/your_database", "querySql": "select * from your_table"}],"rewrite": null,"column": null,"splitPk": null,"table": ["your_table"]}在配置文件中,你需要根据实际情况修改以下内容:- "username": 替换为你的远程数据源的用户名;- "password": 替换为你的远程数据源的密码;- "url": 替换为你的远程数据源的URL;- "querySql": 替换为你要执行的查询语句;- "table": 替换为你要读取的表名。

datax sqlserverwriter 二次开发

datax sqlserverwriter 二次开发
DataX 是一个用于数据同步的工具,它能够从各种数据源中读取数据并写入到其他数据源中。

SQLServerWriter 是DataX 提供的一个插件,用于将数据写入到SQL Server 数据库中。

如果您需要进行二次开发,可以按照以下步骤进行操作:
1.确定需要开发的插件类型。

DataX 支持多种插件类型,例如DataSource、Connector、Writer 等,您需要根据实际需求选择
合适的插件类型进行开发。

2.学习DataX 插件开发的相关知识。

DataX 提供了丰富的文档和示例代码,您可以通过阅读文档和参考示例代码来了解如何开发插件。

3.编写代码实现插件功能。

您需要根据实际需求编写代码,实现相应的功能。

在编写代码时,需要注意DataX 的插件规范和接口要求,确保代码符合规范要求。

4.测试插件功能。

在完成代码编写后,需要进行测试,确保插件能够正确地读写数据。

您可以使用DataX 自带的测试工具进行测试,也可以手动测试。

5.打包和发布插件。

在测试通过后,您需要将插件打包并发布到合适的地方,以便其他用户可以使用您的插件。

DataX 支持多种打包和发布方式,您可以选择最适合您的方式进行操作。

总之,DataX 的SQLServerWriter 插件是一个非常有用的工具,可以帮助您将数据写入到SQL Server 数据库中。

如果您需要进行二次开发,需要了解DataX 插件开发的相关知识,并按照插件规范和接口要求编写代码、测试插件功能、打包和发布插件。

DataX HdfsWriter 详细使用说明文档

HdfsWriter提供向HDFS文件系统指定路径中写入TEXTFile文件和ORCFile文件,文件内容可与hive中表关联。

∙(1)、目前HdfsWriter仅支持textfile和orcfile两种格式的文件,且文件内容存放的必须是一张逻辑意义上的二维表;∙(2)、由于HDFS是文件系统,不存在schema的概念,因此不支持对部分列写入;∙(3)、目前仅支持与以下Hive数据类型:数值型:TINYINT,SMALLINT,INT,BIGINT,FLOAT,DOUBLE 字符串类型:STRING,VARCHAR,CHAR 布尔类型:BOOLEAN 时间类型:DATE,TIMESTAMP 目前不支持:decimal、binary、arrays、maps、structs、union类型;∙(4)、对于Hive分区表目前仅支持一次写入单个分区;∙(5)、对于textfile需用户保证写入hdfs文件的分隔符与在Hive上创建表时的分隔符一致,从而实现写入hdfs数据与Hive表字段关联;∙(6)、HdfsWriter实现过程是:首先根据用户指定的path,创建一个hdfs 文件系统上不存在的临时目录,创建规则:path_随机;然后将读取的文件写入这个临时目录;全部写入后再将这个临时目录下的文件移动到用户指定目录(在创建文件时保证文件名不重复); 最后删除临时目录。

如果在中间过程发生网络中断等情况造成无法与hdfs建立连接,需要用户手动删除已经写入的文件和临时目录。

∙(7)、目前插件中Hive版本为1.1.1,Hadoop版本为2.7.1(Apache[为适配JDK1.7],在Hadoop 2.5.0, Hadoop 2.6.0 和Hive 1.2.0测试环境中写入正常;其它版本需后期进一步测试;∙(8)、目前HdfsWriter支持Kerberos认证(注意:如果用户需要进行kerberos认证,那么用户使用的Hadoop集群版本需要和hdfsreader的Hadoop版本保持一致,如果高于hdfsreader的Hadoop版本,不保证kerberos认证有效)3.1 配置样例{"setting": {},"job": {"setting": {"speed": {"channel": 2}},"content": [{"reader": {"name": "txtfilereader","parameter": {["/Users/shf/workplace/txtWorkplace/job/dataorcfull.txt"],"encoding": "UTF-8","column": [{"index": 0,"type": "long"},{"index": 1,"type": "long"},{"index": 2,"type": "long"},{"index": 3,"type": "long"},{"index": 4,"type": "DOUBLE"},{"index": 5,"type": "DOUBLE"},{"index": 6,"type": "STRING"},{"index": 7,"type": "STRING"},{"index": 8,"type": "STRING"},{"index": 9,"type": "BOOLEAN"},"index": 10,"type": "date"},{"index": 11,"type": "date"}],"fieldDelimiter": "\t"}},"writer": {"name": "hdfswriter","parameter": {"defaultFS": "hdfs://xxx:port","fileType": "orc","path": "/user/hive/warehouse/writerorc.db/orcfull","fileName": "xxxx","column": [{"name": "col1","type": "TINYINT"},{"name": "col2","type": "SMALLINT"},{"name": "col3","type": "INT"},{"name": "col4","type": "BIGINT"},{"name": "col5","type": "FLOAT"},{"name": "col6","type": "DOUBLE"},"name": "col7","type": "STRING"},{"name": "col8","type": "VARCHAR"},{"name": "col9","type": "CHAR"},{"name": "col10","type": "BOOLEAN"},{"name": "col11","type": "date"},{"name": "col12","type": "TIMESTAMP"}],"writeMode": "append","fieldDelimiter": "\t","compress":"NONE"}}}]}}3.2 参数说明defaultFSo描述:Hadoop hdfs文件系统namenode节点地址。

datax中sqlserverreader -回复

datax中sqlserverreader -回复“datax中sqlserverreader”详细介绍与使用指南一、介绍datax是阿里巴巴集团开源的一款用于大规模数据的传输工具。

它采用分布式并发技术,支持灵活的数据源读写,以及不同数据源之间的转换和同步。

sqlserverreader是datax中的一种数据源读取插件,专门用于从Microsoft SQL Server数据库中读取数据。

本文将一步一步详细介绍如何使用sqlserverreader插件。

二、安装和配置DataX1. 下载DataX:从下载最新版本的DataX,并解压到本地目录。

2. 配置JDK环境:确保已经正确配置了JDK,并设置了JAVA_HOME 环境变量。

三、安装和配置sqlserverreader插件1. 下载插件:从下载最新版本的sqlserverreader插件,并解压到DataX目录下的plugin目录中。

2. 配置插件:进入DataX目录,找到conf目录下的job目录,并在该目录下新建一个json文件,比如job.json。

3. 编辑JSON文件:打开job.json文件,按照以下格式进行配置:{"job": {"content": [{"reader": {"name": "sqlserverreader","parameter": {"connection": [{"jdbcUrl":"jdbc:sqlserver:<host>:<port>;DatabaseName=<databaseName> ","userName": "<username>","password": "<password>"}],"querySql": "SELECT * FROM <tableName>"}},"writer": {"name": "nullwriter","parameter": {}}}],"setting": {"speed": {"channel": 1}}}}4. 配置参数说明:- "jdbcUrl": 替换为你的SQL Server的连接地址,包括主机名、端口和数据库名。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Linux公社()于2006年9月25日注册并开通网站,Linux现在已经成为一种广受关注和支持的一种操作系统,IDC是互联网数据中心,LinuxIDC就是关于Linux的数据中心。

提供包括Ubuntu,Fedora,SUSE技术,以及最新IT资讯等Linux专业类网站。

DataX插件开发指南
版本号修改内容修改日期修改人V0.1 创建2011-09-08 何健超
目录
一、概述 (4)
二、Reader插件开发(以httpreader为例) (5)
1、确定插件所需配置的参数 (5)
2、构建相应包和类结构 (5)
3、实现重载方法 (7)
4、自定义split方法 (9)
三、Writer插件开发(以streamwriter为例) (12)
1、确定插件参数、构建相应包和类结构 (12)
2、实现重载方法 (13)
四、插件运行配置(以httpreader为例) (15)
1、注册插件 (15)
2、修改build.xml文件,打包 (15)
一、概述
DataX是一个在不同类型的数据库(文件系统)之间交换数据的工具,采用“框架+插件”的结构,框架相当于一个数据中转平台,而插件则为访问不同类型的数据库(文件系统)提供实现。

DataX插件分为Reader和Writer两类。

Reader负责从数据源端读取数据到Storage(交换空间),Writer负责将Storage中的数据写入到数据目的端。

Storage 可以适配不同种类的Reader和Writer,从而实现数据同步。

目前DataX版本已经提供的Reader插件如下:
1、hdfsreader : 支持从hdfs文件系统获取数据。

2、mysqlreader: 支持从mysql数据库获取数据。

3、sqlserverreader: 支持从sqlserver数据库获取数据。

4、oraclereader : 支持从oracle数据库获取数据。

5、streamreader: 支持从stream流获取数据(常用于测试)
6、httpreader : 支持从http URL获取数据。

提供的Writer插件如下:
1、hdfswriter :支持向hdbf写入数据。

2、mysqlwriter :支持向mysql写入数据。

3、sqlserverwriter:支持向sqlserver写入数据。

4、oraclewriter :支持向oracle写入数据。

5、streamwriter :支持向stream流写入数据。

(常用于测试)
用户可以根据需要开发自己的Reader & Writer插件。

现在以HttpReader 和StreamWriter插件为例,使用eclipse分别说明Reader和Writer插件开发过程。

二、Reader插件开发(以httpreader为例)
1、确定插件所需配置的参数
确定插件参数,并在common.plugin.ParamsKey.java中,创建静态类HttpReader,尤其注意对参数的注释尽量参照源码规范,DataX运行时,会根据此处声明的参数和注释生成对应的模板Job_xml.此处参数设置非
常重要,如图:
图 1
2、构建相应包和类结构
在源码文件的plugins.reader包下构建httpreader包,再在httpreader 包下创建类HttpReader,并让之继承common.plugin.Reader.
图 2
图 3
3、实现重载方法
获得图3所示效果:现在开始分别实现init( ), connectToDb( ), startRead(LineSender sender),finish( ) 四个方法。

(1)Init( ):通过从Reader间接继承自DefaultPlugin的PluginParam类型的参数param获取配置httpreader插件的参数(此处可以对参数进
行检查和格式处理等操作),如图:
图 4
(2)connectToDb( ): 本插件不需要此操作,函数为空实现。

(在数据库相关插件中,主要操作是通过DbSource.getConnection(keyId)获取
connection),如在mysqlreader中,该函数为:
图 5
(3)startRead(LineSender sender):根据init( )初始化的参数,连接相应的http URL, 获取其中数据并用BufferedReader封装,循环处理每行数据,调用sender.createLine() 产生line,并通过
line.addField(fieldStr)把每行数据切分成字段后组装成Line中的field,调用sender.sendToWriter(line)将此行数据写入Storage。

如图:
图 6
(4)finish():本插件不需要此操作,函数实现为空。

(在数据库相关插件中,主要完成关闭connection操作。

)如在mysqlreader中,该函数为:
图7
4、自定义split方法
截止到目前,已经实现了一个简单的httpreader(从一个http URL读取数据),目前还未实现读取多个http URL的功能,为此,可以在
common.plugin.ParamsKey.java中的静态类HttpReader中,添加如下两项:
图8
然后让httpreader插件覆盖默认的split(PluginParam param)方法。

操作如下:(1)split(PluginParam param)方法对param按照规则切分,生成List<PluginParam>,DataX框架会根据此List产生插件实例执行任务。

相关文档
最新文档