- FlinkX是在是袋鼠云内部广泛使用的基于flink的分布式离线数据同步框架,实现了多种异构数据源之间高效的数据迁移。
 
不同的数据源头被抽象成不同的Reader插件,不同的数据目标被抽象成不同的Writer插件。理论上,FlinkX框架可以支持任意数据源类型的数据同步工作。作为一套生态系统,每接入一套新数据源该新加入的数据源即可实现和现有的数据源互通。
在底层实现上,FlinkX依赖Flink,数据同步任务会被翻译成StreamGraph在Flink上执行,工作原理如下图:
- 单机模式:对应Flink集群的单机模式
 - standalone模式:对应Flink集群的分布式模式
 - yarn模式:对应Flink集群的yarn模式
 
- Java: JDK8及以上
 - Flink集群: 1.4及以上(单机模式不需要安装Flink集群)
 - 操作系统:理论上不限,但是目前只编写了shell启动脚本,用户可以可以参考shell脚本编写适合特定操作系统的启动脚本。
 
进入项目根目录,使用maven打包:
mvn clean package -Dmaven.test.skip
打包结束后,项目根目录下会产生bin目录和plugins目录,其中bin目录包含FlinkX的启动脚本,plugins目录下存放编译好的数据同步插件包
- 
model
- 描述:执行模式,也就是flink集群的工作模式
- local: 本地模式
 - standalone: 独立部署模式的flink集群
 - yarn: yarn模式的flink集群
 
 - 必选:否
 - 默认值:local
 
 - 描述:执行模式,也就是flink集群的工作模式
 - 
job
- 描述:数据同步任务描述文件的存放路径;该描述文件中使用json字符串存放任务信息。
 - 必选:是
 - 默认值:无
 
 - 
plugin
- 描述:插件根目录地址,也就是打包后产生的plugins目录。
 - 必选:是
 - 默认值:无
 
 - 
flinkconf
- 描述:flink配置文件所在的目录(单机模式下不需要),如/hadoop/flink-1.4.0/conf
 - 必选:否
 - 默认值:无
 
 - 
yarnconf
- 描述:Hadoop配置文件(包括hdfs和yarn)所在的目录(单机模式下不需要),如/hadoop/etc/hadoop
 - 必选:否
 - 默认值:无
 
 
- 以本地模式启动数据同步任务
 
bin/flinkx -mode local -job /Users/softfly/company/flink-data-transfer/jobs/task_to_run.json -plugin /Users/softfly/company/flink-data-transfer/plugins
- 以standalone模式启动数据同步任务
 
bin/flinkx -mode standalone -job /Users/softfly/company/flink-data-transfer/jobs/oracle_to_oracle.json  -plugin /Users/softfly/company/flink-data-transfer/plugins -flinkconf /hadoop/flink-1.4.0/conf
- 以yarn模式启动数据同步任务
 
以yarn模式启动注意一下几点:
1.需要预先启动yarn-session
2.启动yarn-session的flink包,必须包含hadoop的jar包,例如flink-1.4.2-bin-hadoop27-scala_2.11.tgz
3.运行jobmanager与taskmanager的节点必须要有flinkx
bin/flinkx -mode yarn -job /Users/softfly/company/flinkx/jobs/mysql_to_mysql.json  -plugin /opt/dtstack/flinkplugin/syncplugin -flinkconf /opt/dtstack/myconf/conf -yarnconf /opt/dtstack/myconf/hadoop
从最高空俯视,一个数据同步的构成很简单,如下:
{
	"job": {
		"setting": {...},
		"content": [...]
	}
}
数据同步任务包括一个job元素,而这个元素包括setting和content两部分。
- setting: 用于配置限速、错误控制和脏数据管理
 - content: 用于配置具体任务信息,包括从哪里来(Reader插件信息),到哪里去(Writer插件信息)
 
	"setting": {
		"speed": {...},
		"errorLimit": {...},
		"dirty": {...}
	}
setting包括speed、errorLimit和dirty三部分,分别描述限速、错误控制和脏数据管理的配置信息
            "speed": {
                 "channel": 3,
                 "bytes": 0
            }
- channel: 任务并发数
 - bytes: 每秒字节数,默认为0(不限速)
 
            "errorLimit": {
                "record": 10000,
                "percentage": 100
            }
- record: 出错记录数超过record设置的条数时,任务标记为失败
 - percentage: 当出错记录数超过percentage百分数时,任务标记为失败
 
		"dirty": {
                "path": "/tmp",
                "hadoopConfig": {
                    "fs.default.name": "hdfs://ns1",
                    "dfs.nameservices": "ns1",
                    "dfs.ha.namenodes.ns1": "nn1,nn2",
                    "dfs.namenode.rpc-address.ns1.nn1": "node02:9000",
                    "dfs.namenode.rpc-address.ns1.nn2": "node03:9000",
                    "dfs.ha.automatic-failover.enabled": "true",
                    "dfs.client.failover.proxy.provider.ns1": "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider",
                    "fs.hdfs.impl.disable.cache": "true"
                }
            }
- path: 脏数据存放路径
 - hadoopConfig: 脏数据存放路径对应hdfs的配置信息(hdfs高可用配置)
 
        "content": [
            {
               "reader": {
                    "name": "...",
                    "parameter": {
						...
                    }
                },
               "writer": {
                    "name": "...",
                    "parameter": {
                     	...
                     }
                }
            }
        ]
- reader: 用于读取数据的插件的信息
 - writer: 用于写入数据的插件的信息
 
reader和writer包括name和parameter,分别表示插件名称和插件参数
详见flinkx-examples子工程
- MySQL读取插件
 - Oracle读取插件
 - SQLServer读取插件
 - HDFS读取插件
 - HBase读取插件
 - Elasticsearch读取插件
 - Ftp读取插件
 - Odps读取插件
 - PostgreSQL读取插件
 - MongoDB读取插件
 - Http读取插件
 - DB2读取插件
 
- MySQL写入插件
 - Oracle写入插件
 - SQLServer写入插件
 - HDFS写入插件
 - HBase写入插件
 - Elasticsearch写入插件
 - Ftp写入插件
 - Odps写入插件
 - PostgreSQL写入插件
 - MongoDB写入插件
 - Redis写入插件
 - DB2写入插件
 
1.flinkx的分支版本跟flink的版本对应,比如:flinkx v1.4.0 对应 flink1.4.0,现在支持flink1.4和1.5
1.大数据平台开发工程师,想了解岗位详细信息可以添加本人微信号ysqwhiletrue,注明招聘,如有意者发送简历至sishu@dtstack.com。

