百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

kettle数据迁移实战

ccwgpt 2024-12-17 12:58 67 浏览 0 评论

背景

目前有两个数据库AB, 想把A库指定的表数据迁移到B库中,因为涉及到数据量比较大,所以考虑使用kettle。 闲话少说,真货搞起来

Kettle 说明

  • Kettle 本身是做数据抽取、清洗、转换和装载的工具。能支持在多个平台上进行操作,比如window、linux、unix 上运行。
  • 支持多种数据源配置。
  • 可视化图形界面操作
  • kettle流程图本质上都是配置文件,比如.ktr/.kjb文件。

这样的一个好处就是,流程图一旦画好之后,就可放到其他平台使用。

下载

下载就不说了,自己找官网下载就行,文件挺大,下载也挺慢,如果下载不下来的话,可以在下边评论处@我

安装和启动

在window上,双击Spoon.bat, 打开即可,如图


在启动之前,最好是修改下 启动脚本,添加字符集utf-8, 比如

set OPT=%OPT% %PENTAHO_DI_JAVA_OPTIONS% "-Dfile.encoding=UTF-8" "-Djava.library.path=%LIBSPATH%;%HADOOP_HOME%/bin" %JAVA_ENDORSED_DIRS% %JAVA_LOCALE_COMPAT% "-DKETTLE_HOME=%KETTLE_HOME%" "-DKETTLE_REPOSITORY=%KETTLE_REPOSITORY%" "-DKETTLE_USER=%KETTLE_USER%" "-DKETTLE_PASSWORD=%KETTLE_PASSWORD%" "-DKETTLE_PLUGIN_PACKAGES=%KETTLE_PLUGIN_PACKAGES%" "-DKETTLE_LOG_SIZE_LIMIT=%KETTLE_LOG_SIZE_LIMIT%" "-DKETTLE_JNDI_ROOT=%KETTLE_JNDI_ROOT%"

主要在spoon.bat 脚本中,添加-Dfile.encoding=UTF-8 ,指定字符集,否则导入的数据中文都是乱码。


安装mysql或oracle驱动包

mysql驱动包自行下载,放到安装目录下的/lib 目录下重启即可。我是下载的 5.1.49版本

创建数据源

点击 “转换”-》“主对象树”-》“DB链接”-》“新建”-》Test



然后输入数据库的链接信息,并点击测试,是否连接成功。

我这个是Myql DB ,你可以选择你那边支持的数据库。

需要创建两个,一个源数据库和一个目标数据库。

配置源数据源

点击“核心对象”-》“输入”-》选择“表输入”,如下图



双击 “表输入”,然后选择源数据库,并输入要迁移的表的sql, 并点击确定即可



目标库入库数据配置

点击“核心对象”-》“输出”-》“插入/更新”,如下图


双击“插入/更新2”,配置源表字段和目标表字段的之前的映射关系。


点击保存或者 ctrl+s ,会把这个流程,保存成 ktr格式的文件。

此文件的用处,下边会说。

现在这个映射关系,已经配置完成,可以点击 数据迁移了。


最后一步,是如何把流程图从window迁移到linux上运行

为什么要使用kettle呢,因为他的流程图文件,能支持跨系统使用,同一个ktr即可以在window上使用,也可以放到linux上执行。

在linux上,主要是使用kettle的pan.sh 脚本去执行这个ktr文件,具体执行的命令如下

sh  $Kettle_Home/pan.sh -file=/home/test/kettle/ktr/data_transfer.ktr -norep

然后,我们可以定时执行这个脚本,从而实现增量数据的定时更新和迁移。当然目标源数据脚本得能查询出来当天的增量数据。

下边我配置的定时执行脚本任务。如下


TIME=$(date "+%Y%m%d")
sh /data/data-integration/pan.sh -file=/home/data-integration/ktr/data_transfer.ktr -norep >> /home/data-integration/ktr/log/log-"$TIME".log
          

这样,通过日志,可直接查看任务的执行情况。

记录一下: Kettle中文网

http://www.kettle.org.cn/

好了,通过Kettle 定时迁移大数据量的逻辑,是上边写的这部分了,欢迎大家拍砖。

望不吝小手,给点个赞,在此多谢啦!

相关推荐

十分钟让你学会LNMP架构负载均衡(impala负载均衡)

业务架构、应用架构、数据架构和技术架构一、几个基本概念1、pv值pv值(pageviews):页面的浏览量概念:一个网站的所有页面,在一天内,被浏览的总次数。(大型网站通常是上千万的级别)2、u...

AGV仓储机器人调度系统架构(agv物流机器人)

系统架构层次划分采用分层模块化设计,分为以下五层:1.1用户接口层功能:提供人机交互界面(Web/桌面端),支持任务下发、实时监控、数据可视化和报警管理。模块:任务管理面板:接收订单(如拣货、...

远程热部署在美团的落地实践(远程热点是什么意思)

Sonic是美团内部研发设计的一款用于热部署的IDEA插件,本文其实现原理及落地的一些技术细节。在阅读本文之前,建议大家先熟悉一下Spring源码、SpringMVC源码、SpringBoot...

springboot搭建xxl-job(分布式任务调度系统)

一、部署xxl-job服务端下载xxl-job源码:https://gitee.com/xuxueli0323/xxl-job二、导入项目、创建xxl_job数据库、修改配置文件为自己的数据库三、启动...

大模型:使用vLLM和Ray分布式部署推理应用

一、vLLM:面向大模型的高效推理框架1.核心特点专为推理优化:专注于大模型(如GPT-3、LLaMA)的高吞吐量、低延迟推理。关键技术:PagedAttention:类似操作系统内存分页管理,将K...

国产开源之光【分布式工作流调度系统】:DolphinScheduler

DolphinScheduler是一个开源的分布式工作流调度系统,旨在帮助用户以可靠、高效和可扩展的方式管理和调度大规模的数据处理工作流。它支持以图形化方式定义和管理工作流,提供了丰富的调度功能和监控...

简单可靠高效的分布式任务队列系统

#记录我的2024#大家好,又见面了,我是GitHub精选君!背景介绍在系统访问量逐渐增大,高并发、分布式系统成为了企业技术架构升级的必由之路。在这样的背景下,异步任务队列扮演着至关重要的角色,...

虚拟服务器之间如何分布式运行?(虚拟服务器部署)

  在云计算和虚拟化技术快速发展的今天,传统“单机单任务”的服务器架构早已难以满足现代业务对高并发、高可用、弹性伸缩和容错容灾的严苛要求。分布式系统应运而生,并成为支撑各类互联网平台、企业信息系统和A...

一文掌握 XXL-Job 的 6 大核心组件

XXL-Job是一个分布式任务调度平台,其核心组件主要包括以下部分,各组件相互协作实现高效的任务调度与管理:1.调度注册中心(RegistryCenter)作用:负责管理调度器(Schedule...

京东大佬问我,SpringBoot中如何做延迟队列?单机与分布式如何做?

京东大佬问我,SpringBoot中如何做延迟队列?单机如何做?分布式如何做呢?并给出案例与代码分析。嗯,用户问的是在SpringBoot中如何实现延迟队列,单机和分布式环境下分别怎么做。这个问题其实...

企业级项目组件选型(一)分布式任务调度平台

官网地址:https://www.xuxueli.com/xxl-job/能力介绍架构图安全性为提升系统安全性,调度中心和执行器进行安全性校验,双方AccessToken匹配才允许通讯;调度中心和执...

python多进程的分布式任务调度应用场景及示例

多进程的分布式任务调度可以应用于以下场景:分布式爬虫:importmultiprocessingimportrequestsdefcrawl(url):response=re...

SpringBoot整合ElasticJob实现分布式任务调度

介绍ElasticJob是面向互联网生态和海量任务的分布式调度解决方案,由两个相互独立的子项目ElasticJob-Lite和ElasticJob-Cloud组成。它通过弹性调度、资源管控、...

分布式可视化 DAG 任务调度系统 Taier 的整体流程分析

Taier作为袋鼠云的开源项目之一,是一个分布式可视化的DAG任务调度系统。旨在降低ETL开发成本,提高大数据平台稳定性,让大数据开发人员可以在Taier直接进行业务逻辑的开发,而不用关...

SpringBoot任务调度:@Scheduled与TaskExecutor全面解析

一、任务调度基础概念1.1什么是任务调度任务调度是指按照预定的时间计划或特定条件自动执行任务的过程。在现代应用开发中,任务调度扮演着至关重要的角色,它使得开发者能够自动化处理周期性任务、定时任务和异...

取消回复欢迎 发表评论: