百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

大数据平台架构简介(大数据平台架构简介怎么写)

ccwgpt 2025-03-14 15:24 32 浏览 0 评论

本文从大数据的整体架构出发,分层介绍了不同组件的应用场景。可以对大数据的初学者提供一定的参考。以下为集群架构图:

大数据架构图

该架构自下而上分为3层,分别是数据采集层数据存储和处理层应用层

下面分层介绍下各层组件的大致用法。

1.数据采集层

数据采集分为了实时采集和批量采集,实时采集主要通过Kafka和Spark Streaming,批量采集则用Datax,Sqoop,Shell和Python脚本完成。

1.1 Datax

目前作为我司主流的批量数据同步工具,主要用于一些逻辑简单的单表数据同步,如 Oracle->MySQL, Oracle->HDFS,MySQL->MySQL,MySQL->HDFS,HDFS->MySQL等。

这里的HDFS都是直接写入到了Hive表的存储路径。

1.2 Sqoop

部分很老的脚本仍在使用,如MySQL->Hive, Oracle->MySQL等,已经基本弃用。

1.3 Python脚本

部分人在用,用Python脚本做一些MySQL之间和Oracle和MySQL之间的数据同步。

1.4 Shell脚本

主要做一些复杂逻辑的数据同步。

如:同步的数据是多张MySQL表Join获得的,或者同步来的数据要写入到Hive分区表(通常会结合Datax,将批量数据写入临时表,然后查询临时表,处理分区字段写入到分区表内)。

1.5 Kafka+Spark Streaming的实时同步

这部分一般是客户端/服务端的用户行为数据,一部分是用户客户端自己上报(如用户的点击),一部分是Flume采集的服务器日志,发送到Kafka,这类数据一般都是实时的。通过Kafka的MirrorMaker把数据镜像到分析环境的Kafka,我们就可以用Spark Streaming应用程序消费,然后落地到HDFS,Hbase,ES等。

二、数据存储和处理层

这一层主要是数据的存储和处理,常用的组件有Hive,Hbase,Spark, ES等。

2.1 Hive

作为传统的数仓工具,存储着各个渠道同步过来的数据,同时也是业务分析人员常用的分析工具。一般业务数据会通过批量同步工具导入到Hive表,用户行为数据则会通过实时采集存储到HDFS,然后再洗成Hive表。

2.2 Hbase

主要两种用途,第一,作为实时计算的中间数据存储,第二,用于存储一些快照数据。

Hbase可以与Hive集成,可以有效利用HBase数据库的存储特性,如行更新和列索引等来更新Hive表。不过这种集成执行Hive查询效率极低。需要权衡考虑使用。

2.3 Spark

部分离线应用会使用Hive on Spark,把Spark作为Hive的一个计算引擎,将Hive的查询作为Spark的任务提交到Spark集群上进行计算。该方法可以提高Hive查询的性能,同时为已经部署了Hive或者Spark的用户提供了更加灵活的选择。

实时应用则会通过Spark Streaming结合Hbase做一些逻辑计算,然后将实时计算结果传给下游开发人员。

2.4 ES

存储Spark Streaming实时格式化后的数据,主要用于一些客服,运维人员的数据查证。也可以存储APP等的报错数据,用于异常定位。

三、数据应用层

数据应用层主要是各种报表数据支持,分析报告,接口服务,APP数据支持和违规打击等等。

  • 报表数据支持和分析报告:主要通过Shell脚本+MySQL+Tableau来实现。Shell脚本做各种数据分析,将结果写入MySQL,Tableau再以MySQL数据作为数据源,进行数据展示。
  • 接口服务:主要通过SpringBoot+Hbase组合,开放接口给下游开发人员。
  • APP/活动数据支持:主要通过Spark Streaming+Hbase做数据计算,Kafka作为数据传输通道。
  • 违规打击:主要通过Spark Streaming+MySQL+Hbase+Kafka实现,MySQL用于存储违规打击的规则,Spark Streaming+Hbase用于玩家违规计算,kafka传输违规玩家数据给下游处罚方。

四、最后

这只是一个最常规的大数据架构,一些组件并没有介绍,如负责脚本调度的azkaban,应用协调的zookeeper,集群资源管理的yarn,用于计算的MapReduce,hadoop的图形化截面hue,权限管理的sentry等等。

此外现在比较火的实时数仓也没有涉及(如ClickHouse,Kudu,Flink等等)。

相关推荐

定时任务工具,《此刻我要...》软件体验

之前果核给大家介绍过一款小众但实用的软件——小说规则下载器,可以把网页里的小说章节按照规则下载到本地,非常适合喜欢阅读小说的朋友。有意思的是,软件作者当时看到果核写的体验内容后,给反推荐到他的帖子里去...

前端定时任务的神库:Node-cron,让你的项目更高效!

在前端开发中,定时任务是一个常见的需求。无论是定时刷新数据、轮询接口,还是发送提醒,都需要一个可靠且灵活的定时任务解决方案。今天,我要向大家介绍一个强大的工具——Node-cron,它不仅能解决定时任...

Shutter Pro!一款多功能定时执行任务工具

这是一款可以在电脑上定时执行多种任务的小工具,使用它可以根据时间,电量等来设定一些定时任务,像定时打开程序、打开文件,定时关机重启,以及定时弹窗提醒等都可以轻松做到。这是个即开即用的小工具,无需安装,...

深度解析 Redis 缓存击穿及解决方案

在当今互联网大厂的后端开发体系中,Redis缓存占据着极为关键的地位。其凭借高性能、丰富的数据类型以及原子性操作等显著优势,助力众多高并发系统从容应对海量用户的访问冲击,已然成为后端开发从业者不可或...

从零搭建体育比分网站完整步骤(比较好的体育比分软件)

搭建一个体育比分网站是一个涉及前端、后端、数据源、部署和维护的完整项目。以下是从零开始搭建的详细流程:一、明确项目需求1.功能需求:实时比分展示(如足球、篮球、网球等)支持多个联赛和赛事历史数据查询比...

告别复杂命令行:GoCron 图形界面让定时任务触手可及

如果你是运维人员或者经常接触一些定时任务的配置,那么你一定希望有一款图形界面来帮助你方便的轻松配置定时任务,而GoCron就是这样一款软件,让你的配置可视化。什么是GoCron从名字你就可以大概猜到,...

Java任务管理框架核心技术解析与分布式高并发实战指南

在当今数字化时代,Java任务管理框架在众多应用场景中发挥着关键作用。随着业务规模的不断扩大,面对分布式高并发的复杂环境,掌握其核心技术并进行实战显得尤为重要。Java任务管理框架的核心技术涵盖多个方...

链表和结构体实现:MCU软件定时器(链表在单片机中的应用)

在一般的嵌入式产品设计中,介于成本、功耗等,所选型的MCU基本都是资源受限的,而里面的定时器的数量更是有限。在我们软件设计中往往有多种定时需求,例如脉冲输出、按键检测、LCD切屏延时等等,我们不可能...

SpringBoot定时任务(springboot定时任务每小时执行一次)

前言在我们开发中,经常碰到在某个时间点去执行某些操作,而我们不能人为的干预执行,这个时候就需要我们使用定时任务去完成该任务,下面我们来介绍下载springBoot中定时任务实现的方式。定时任务实现方式...

定时任务新玩法!systemd timer 完整实战详解

原文链接:「链接」Hello,大家好啊!今天给大家带来一篇使用systemdtimer实现定时任务调度的详细实战文章。相比传统的crontab,systemdtimer更加现代化、结构清晰...

Celery与Django:打造高效DevOps的定时任务与异步处理神器

本文详细介绍了Celery这一强大的异步任务队列系统,以及如何在Django框架中应用它来实现定时任务和异步处理,从而提高运维开发(DevOps)的效率和应用性能。下面我们先认识一下Cele...

订单超时自动取消的7种方案,我用这种!

前言在电商、外卖、票务等系统中,订单超时未支付自动取消是一个常见的需求。这个功能乍一看很简单,甚至很多初学者会觉得:"不就是加个定时器么?"但真到了实际工作中,细节的复杂程度往往会超...

裸机下多任务框架设计与实现(gd32裸机配置lwip 网络ping不通)

在嵌入式系统中,特别是在没有操作系统支持的裸机环境下,实现多任务执行是一个常见的挑战。本文将详细介绍一种基于定时器的多任务框架设计,通过全局时钟和状态机机制,实现任务的非阻塞调度,确保任务执行中不会出...

亿级高性能通知系统构建,小白也能拿来即用

作者介绍赵培龙,采货侠JAVA开发工程师分享概要一、服务划分二、系统设计1、首次消息发送2、重试消息发送三、稳定性的保障1、流量突增2、问题服务的资源隔离3、第三方服务的保护4、中间件的容错5、完善...

运维实战:深度拆解Systemd定时任务原理,90%的人不知道的玩法

运维实战:深度拆解Systemd定时任务原理,90%的人不知道的高效玩法一、Systemd定时任务的核心原理Systemd定时任务是Linux系统中替代传统cron的现代化解决方案,通过...

取消回复欢迎 发表评论: