百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

oracle影响数据库打开速度的因素-前滚和回滚

ccwgpt 2024-11-25 10:23 58 浏览 0 评论

当Oracle发起一个事务需要更改数据时,如果所涉及的数据块不在BUFFER CACHE中,那么Oracle服务进程首先会将相关数据块从数据文件中读进BUFFER CACHE进行更改(直接路径读除外),更改后的数据块被称为脏块(DIRTY BLOCK)。当事物提交或者回滚时,基于性能上的考虑,脏块并不会立刻写至数据文件,而是由LGWR进程优先将脏块的信息写至ONLINE REDOLOG,只有当LGWR进程返回写成功之后,事务才算提交成功。这就是Oracle为了保证不丢数据的“日志优先写”原则。提示 为了保证数据不丢失,LGWR进程写REDOLOG时,一般会采用同步I/O。

日志写优先的问题

“日志优先写”原则带来的问题就是当数据库异常宕机时,可能会仍有部分脏块在BUFFER CACHE的脏缓冲区列表中,并没写进数据文件。

实例前滚及后滚(先前滚后回滚)

前滚:通过redolog重构未写进数据文件的脏块信息,通知DBWR进程将脏块写进数据文件

回滚:回滚异常宕机时未提交的脏的数据块,未回滚的事务,通过扫描undo进行这些事务的回滚。

启动数据库时,首先会由服务器进程进行实例恢复(CRASH RECOVERY,又叫前滚),即服务器进程扫描ONLINE REDOLOG,在BUFFER CACHE中重构未写进数据文件的脏块信息之后,会通知DBWR进程将脏块写进数据文件。CRASH RECOVERY完毕以后,BUFFER CACHE里既有数据库异常宕机时已经提交还没有写入数据文件的脏数据块,又包含了事务被突然终止,以致既没有提交又没有回滚的事务所弄脏的数据块。CRASH RECOVER完成操作之后则由SMON进程扫描UNDO段头进行事务恢复(TX RECOVERY,又叫后滚),最终将数据库恢复至宕机前的那一刻。图4-4清晰地展示了这一过程。

由前面分析可知,除去硬件性能等因素以外,数据库打开的速度受两个自身因素影响:

◆ 在线日志(ACTIVE和CURRENT状态)所对应的脏块数量。脏块数量越多,数据库恢复的时间就越长,数据库打开速度越慢。需要恢复的脏块的数量可以在CRASH RECOVERY日志中看到,如下所示:

Sat Jul 28 22:27:47 2012
Completed redo scan
134146 redo blocks read,8902 data blocks need recovery

◆ 需要恢复的事务的数量和大小。事务数量越多,事务越大,数据库打开越慢。为加快事务恢复速度,后台进程往往采用并行恢复,其并行度主要受参数fast_start_parallel_rollback影响。

CHECKPOINT优化

Oracle引入增量CHECKPOINT的目的是将BUFFER CACHE中的脏块写操作分散到不同的时间点完成,但在I/O压力比较大的业务系统下,过于频繁的脏块写操作显然会给系统带来额外的负担,甚至影响业务系统的响应时间,那么我们需要对此进行一些优化,我们不能改变CHECKPOINT的算法,但是可以减少DBWR进程写脏块的频率。以下便是业务系统在不同I/O压力下的优化思路。

在I/O压力比较大的系统中,建议设置参数FAST_START_MTTR_TARGET为0或者将参数设置成较大值(如3000),从而降低DBWR写脏块的频率,使得脏块尽可能地保存在BUFFER CACHE中。对于ONLINE REDOLOG,如果其大小过小,容易引起在线日志的频繁切换,从而导致频繁的CHECKPOINT。为缓减I/O压力,在日志量较大的系统中,可以设置比较大的ONLINE REDOLOG(比如2GB或者4GB)。如果系统内存充足,建议设置较大的BUFFRE CACHE,不但更多的数据块可以保存在缓冲区中,而且可以进一步减少增量CHECKPOINT的频率。如果观察到DBWR进程比较繁忙(比如该进程CPU占用率较高),则可以设置db_writer_processes参数增加DBWR进程数量,从而加快CHECKPOINT速度。

提示 一般情况下,日志切换维持在20分钟左右比较合适。

在I/O压力较小的系统中,建议不要设置参数FAST_START_MTTR_TARGET(事实上Oracle默认就不设置该参数)。实践经验表明,数据库在异常宕机后的启动过程中,扫描和应用ONLINE REDOLOG的速度一般都能在几分钟内能完成。ONLINE REDOLOG的应用速度不仅跟脏块数量有关,还跟扫描数据文件头的数量有关,数据文件越多,其扫描速度越慢。

参考《DBA实战攻略》

相关推荐

想快速上手Python网络爬虫?这份实战指南你不能错过!

以下是关于Python网络爬虫实战的详细指南,涵盖基础知识、常用工具、实战案例及注意事项:一、爬虫基础概念1.什么是网络爬虫?o通过自动化程序从网页上抓取并提取数据的工具。o核心步骤:请求网...

python爬虫怎么副业接单

其实这个问题也挺重要的,花了时间花了经历去学了python爬虫,本想靠着这个技能去补贴家用或者挣点零花钱,但是发现有时候的单子是自己力所不能及的,有的东西真的是不会,又或者不知从何下手。那么这篇文章主...

用Python写了一个图像文字识别OCR工具

人生苦短,快学Python!在之前的文章里,我们多次尝试用Python实现文本OCR识别!今天我们要搞一个升级版:直接写一个图像文字识别OCR工具!引言最近在技术交流群里聊到一个关于图像文字识别的...

taskPyro:为 Python 任务与爬虫插上自动化翅膀的开源利器

在数据驱动的时代,无论是数据采集、ETL流程,还是定期的系统维护脚本,高效、可靠的任务调度成为了许多开发者和运维人员的刚需。特别是对于Python开发者而言,如何优雅地管理和调度日益增多的爬虫任...

网络爬虫:Python动态网页爬虫2种技术方式及示例

作者:糖甜甜甜https://mp.weixin.qq.com/s/5Dwh5cbfjpDfm_FRcpw1Ug这一讲,我将会为大家讲解稍微复杂一点的爬虫,即动态网页的爬虫。动态网页技术介绍动态网页爬...

30个小时搞定Python网络爬虫(全套详细版)

【课程介绍】适用人群1、零基础对Python网络爬虫感兴趣的学员2、想从事Python网络爬虫工程师相关工作的学员3、想学习Python网络爬虫作为技术储备的学员课程目标1、本课程的目标是将大家培养成...

python爬虫常用工具库总结

说起爬虫,大家可能第一时间想到的是python,今天就简单为大家介绍下pyhton常用的一些库。请求库:实现基础Http操作urllib:python内置基本库,实现了一系列用于操作url的功能。...

玛森:Python爬虫书籍推荐

  Python爬虫书籍推荐什么?玛森科技徐老师介绍,网络爬虫现在很火,不管业内人士或业外人士,大家对爬虫或多或少都有一些了解,网络爬虫通俗的讲,就是通过程序去互联网上面爬取想要的内容,并且爬取的过程...

如何入门python爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

爬虫修炼手册,Python爬虫学习入门Scrapy

爬虫就如同江湖中的神秘侠客,应运而生,成为了我们获取数据的得力助手。爬虫,正式名称是网络爬虫(WebCrawler),也被叫做网页蜘蛛、网络机器人,它是一段神奇的计算机代码,能够自动在互联网的信息...

如何入门 Python 爬虫?

1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...

有了这4张思维导图,带你Python(爬虫)轻松入门

刚接触Python爬虫,该怎么学更有效?指南君给大家带来了这四张思维导图。非常适合刚开始学Python爬虫的同学用于回顾知识点、巩固学习情况等。话不多说,快来学习Python爬虫入门的最强干货吧!P...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...

超实用!Python 在爬虫和自动化领域的 8 类工具与技术大盘点

Python在爬虫和自动化领域拥有丰富的工具库和框架,以下是一些常用工具和技术的分类整理,帮助你高效实现数据抓取和自动化任务:1.基础HTTP请求库oRequestso简洁的HTTP库...

学习Python的第四天之网络爬虫

30岁程序员学习Python的第四天之网络爬虫的Scrapy库Scrapy库的基本信息Scrapy库的安装在windows系统中通过管理员权限打开cmd。运行pipinstallscrapy即可安...

取消回复欢迎 发表评论: