百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

高效的并行数据库备份和恢复工具(并行数据库系统的优缺点)

liuian 2025-03-29 19:28 15 浏览

目录


一、gpbackup/gprestore

二、gpcopy


一、gpbackup/gprestore

Greenplum数据库从5.5.0版本开始,基于内置的COPY……ON SEGMENT命令,发布了更加高效的基于Greenplum的gpbackup/gprestore实用工具。关于COPY……ON SEGMENT命令的详细介绍,请参考6.1.1节。总的来说,gpbackup只存储对象的元表文件和DDL文件,且备份文件的生成、压缩和存储是在每个Segment上完成的,因此更加高效。gpbackup的元表信息包含gprestore运行需要的所有信息。另外,把数据存储为csv格式使得数据同样可以被其他工具(比如gpload)加载到同一个集群或者另外一个集群。每一个gpbackup的任务使用单个Greenplum中的事务。在事务执行期间,元表信息会备份到Master节点,而数据文件则通过COPY……ON SEGMENT命令并行备份到Segment节点。在备份过程中,备份进程只会获取备份表上的ACCESS SHARE表锁,不会阻塞线上Greeplum对外正常提供服务。

具体来说,gpbackup相比之前的gpcrondump做了以下优化和增强:

  • 减少对元表(catalog)的加锁。
  • 增强的监控管理和备份日志。
  • 支持csv文件格式。
  • 可插拔的第三方数据接口支持。
  • 增强的对元表(catalog)的查询性能。
  • 并行同步备份的支持。
  • 细粒度选择备份对象(角色、函数等),而不是基于表级。
  • 特殊字符支持(\t\n等)。
  • 完全基于Go语言重写,避免了Python多版本问题。

1)减少或优化对元表(catalog)的加锁以提高Greenplum在线服务能力和备份性能:

不对pg_class表加锁,减少因为pg_class大锁的竞争导致其他操作终止执行。

不加表级的EXCLUSIVE锁,只加表级的ACCESS SHARE锁,从而减少对表的竞争访问,提高并发量。

基于多版本同步控制(MVCC),利用COPY语句在Segment上直接进行数据导入/导出。

移植了PostgreSQL 9.1锁的新特性,提高性能。

提供可选的多种一致性级别,可根据使用场景灵活选择。

2)增强备份过程中的监控管理和日志输出:

利用心跳来探测备份进程是否还在运行。

备份进度指示条。

保留历史的进度信息,可用于估计本次备份所花的时间,以及判断本次备份是否存在性能问题。

可通过配置选择性恢复指定数据文件。

增强的备份结果报告文档,并且对邮件报警部分进行改造。

3)COPY用于导入和导出数据:

利用改进的COPY命令,可以直接并行运行在Segment上,而不需要像之前那样通过Master单节点。

更加灵活,可以为每个Segment的每个表生成独立的csv文件,从而提高恢复的并行性。

4)可插拔的外部数据源API:

可灵活支持各种第三方数据平台,包括Data Domain、Commvault等。

可支持各种基于云的存储,包括AWS、Azure、GCP等。

具备灵活性,可将备份数据对接到用户提供的定制化程序。

容灾备份,可将备份数据对接到远程Greenplum集群。

gpbackup/gprestore可支持的细粒度选择对象如表

使用注意点:

  • 如果用户在分区表的父表上创建索引,备份时不会为子表备份出相应索引,因为在子表上创建相同的索引会导致错误。但是如果用户使用过交换分区操作,gpbac-kup检测不到新的子表上的索引是来自父表,恢复时可能会导致重复创建索引的错误。
  • 用户可以执行多个gpbackup,但是每个gpbackup拥有不同的时间戳。
  • 数据库对象的过滤目前只限于Schema和表。
  • 如果用户使用--single-data-file选项,那么每个Segment上的备份数据都会集中到一个文件中,在恢复时用户就失去并行的可能性。
  • 增量备份目前还只支持追加(Append Optimized)表和列存(ColumnOriented)表。

gpbackup不支持下列Schema下的数据备份:

  • gp_toolkit
  • information_schema
  • pg_aoseg
  • pg_bitmapindex
  • pg_catalog
  • pg_toast*
  • pg_temp*

1.1 实战

bin]$ gpbackup --dbname qmsprd 20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-gpbackup version = 1.20.220210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Greenplum Database Version = 6.2.1 build commit:d90ac1a1b983b913b3950430d4d9e47ee8827fd420210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Starting backup of database qmsprd20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup Timestamp = 2021022315312020210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup Database = qmsprd20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Gathering table state information20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Acquiring ACCESS SHARE locks on tablesLocks acquired:  82 / 82 [==============================================================] 100.00% 0s20210223:15:31:20 gpbackup:gpadmin:gptest01:003409-[INFO]:-Gathering additional table metadata20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting partition definitions20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting storage information20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Getting child partitions with altered schema20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Metadata will be written to /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gpbackup_20210223153120_metadata.sql20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing global database metadata20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Global database metadata backup complete20210223:15:31:21 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing pre-data metadata20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Pre-data metadata metadata backup complete20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing post-data metadata20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Post-data metadata backup complete20210223:15:31:22 gpbackup:gpadmin:gptest01:003409-[INFO]:-Writing data to fileTables backed up:  82 / 82 [=========================================================] 100.00% 6m28s20210223:15:37:50 gpbackup:gpadmin:gptest01:003409-[INFO]:-Data backup complete20210223:15:37:51 gpbackup:gpadmin:gptest01:003409-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:15:37:51 gpbackup:gpadmin:gptest01:003409-[INFO]:-Email containing gpbackup report /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gpbackup_20210223153120_report will not be sent20210223:15:37:52 gpbackup:gpadmin:gptest01:003409-[INFO]:-Backup completed successfully

运行完之后查看备份结果

master:

运行完上述命令后,可以看到在Master节点上全局和各个数据库的元信息,其格式为$MASTER_DATA_DIRECTORY/backups//

segment:

每个Segment节点在目录/backups///下会存储压缩后的csv格式的备份数据:

如何恢复?

恢复过程中必须通过--timestamp选项指定,同时可指定--create-db选项使得恢复过程有助于重建缺失的数据库。

~]$ gprestore --timestamp 20210223153120 --create-db20210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Restore Key = 2021022315312020210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-gpbackup version = 1.20.220210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-gprestore version = 1.20.220210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Greenplum Database Version = 6.2.1 build commit:d90ac1a1b983b913b3950430d4d9e47ee8827fd420210223:16:19:19 gprestore:gpadmin:gptest01:044186-[INFO]:-Creating database20210223:16:19:21 gprestore:gpadmin:gptest01:044186-[INFO]:-Database creation complete for: qmsprd20210223:16:19:21 gprestore:gpadmin:gptest01:044186-[INFO]:-Restoring pre-data metadataPre-data objects restored:  338 / 338 [================================================] 100.00% 19s20210223:16:19:41 gprestore:gpadmin:gptest01:044186-[INFO]:-Pre-data metadata restore completeTables restored:  82 / 82 [=========================================================] 100.00% 10m24s20210223:16:30:05 gprestore:gpadmin:gptest01:044186-[INFO]:-Data restore complete20210223:16:30:05 gprestore:gpadmin:gptest01:044186-[INFO]:-Restoring post-data metadataPost-data objects restored:  69 / 158 [======================>-----------------------------]  43.67%20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[CRITICAL]:-ERROR: could not create unique index "wpp_sht_info_n_1_prt_p2019_pkey"  (seg3 10.50.10.170:6003 pid=44257) (SQLSTATE 23505)20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:16:32:15 gprestore:gpadmin:gptest01:044186-[INFO]:-Email containing gprestore report /gpmaster/gp/master/gpseg-1/backups/20210223/20210223153120/gprestore_20210223153120_20210223161919_report will not be sent

gpbackup 提供了多个参数,可以使用 --help查看.

如果只需要备份表结构,则可以使用--metadata

~]$gpbackup --dbname qmsprd --metadata-only20210223:16:29:34 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Starting backup of database qmsprd20210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup Timestamp = 2021022316293420210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup Database = qmsprd20210223:16:29:35 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Gathering list of tables for backup20210223:16:29:43 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Acquiring ACCESS SHARE locks on tablesLocks acquired:  1525 / 1525 [=========================================================] 100.00% 11s20210223:16:29:54 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Gathering additional table metadata20210223:16:31:19 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Metadata will be written to /gpmaster/gpseg-1/backups/20210223/20210223162934/gpbackup_20210223162934_metadata.sql20210223:16:31:19 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing global database metadata20210223:16:31:20 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Global database metadata backup complete20210223:16:31:20 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing pre-data metadata20210223:16:33:32 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Pre-data metadata backup complete20210223:16:33:32 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Writing post-data metadata20210223:16:33:55 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Post-data metadata backup complete20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Found neither /opt/greenplum/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Email containing gpbackup report /gpmaster/gpseg-1/backups/20210223/20210223162934/gpbackup_20210223162934_report will not be sent20210223:16:40:53 gpbackup:gpadmin:P1QMSMDW01:028718-[INFO]:-Backup completed successfully

试想一下?如果两个集群的规模不一致,那gpbackup / gprestore还能用吗?

答案是否定的.会有如下报错

 backups]$ gprestore --timestamp 20210223162934 --metadata-only  --create-db 20210223:17:10:27 gprestore:gpadmin:gpmaster:013990-[INFO]:-Restore Key = 2021022316293420210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[CRITICAL]:-Backup directories missing or inaccessible on 6 segments. See /home/gpadmin/gpAdminLogs/gprestore_20210223.log for a complete list of errors.20210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[INFO]:-Found neither /usr/local/greenplum-db/./bin/gp_email_contacts.yaml nor /home/gpadmin/gp_email_contacts.yaml20210223:17:10:28 gprestore:gpadmin:gpmaster:013990-[INFO]:-Email containing gprestore report /greenplum/gpdata/master/gpseg-1/backups/20210223/20210223162934/gprestore_20210223162934_20210223171027_report will not be sent

但是既然生成metadata的sql已经存在了。那么可以使用 psql来重放sql来实现。例如

psql -af test.sql > import_metadata.log 2>&1

-a, --echo-all echo all input from script
-f, --file=FILENAME execute commands from file, then exit

因为psql 的输出都是标准输出,因此可以将其重定向到log中。

2>&1 代表的是将标准错误输出和标准输出合并 输入到import_metadata.log

二、gpcopy

实际业务场景如下

升级:16节点的Greenplum 4.3集群迁移到16节点的Greenplum 6.x集群

迁移:8节点的Greenplum4.x集群迁移到16节点的Greenplum 6.x集群

GPCOPY可以迁移整个集群,也可以传输某些数据库、命名空间和表;可以从正则表达式匹配需要传输的数据表;可以略过、追加或者替换目标集群的数据;可以并行传输;可以只迁移数据表的定义信息。GPCOPY利用了Greenplum的COPY…ON SEGMENT特性,基于Segment间直接传输数据获得性能加速。

GPCOPY会在源端和目标端同时执行COPY…ON SEGMENT命令。该命令会被Master下发到每个Segment,在其上执行COPY命令。源端Segment会创建到目标端Segment的连接。当连接创建成功后,源端Segment执行COPY TO命令,将数据表的内容通过连接发送出去,而目标Segment执行COPYFROM命令,从连接上等待接收源端传过来的内容。如果开启了压缩选项,在数据发送前会进行压缩,数据接收后会先进行解压缩。在数据传输过程中,在源端和目标端都各自开启了数据库事务,如果传输中间有错误发生,也可以保证数据的完整性。

GPCOPY的核心功能包括以下几点:

1)Snappy压缩传输。GPCOPY默认打开压缩选项,使用Google的Snappy格式对所传输的数据进行压缩,网络传输压力更小,速度也更快。Snappy对大多数数据的压缩比zlib的最快模式还要快几个数量级。在Core i7的单核64位模式下,Snappy压缩速度可以达到250MB/s或更快,解压缩可以达到大约500MB/s或更快。

2)高效好用的数据校验。判断两个数据库系统的表是否一致不是一个简单的问题,使用哈希校验的话要考虑条目的顺序,使用排序的话又会降低速度。如果这两个数据库系统和Greenplum一样是集群系统,这个问题就更难解决了。而GPCOPY灵活地解决了这个问题,既不需要排序,数据校验的速度又比通过导出csv数据文件进行哈希快几倍。

3)完善的日志记录和错误处理。GPCOPY将数据传输过程中每一步的操作、执行的查询、命令和结果都写到日志文件中,并根据用户指定的级别显示到标准输出。数据迁移操作通过事务块进行保护,发生错误时可以做到表一级的回滚。运行结束时会有详细的成功或失败的总结信息,同时生成和提示用户运行命令去重试所有发生过错误的操作。用户环境如果出现错误,结合GPCOPY和Greenplum的日志文件,可以迅速地定位问题,保障数据迁移顺利进行。

4)GPCOPY用于升级。Greenplum版本升级一般会有catalog变化,只升级可执行文件会导致数据不兼容,利用GPCOPY则可以做到原地升级。另外,因为有了快速好用的数据校验,用户也可以放心地一边迁移数据一边释放空间。对于磁盘空间紧张的用户,不再需要准备双倍空间用于升级,节省了系统资源。

5)支持不同节点数的Greenplum集群间传输。从上图可以看到,当目标集群和源集群节点数不同时,也可以使用GPCOPY进行高效数据迁移

--analyze:数据迁移结束后,是否需要对数据表进行Analyze操作。执行Analyze操作需要花费一些时间,但是会生产准确的统计信息供查询优化器使用,以生成更加高效的查询计划。默认关闭。

--jobs:数据迁移时指定的并行度。数据会分批次迁移,该选项指定每批迁移多少个表。

--metadata-only:只在目标数据库中创建表的定义,不进行实际的数据迁移。

--truncate:如果目标数据库中相同名字的数据库表已经存在,是否在开始迁移前清空目标数据库表的数据。

--append:如果目标数据库中相同表名字的数据库表已经存在,是否保留之前的数据。该选项与--truncate互斥。

gpcopy实战操作

相关推荐

GANs为何引爆机器学习?这篇基于TensorFlow的实例教程为你解惑!

「机器人圈导览」:生成对抗网络无疑是机器学习领域近三年来最火爆的研究领域,相关论文层出不求,各种领域的应用层出不穷。那么,GAN到底如何实践?本文编译自Medium,该文作者以一朵玫瑰花为例,详细阐...

高丽大学等机构联合发布StarGAN:可自定义表情和面部特征

原文来源:arXiv、GitHub作者:YunjeyChoi、MinjeChoi、MunyoungKim、Jung-WooHa、SungKim、JaegulChoo「雷克世界」编译:嗯~...

TensorFlow和PyTorch相继发布最新版,有何变化

原文来源:GitHub「机器人圈」编译:嗯~阿童木呀、多啦A亮Tensorflow主要特征和改进在Tensorflow库中添加封装评估量。所添加的评估量列表如下:1.深度神经网络分类器(DNNCl...

「2022 年」崔庆才 Python3 爬虫教程 - 深度学习识别滑动验证码缺口

上一节我们使用OpenCV识别了图形验证码躯壳欧。这时候就有朋友可能会说了,现在深度学习不是对图像识别很准吗?那深度学习可以用在识别滑动验证码缺口位置吗?当然也是可以的,本节我们就来了解下使用深度...

20K star!搞定 LLM 微调的开源利器

LLM(大语言模型)微调一直都是老大难问题,不仅因为微调需要大量的计算资源,而且微调的方法也很多,要去尝试每种方法的效果,需要安装大量的第三方库和依赖,甚至要接入一些框架,可能在还没开始微调就已经因为...

大模型DeepSeek本地部署后如何进行自定义调整?

1.理解模型架构a)查看深度求索官方文档或提供的源代码文件,了解模型的结构、输入输出格式以及支持的功能。模型是否为预训练权重?如果是,可以在预训练的基础上进行微调(Fine-tuning)。是否需要...

因配置不当,约5000个AI模型与数据集在公网暴露

除了可访问机器学习模型外,暴露的数据还可能包括训练数据集、超参数,甚至是用于构建模型的原始数据。前情回顾·人工智能安全动态向ChatGPT植入恶意“长期记忆”,持续窃取用户输入数据多模态大语言模型的致...

基于pytorch的深度学习人员重识别

基于pytorch的深度学习人员重识别Torchreid是一个库。基于pytorch的深度学习人员重识别。特点:支持多GPU训练支持图像的人员重识别与视频的人员重识别端到端的训练与评估简单的re...

DeepSeek本地部署:轻松训练你的AI模型

引言:为什么选择本地部署?在AI技术飞速发展的今天,越来越多的企业和个人希望将AI技术应用于实际场景中。然而,对于一些对数据隐私和计算资源有特殊需求的用户来说,云端部署可能并不是最佳选择。此时,本地部...

谷歌今天又开源了,这次是Sketch-RNN

前不久,谷歌公布了一项最新技术,可以教机器画画。今天,谷歌开源了代码。在我们研究其代码之前,首先先按要求设置Magenta环境。(https://github.com/tensorflow/magen...

Tensorflow 使用预训练模型训练的完整流程

前面已经介绍了深度学习框架Tensorflow的图像的标注和训练数据的准备工作,本文介绍一下使用预训练模型完成训练并导出训练的模型。1.选择预训练模型1.1下载预训练模型首先需要在Tensorf...

30天大模型调优学习计划(30分钟训练大模型)

30天大模型调优学习计划,结合Unsloth和Lora进行大模型微调,掌握大模型基础知识和调优方法,熟练应用。第1周:基础入门目标:了解大模型基础并熟悉Unsloth等工具的基本使用。Day1:大模...

python爬取喜马拉雅音频,json参数解析

一.抓包分析json,获取加密方式1.抓包获取音频界面f12打开抓包工具,播放一个(非vip)视频,点击“媒体”单击打开可以复制URL,发现就是我们要的音频。复制“CKwRIJEEXn-cABa0Tg...

五、JSONPath使用(Python)(json数据python)

1.安装方法pipinstalljsonpath2.jsonpath与Xpath下面表格是jsonpath语法与Xpath的完整概述和比较。Xpathjsonpath概述/$根节点.@当前节点...

Python网络爬虫的时候json=就是让你少写个json.dumps()

大家好,我是皮皮。一、前言前几天在Python白银交流群【空翼】问了一个Python网络爬虫的问题,提问截图如下:登录请求地址是这个:二、实现过程这里【甯同学】给了一个提示,如下所示:估计很多小伙伴和...