DRBD概要介绍

 

DRBD简要介绍

DRBD,Distributed Replicated Block Device html

分布式冗余复制块设备,由相关Linux内核模块和脚本组成,用以构建高可用性集群(HA, High Availability clusters)。 node

基于软件的,无共享架构的,冗余复制的存储解决方案,可在服务器之间的对块设备(磁盘,磁盘的某个分区,LVM逻辑卷等块设备)进行远程实时镜像(mirror)。 数据库

其实现方式是经过网络来镜像整个块设备,所以,能够把DRBD看做是一种基于网络的RAID-1。 缓存

 

======== 安全

高可用集群是指一组经过硬件和软件链接起来的独立计算机,它们在用户面前表现为一个单一系统,在这样的一组计算机系统内部的一个或者多个节点中止工做,服务会从故障节点切换到正常工做的节点上运行,不会引发服务中断。 服务器

========== 网络

无共享架构(shared-nothing architecture) 架构

Shared nothing架构(shared-nothing architecture)是一种分布式计算架构。架构中的每个节点( node)都是独立、自给的,并且整个系统中没有单点竞争。 异步

Shared Nothing在Web应用开发中尤为受到欢迎,究其缘由是这种方案提供的scalability。在一个纯Shared Nothing系统中,经过简单地增长一些廉价的计算机作为系统的节点却能够获取几乎无限的扩展。正是因为Shared Nothing架构中不存在单一瓶颈而下降系统运行速度。Google 称之为sharding。 分布式

Shared nothing系统一般须要将他的数据分布在多个节点的不一样数据库中(不一样的计算机处理不一样的用户和查询)或者要求每一个节点经过使用某些协调协议来保留它本身的应用程序数据备份,这一般被成为数据库Sharding。

 

DRBD的基本特性

  1. 实时性:当应用对磁盘的数据进行修改或修改完成时,复制当即发生。
  2. 透明性:应用程序的数据存储在镜像设备上是独立和透明的,数据可存储在不一样的服务器上。
  3. 同步镜像和异步镜像
  • 同步镜像,当本地发申请进行写操做进行时,同步写到两台服务器上
  • 异步镜像,当本地写申请已经完成对本地的写操做时,开始对对应的服务器进行写操做。

 

DRBD架构概要

 

image

Heartbeat的做用

Heartbeat 项目是 Linux-HA 工程的一个组成部分,它实现了一个高可用集群系统。心跳服务和集群通讯是高可用集群的两个关键组件,在 Heartbeat 项目里,由 heartbeat 模块实现了这两个功能。

failover:失效转移。通俗地说,即当A没法为客户服务时,系统可以自动地切换,使B可以及时地顶上继续为客户提供服务,且客户感受不到这个为他提供服务的对象已经更换。

image

 

DRBD与RAID-1的异同

相同点

  • 都是作镜像(Mirroring),全冗余。
  • 都具备高可靠性和安全性。
  • 高可用性。支持"热替换",即不断电的状况下对故障磁盘进行更换。
  • 磁盘的利用率都只有50%

 

不一样点

  • 实现机制不一样。DRBD经过网络进行Mirror镜像备份。
  • DRBD会感知设备底层的组成部分。而RAID-1虽然有两个存储设备,可是对于使用RAID-1系统的应用来讲,并不会感知到底层的组成部分,甚至若是有一块存储设备读/写失效时,也不会被应用感知。

image

 

DRBD组件

分为内核模块和用户空间管理工具.

DRBD技术的核心功能是Linux内核模块实现的。具体来讲,DRBD包含一个虚拟的块设备。

DRBD技术,是由Linux内核架构所支撑的,它创建在不可知的架构层上面。

所以,DRBD不可能添加了上层所具有的一些新特性。例如,DRBD技术不能自动检测文件系统损坏或添加双主动群集能力,像Ext3或者XFS文件系统。

 

DRBD的另一个重要组件是用户空间管理工具User space tools,管理和配置DRBD的资源(resource),与DRBD内核模块进行通讯。

安装了该工具后,主要有以下命令:

  • drbdadm:高层的DRBD程序管理套件工具。它从配置文件/etc/drbd.conf 中获取全部配置参数
  • drbd-overview
  • drbdsetup
  • drbdmeta

DRBD的角色

在DRBD中,全部资源都有本身的角色,包括主(Primary)或者次(Secondary)。

Primary设备,能够进行不受限制的读/写操做,可建立和挂载文件系统、初始化或者是直接I/O 的块设备等等。

Secondary设备,能够接收全部来自对等设备(Peer)的更新,可是,彻底拒绝访问也就是不能被使用(挂载)也不能被读/写访问,缘由是为了保持缓存的一致性。

 

在实际集群中,主和备的概念是根据存储的可用性的而肯定,一般状况下在高可用环境中主节点也每每是活动的节点,可是这不是必须的,也就是资源角色之间能够转换。

转换的方式主要有人工干预(manual intervention)或者用集群管理工具进行自动转换。其中资源从Secondary变为Primary,叫作升级(promotion),反之,资源从Primary变为Secondary,叫作降级(demotion)

 

人工干预: http://drbd.linbit.com/users-guide-9.0/s-switch-resource-roles.html

自动转换: http://drbd.linbit.com/users-guide-9.0/s-automatic-promotion.html

peer:对等端,在两个NameNode的环境下,指另一个NameNode

 

DRBD的资源

在DRBD中,资源是指全部特定的可复制数据集合的总称,包括:

  • 资源(resource)

image

  • DRBD设备,DRBD管理的虚拟块设备。它有一个主设备号为147的设备,默认的它的次要编号从0开始。相关的DRBD块设备命名为/dev/drbdX,其中X是设备的次要号码

  image

  • 配置文件。包括磁盘配置、网络配置。

 

Metadata 资源的两种存储方式:internally和externally。存储方式是在每一个resource配置段中指定的。这两种存储方式各有优缺点。

Internal metadata:

一个resource被配置成使用internal metadata,意味着DRBD把它的metadata,和实际生产数据存储于相同的底层物理设备中。该存储方式是在设备的最后位置留出一个区域来存储metadata。

优势:由于metadata是和实际生产数据紧密联系在一块儿的,若是发生了硬盘损坏,不须要管理员作额外的工做,由于metadata会随实际生产数据的丢失而丢失,一样会随着生产数据的恢复而恢复。

缺点:若是底层设备只有一块物理硬盘(和RAID相反),这种存储方式可能产生写竞争,对写操做的吞吐量有负面影响,由于应用程序的写操做请求会触发DRBD的metadata的更新。若是metadata存储于硬盘的同一块盘片上,那么,写操做会致使额外的两次磁头读写移动。

External metadata:

该存储方式比较简单,就是把metadata存储于一个和生产数据分开的专门的设备块中。

优势:对某些写操做,提供某些潜在的改进。

缺点:由于metadata和生产数据是分开的,若是发生了硬盘损坏,在更换硬盘后,须要管理员进行人工干预,从其它存活的节点向刚替换的硬盘进行彻底的数据同步。

何时应该使用Exteranl的存储方式:设备中已经存有数据,而该设备不支持扩展(如LVM),也不支持收缩(shrinking)。

相关文章
相关标签/搜索