欢迎来到我的范文网!

aix

自荐信 时间:2020-07-10

【www.myl5520.com--自荐信】

aix HDISK中丢失VGDA的恢复办法
篇一:aix删除vg

1台主机hdisk2的VGDA信息丢失,恢复的步骤:

datavg包含hdisk1 hdisk4 hdisk2,

hdisk2的VGDA信息丢失,(判断方法:lqueryvg -Atp hdisk2,无法得到结果)

导致hdisk2中的LV全部不能MOUNT。

#lsvg -p datavg

hdisk1 active datavg

hdisk2 missing datavg

hdisk4 active datavg

exportvg 以后,rmdev -dl hdisk2,此时hdisk2的PVID也没有了

lspv

hdisk2 none None

要恢复hdisk2中的LV信息,首先要把hdisk2想办法加入到datavg中。

# chdev -l hdisk2 -a pv=yes

此时,hdisk2又恢复了以前的PVID了。

# synclvodm datavg

将把hdisk2加入到datavg中,(因为系统的ODM库中,知道PVID=hdisk2是DATAVG的PV)

# lspv

hdisk2 0002039490ef datavg

# exportvg datavg (从ODM库中删除VGDA的信息)

# importvg -y datavg hdisk4 (不要HDISK2,因为此时HDISK2的VGDA是坏的)

importvg 的时候,系统会再次做synclvodm,这次将会把系统ODM中VGDA的信息同步到hdisk2上。

# lsvg -p datavg

hdisk1 active datavg

hdisk2 active datavg

hdisk4 active datavg

此时,HDISK2上的VGDA信息又恢复了。里面的LV可以读写了。不过对于HDISK2上的文件系统,需要做

个fsck

手工修改PVID

如果某人对硬盘做过"chdev -l hdiskX -a pv=clear"的话,那么即使再使用"chdev -l hdisk* -a pv=yes"也无法获得原来的PVID了,这样就会导致原来的VG没法使用了。一般我们会使用recreatvg来修复,但是这样的话不仅lv name,fs name都改了,甚至mount point都需要改掉,数据虽然保住了,但是非常的麻烦。

下面提供一个手工修改PVID的办法,以达到恢复数据的目的:

1. 首先取得硬盘VGDA区中的PVID。例如:

#lqueryvg -p hdisk* -P

000d097d5f36f79f 2 0

2. 将pvid转换成8进制,注意两个字符为一组。例如:

\00\015\011\0175\0137\066\0367\0237

3. 用dd将此PVID写入硬盘:

#echo "\00\015\011\0175\0137\066\0367\0237\c" | dd of=/dev/hdiskX bs=1 seek=128 count=8

4. 检查是否成功写入:

#dd if=/dev/hdiskX bs=1 skip=128 count=8 | od -x

5. 删除该盘,再重新认一遍:

#rmdev -dl hdiskX;cfgmgr –v

6. 最后再importvg

AIX上vg ,pv,filesystem基础
篇二:aix删除vg

AIX上vg ,pv,filesystem原理基础 (2012-03-07 20:27:56)

转载▼

我们在使用PV之前必须将其“加入”到Volume Group(VG,卷组)中,或直接在上面创建卷组。当PV从属于一个VG后,其空间被分为许多大小相同的最小分配单元,每一块被称为一个Physical Partitions(PP 物理分区)。这如建筑时将各种不规整的石头切成同样大小“砖头”同一个样,目的是以后建筑的过程中可以按照需要取用“砖头”堆砌,而不会受到“石头”形状、大小的限制。因此,VG中的 PP大小都相等,无论原有磁盘大小多少。我们可以继续在VG上创Logical Volume(LV,逻辑卷),这是留给程序使用的设备,可以跨多个磁盘(即 PV),但是不能跨越VG。创建逻辑卷时需要给逻辑卷指定名称和大小,大小的单位是PP的大小,即最少要占用1个PP大小的空间,最多

没有特别的限制。但在默认情况下,每个LV可能有256或512(根据不同操作系统版本)个PP的限制,不过这个限制是软限制,可以任意修改。

组成逻辑卷的真正单位是PP,但被称为LP,即Logical Partitions(LP,逻辑分区),引入额外的LP的原因是镜像。AIX 正是通过PP和LP之间的倍数对应关系,来实现数据镜像的。每个LP根据镜像要求,对应到1-3个PP的物理空间上,对应1代表没有镜像,2表示一份镜像,3表示两份镜像。在AIX中,逻辑卷被当作一种特殊的块设备,在/dev/目录下能看到对应的设备名,例如: /dev/rmylv ->charact(字符) 类型的设备名

/dev/mylv ->block (块) 类型的设备名

逻辑卷可以直接被应用程序使用,这种使用方式叫做裸设备方式;也可以在逻辑卷上创建文件系统,然后按照普通文件操作方式使用。aix删除vg。

当AIX识别到一个新PV时,先检查它是否有PVID。PVID是分配给每个PV的唯一识别号,记录在磁盘的操作系统保留区内,如果AIX已经(或者曾经)识别了这个磁盘,则会在ODM中也记录一份PVID。如果旧磁盘被移走,AIX中对应的设备(hdisk 会变成defined状态。但hdisk设备号保留,当磁盘“还”回来,使用cfgmgr会重新看到这一hdisk变为available状态。如果它是全新的磁盘,没有PVID,AIX只能看到磁盘设备available,而PVID一项是none。此时对此PV除了在其上创建VG或将其加入到某个已经建立的VG中、设置一个新的PVID、从系统中删除此PV之外,不能进行其它操作。而创建VG和加入VG动作将自动给这个 PV分配新的PVID 。重新置PVID命令有两个:

#chdev -l hdiskx -a pv=yes------>强制hdiskx分配一个新的PV ID

#chdev -l hdiskx -a pv=clear ------>强制清除hdiskx已经使用的PV ID

注意:

系统中管理PV完全依靠PV ID,尽管有诸如hdiskx这样的设备号可用,但是操

作系统对于磁盘的识别仍然是依靠PVID的,也就是说hdisk 数字可能会变,即使对于同一台小型机也是如此,而PVID永远不会改变,即使拿到另一台机器上PVID也不变(直到执行了以上可以改变PVID的操作)。保持PVID不变,靠PV ID识别共享磁盘也是双击热备份的基础。从另一个方面来讲,如果你用上面的命令改变了 PV ID,操作系统就认为原来的磁盘消失了,而且再也不能找回来。 更不巧的是如果原有的PV还属于某个VG,那么这个VG再也发现不了它原来的成员盘(PVID已经改变),这个盘上的数据就无法找回,虽然磁盘和数据依然在那里。修复这个问题只能直接用底层的ODM操作,已经超出了本书的范围,有兴趣的朋友可以自己研究下相关的材料。

VG被激活后才能被访问(读/写及察看VG信息等操作),同时此VG也被执行激活命令的操作系统映像“锁住”,不允许别的操作系统映像访问(包括执行激活命令)。激活与释放VG的命令分别是:

#varyonvg vg_name 激活此VG,不允许别的操作系统映像访问

#varyoffvg vg_name 释放此VG,允许别的操作系统映像访问

但要注意,这个"锁"只是逻辑的锁(在磁盘上做一个标记),而且当VG被激活后,如果发生机器突然宕机,操作系统可能没有能执行磁盘解锁的命令(清除标志位),则其它机器就无法再激活此卷组了!需要执行带-f参数的强制命令激活此卷组:

#varyonvg -f vg_name

有时甚至需要使用更底层的命令手工清除锁标志,此命令为lquerypr或

pcmquerypr。由于此命令属于底层命令,对于初学者,容易操作不当,导致错误的结果,请谨慎使用。

VGDA(Volume Group Descriptor Area)

把PV加入VG之后才可以使用,一个PV只能属于一个VG(一个VG根据其类型不同可能拥有最多32-1024个PV)。VG中包含哪些PV都写在VG中的一个区域中,这个区域就是VGDA,VGDA中记录了很多VG的重要信息,包括VG中包含的所有PV的PVID。

由于VGDA内的信息非常重要,因此VGDA被保存了多份。如果VG中只有一块磁盘( PV ),则在此磁盘上存有两份VGDA;如果VG中有两块磁盘,则第一块磁盘有两份VGDA,第二块磁盘上有一份;如果VG中包含三块或更多的磁盘,则每块磁盘上都有一个VGDA的 copy.完好的VGDA数量与VG中总磁盘数之比被称为Quorum,如果Quorum小于50%,此VG将不能被继续访问(如果已经被激活,则会自动关闭),这样做是为了防止数据被进一步破坏,而等待专业人员修复(这是基于这样一种设计理念:如果可能发生危害数据的操作,什么都不做的结果远远好于人有该操作为所欲为)。由于在每块磁盘上都至少有一份VGDA,所以在一个新小型机上,只要给出位置VG中的一块磁盘,就可以正确识别出全部VG信息,并“注册”到新的小型机上,这个过程叫做import,命令是:

#importvg -y vg_name hdiskx

其中vg_name是你希望的VG名,hdiskx是此VG中任一磁盘。由于在执行importvg命令的时候可以自定义VG名,因此系统中并没有更改VG名称的命令,如果你想改VG的名称,则需要先执行exportvg命令(把此VG在系统中的定义删除掉,再用新名字importvg进来)

反之,如果想把某个VG的信息从一台小型机上删除,则需要执行

#exportvg vg_name

此操作并没有对磁盘做任何操作,磁盘上的数据依然存在,包括VGDA里面的内容。此命令只是将此VG在AIX操作系统中的定义删除了,任何时候你还可以再重新imprt回来。

在执行importvg 的时候,操作系统可以指定磁盘上读到VG中所有磁盘(PV)的定义(还记得VG中每块磁盘上都至少有一份VGDA,也就是全部VG信息的定义么?),如果操作系统发现此VG的一些磁盘并没有被系统标识到(通过PVID找寻到,即VGDA中包含某个PVID在操作系统中所有磁盘设备上都找不到,可能的原因即包括该磁盘不存在,也可能是PVID没有正确读出来),那么系统将计算Quorum。如果Quorum>50%,则依然可以执行importvg,但会有警告信息;而当Quorum<50%时,则不允许import此 VG。

关于PVID的思考

AIX操作系统没有提供任何直接的命令可以设定PVID,在创建VG或者将磁盘(PV)添加到VG中时,操作系统会自动根据本机的系列号、当前时间等参数,随即指定一个PVID。因此系统中生成的PVID是不能重复的,当你使用chpv命令清除一块磁盘的PVID之后,除非使用底层磁盘编辑命令,直接写入需要的PVID,否则没有办法恢复磁盘原有的PVID,PVID改变,也就意味着此盘完全是一块新磁盘,系统不会承认此磁盘仍然属于原有的VG。因此在执行更改PVID的操作的时候,一定要知道可能的后果是什么,因为操作往往会导致不可恢复的数据丢失。

普通VG的VGDA 空间大小只能存放32个PV的信息,因此普通VG只支持32个磁盘;如果是big(“大”)VG,VGDA可以存放128个PV的信息;最新的scalable (“扩展”)

VG则可以支持1024个PV。

VGSA( Volume Group Status Area)

VGSA也是VG中的一块重要区域,它由 127个字节组成。每个PV有一个VGSA,每一位代表这个PV的一个PP的状态,最多可以对应1016个PP(128*8=1024位,其中有8位留作他用,剩余1016位),它限制了一个PV最多有1016个PP。 VGSA用每一位代表PP的状态,操作系统向镜像的 PP写数据的时候,难免会有时间差,如果恰好在跟新了一个PP之后,系统出现问题,另一个PP没有更新,此PP与其互为镜像的PP(还记得前面提到的一个LP可能对应1-3个PP吗?对应于同一个LP的几个PP的关系,就是镜像关系)相比没有被跟新,数据较旧,

则操作系统通过VGSA将这几个VGSA标记为stale状态。stale状态说明互为镜像的PP数据不一致,要从“好”的镜像PP重新同步数据。当操作系统激活(varyonvg)VG 的时候,会自动检查此VG中所有磁盘上是否有"Stale"的PP,如果有,则自动进行同步;如果VG在正常使用状态,则操作系统不会主动去同步,需要手工执行命令进行同步,可以以PV,LV或者整个VG为单位进行stale的PP同步。在smit vg的菜单可以找到同步VG的选项。

Big VG,Scalable VG

由于VG在创建的时候,就固定了VGDA和VGSA的大小,所以VG所能容纳的磁盘数量和每个磁盘最多的PP数就已经确定:每个VG最多32个PV,总计256个LV(逻辑卷,包括一个保留给LVM内部使用,实际可用是255个)。在BIG VG中,这些限制都被打破,PV扩大到128个,LV扩大到512个。可以直接创建“大”VG,也可以把“小”VG扩大为“大”VG。

如果是Scalable VG则最多支持1024个PV,256(可以在创建的时候设定为最大支持4096)个LV。下面的命令可以创建Scalable的VG(注意在执行的时候还要附带在那个 PV上创建的参数)。

#mkvg -S vg_name

本质上,这几种VG类型并没有什么特别的区别,其差别是系统保留了多大的VGDA空间。显然,要想VG中支持更多的磁盘,VGDA空间越大。把“小”VG转换成“大”VG的过程中,AIX不过是扩大了VGDA的空间。由于VGDA在每个PV的开始,并且必须连续,如果磁盘已经创建了LV,空间被分配,可能会发生VGDA空间无法扩大的情况,更改VG类型操作就会失败。如果VG总体还有剩余空间,此时可以使用迁移PP的命令,将占用未来VGDA空间的PP数据迁移到其它位置。下面是个示范的命令(注意,这是LVM底层命令,最好在测试系统验证后再使用),供读者参考

#lmigratepp -g VGID -p old_PVID -n old_PPNum -P new_PVID -N new_PPNum

VGID可以通过lsvg vg_name获得,old_PVID和new_PVID分别是源盘和目标盘的PVID,old_PPNum是1也就是第一个PP(我们想把第一个PP的数据移走,以便空余位置给VGDA),new_PPNum是new_PVID 对应的某个空闲PP,可以通过 lspv -M hdiskx获得。

Physical Volume (PV)控制

PV有一个参数控制是否允许分配此物理卷上的PP给逻辑卷使用。在扩充、创建LV和创建文件系统的时候,系统会自动分配此VG中可分配的PP,如果希望告诉系统不要使用

某个PV上的空余空间,那就可以通过此参数不允许使用此PV。命令是: #chpv -a n hdiskx 不使用此PV(hdiskx)

#chpv -a y hdiskx 可以使用此PV(hdiskx)

或者用smit命令的快捷索引:

#smit chpv

VG的一些参数说明

#lsvg vg_name ->察看vg 参数

是否在启动后激活VG:双机共享的VG(磁盘)不能设置自动激活,否则可能引起冲突(一台机器启动后激活VG,并将磁盘锁住;而另一台机器启动的时候,也试图激活此VG,如果不是并行卷,两台机器同时激活同一个VG会产生错误)。反之如果单机使用,则通常要选择自动激活,这样避免了手工操作的麻烦。

是否需要Quorum:如果打开Quorum,当VG中不可访问的磁盘数超过一半,系统会强制禁止使用此VG(如果此VG已经被varyon,则自动执行varyoffvg命令)或者不可以激活此卷足(如果此VG还没有被varyon),以防止数据进一步损坏,等待专业人员处理。

enhanced-capable模式:

如果安装了 bos.clvm.enh文件集(非缺省安装,需要自己选择),则增加了另一个VG模式参数:enhanced-capable。此模式可以与任何VG类型并存,需要通过smitty chvg 或者chvg 命令修改,此模式是为了配合HACMP(PowerHA)而设置。AIX本身不支持并行文件系统,所以文件系统不能同时被两个AIX内核mount (就是双机同时mount 共享文件系统),以避免双方同时写入数据,损坏文件系统。HA在进行切换接管的时候,就需要在一个节点umount文件系统,varyoffvg,再从另一个节点varyonvg 、mount文件系统。尽管这些操作都是由HA自动完成,但操作本身还是延长了接管时间。enhanced-capable 模式正好配合HA,它允许主节点正常使用VG,mount文件系统;备用节点虽然也varyonvg,但处于只读状态,并不mount文件系统,这样VG接管步骤省略,接管时间减少。

concurrent

VG模式:VG 还有一种concurrent 模式,它与刚才提到的enhanced-capable 不同,这是完完全全的并行模式,也是配合HACMP使用,但这种情况下的VG不能(可以创建,但不应当创建)存在文件系统,只能有裸设备(即LV),由应用程序控制数据读写锁,保证数据一致性,操作系统只管埋头读写。以上两种模式(他们不会并存),都需要HACMP控制VG的varyon/off,操作系统不能开机自动varyonvg。如果为了管理需要可以手工varyonvg.

File System;文件系统参数

AIX通常使用JFS( Jonural File System,日志文件系统,也可能是第二代:JFS2文件系统)。

常见的文件系统是NFS和CD-ROM文件系统。

AIX HACMP增加磁盘到使用的VG
篇三:aix删除vg

一 集群的各个节点机器运行cfgmgr,设置pvid

[host1][root][/]>cfgmgr

[host1][root][/]>lspv

[xtp750_db01][root][/]#lspv

hdisk10 00c1395e2d464a88 db2datavg active hdisk11 00c1395e2d464ba0 db2datavg active hdisk12 00c1395e2d464cc8 db2datavg active hdisk13 00f7535faec67c72 docvg active hdisk14 00f7535f9fdbeda2 testvg hdisk15 none None hdisk16 none None hdisk17 none None

chdev -l hdisk15 -a pv=yes

chdev -l hdisk16 -a pv=yes

chdev -l hdisk17 -a pv=yes

lspv

….

hdisk4 00c1eedffc677bfe none

在host2上也要做同样操作。

在线扩展VG

使用C-SPOC功能扩展VG

1、进入

C-SPOCaix删除vg。

2 选storage

3选

volume groupe

4

aix删除vg。

5选择需要扩容的VG

6回车,然后选择添加的硬盘

7确定无误后,回车继续

AIX在Hacmp环境下扩容VG
篇四:aix删除vg

一、C-SPOC介绍

为方便管理集群中的操作,HACMP 提供了一种方法,通过该方法可以在多个集群节点执行命令并维护要执行操作之间的协调。

一些集群维护操作可能影响 HACMP 配置(拓扑和资源),但通过 HACMP 系统管理工具 (C-SPOC),无需停止关键作业即可执行这些任务(如添加或删除资源、用户和更改拓扑元素)。

注意:C-SPOC 使用一种新的集群通信守护进程 (clcomdES) 在远程节点上执行命令。如果此守护进程没有运行或者无法验证来自发起者节点的请求,将不会执行远程节点上的命令,因此 C-SPOC 操作将会失败。

使用 C-SPOC 实用工具,在一个节点(发起更改的节点)上执行的命令也会在其他集群节点上执行。C-SPOC 最大限度地减少了管理开销,并降低了节点状态不一致的可能性 以下我们将利用C-SPOC功能来在线添加PV及扩展FS。

二、创建PV

1、创建PV

用命令Cfgmgr –v及/usr/DynamicLinkManager/bin/dlmcfgmgr配置LUN;

其中dlmfdrvX就是HDLM封装的为设备

# lspv

hdisk0 000345a76cc6fc03 rootvg active

hdisk1 000345a72fc97c3c rootvg active

hdisk2 none None

hdisk3 none None

dlmfdrv0 000344b9f4ebfc92 hbvg concurrent

dlmfdrv1 000344b9f4ee1d74 dominovg active

hdisk8 none None

hdisk9 none None

dlmfdrv2 none None

hdisk6 none None

hdisk7 none None

在两个节点分别创建PV

# chdev -l dlmfdrv2 -a pv=yes

dlmfdrv2 已更改

2、检查PVID

Node 1

# lspv

hdisk0 000345a76cc6fc03 rootvg active

hdisk1 000345a72fc97c3c rootvg active

hdisk2 none None

hdisk3 none None

dlmfdrv0 000344b9f4ebfc92 hbvg concurrent

dlmfdrv1 000344b9f4ee1d74 dominovg active

hdisk6 none None

hdisk7 none None

hdisk10 none None

hdisk11 none None

dlmfdrv2 000345a70c2be00e Noneaix删除vg。

Node 2

# lspv

hdisk0 000344b96ca1ba08 rootvg

hdisk1 000344b930963e28 rootvg

hdisk2 none None

hdisk3 none None

dlmfdrv0 000344b9f4ebfc92 hbvg

dlmfdrv1 000344b9f4ee1d74 dominovg

hdisk6 none None

hdisk7 none None

hdisk8 none None

hdisk9 none None

dlmfdrv2 000345a70c2be00e None

输出显示两个节点的PVID已经生成。

三、使用C-SPOC功能扩展VG

1、进入C-SPOC

# smitty hacmp

?? Initialization and Standard Configuration

??Extended Configuration

??System Management (C-SPOC) ??

Problem Determination Tools

2、HACMP Logical Volume Management

??Manage HACMP Services

??HACMP Communication Interface Management

??HACMP Resource Group and Application Management

??HACMP Log Viewing and Management

??HACMP File Collection Management

??HACMP Security and Users Management

??HACMP Logical Volume Management

??HACMP Concurrent Logical Volume Management

??HACMP Physical Volume Management

??Configure GPFS

?? Open a SMIT Session on a Node

active active concurrent

3、Shared Volume Groups

?? Shared Volume Groups

??Shared Logical Volumes

??Shared File Systems

??Synchronize Shared LVM Mirrors

??Synchronize a Shared Volume Group Definition

4、Set Characteristics of a Shared Volume Group

??List All Shared Volume Groups

??Create a Shared Volume Group

??Create a Shared Volume Group with Data Path Devices

??Set Characteristics of a Shared Volume Group

??Import a Shared Volume Group

??Mirror a Shared Volume Group

??Unmirror a Shared Volume Group

5、Add a Volume to a Shared Volume Group

?? Add a Volume to a Shared Volume Group ??

Remove a Volume from a Shared Volume Group

??Enable/Disable a Shared Volume Group for Cross-Site LVM Mirroring

Verification

6、选择需要扩容的VG

Shared Volume Group Names

#Resource Group Volume Group

dominorg dominovg

#Resource Group Volume Group

hbrg hbvg

7、回车,然后选择添加的硬盘

Node_a dlmfdrv2

8、确定无误后,回车继续

Resource Group Name dominorg

VOLUME GROUP name dominovg

Reference node Node_a

VOLUME names dlmfdrv2

9、检查两节点PV是否加入VG

Node 1

# lspv

hdisk0 000345a76cc6fc03 rootvg active

hdisk1 000345a72fc97c3c rootvg active

hdisk2 none None

hdisk3 none None

dlmfdrv0 000344b9f4ebfc92 hbvg concurrent

dlmfdrv1 000344b9f4ee1d74 dominovg active

hdisk8 none None

hdisk9 none None

dlmfdrv2 000345a70c2be00e dominovg active

hdisk6 none None

hdisk7 none None

#

Node 2

# lspv

hdisk0 000344b96ca1ba08 rootvg active

hdisk1 000344b930963e28 rootvg active

hdisk2 none None

hdisk3 none None

dlmfdrv0 000344b9f4ebfc92 hbvg concurrent

dlmfdrv1 000344b9f4ee1d74 dominovg

hdisk6 none None

hdisk7 none None

hdisk8 none None

hdisk9 none None

dlmfdrv2 000345a70c2be00e dominovg

其中Node 1是主节点,Node 2是备节点;

从以上输出信息可以知道dlmfdrv2已经添加到dominovg中,VG的信息已经自动同步;由于Node 1是主节点,因此dlmfdrv2在该节点是active的。

本文来源:http://www.myl5520.com/gerenjianli/113387.html

推荐内容