Linux笔记10(存储收尾+RAID)

一、磁盘容量配额

root管理员就须要使用磁盘容量配额服务来限制某位用户或某个用户组针对特定文件夹可使用的最大硬盘空间或最大文件个数,一旦达到这个最大值就再也不容许继续使用node

限制类型 说明
软限制 当达到软限制时会提示用户,但仍容许用户在限定的额度内继续使用
硬限制 当达到硬限制时会提示用户,且强制终止用户的操做

配置步骤:linux

一、开启存储quotaweb

二、新建用户shell

三、给用户配额数据库

四、切换用户,进行测试vim

五、测试安全

一、存储设备开启quota技术支持

[root@localhost ~]# cat /etc/fstab 

#
# /etc/fstab
# Created by anaconda on Sat Jul  3 11:06:41 2021
#
# Accessible filesystems, by reference, are maintained under '/dev/disk/'.
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info.
#
# After editing this file, run 'systemctl daemon-reload' to update systemd
# units generated from this file.
#
UUID=1253ac5b-eaed-4c4c-808d-09fb4828358f /                       xfs     defaults        0 0
UUID=bcc55e4d-0854-44a8-9449-dad12374a6d3 /boot                   xfs     defaults,uquota        0 0
UUID=45a308e8-b622-4f24-9ea2-d4f473388981 swap                    swap    defaults        0 0

二、重启查看usrquota

[root@localhost ~]# mount | grep boot
/dev/sda1 on /boot type xfs (rw,relatime,seclabel,attr2,inode64,usrquota)

三、新建用户,赋予权限

[root@localhost ~]# useradd nice 
[root@localhost ~]# chmod +R o+w /boot

四、给用户指定一个可使用帐户【xfs_quota】

xfs_quota命令用于管理设备的磁盘容量配额markdown

“xfs_quota [参数] 配额 文件系统”app

[root@localhost ~]# xfs_quota -x -c 'limit bsoft=3m bhard=6m isoft=3 ihard=6 nice' /boot

五、查看磁盘配额

xfs_quota -x -c report /bootdom

[root@localhost ~]# xfs_quota -x -c report /boot
User quota on /boot (/dev/sda1)
                               Blocks                     
User ID          Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root           128472          0          0     00 [--------]
nice                0       3072       6144     00 [--------]

六、切换用户,在配额文件夹中填入数据

[root@localhost ~]# su - nice 
[nice@localhost ~]$ cd /boot
[nice@localhost boot]$ dd if=/dev/zero of=/boot/nice bs=5M count=1
1+0 records in
1+0 records out
5242880 bytes (5.2 MB, 5.0 MiB) copied, 0.0219734 s, 239 MB/s
# 发现超过5M没法存入
[nice@localhost boot]$ dd if=/dev/zero of=/boot/nice bs=15M count=1
dd: error writing '/boot/nice': Disk quota exceeded
1+0 records in
0+0 records out
4194304 bytes (4.2 MB, 4.0 MiB) copied, 0.0437072 s, 96.0 MB/s

七、磁盘容量配额扩容100M【 edquota】

参数 做用
-u 对某个用户进行设置
-g 对某个用户组进行设置
-p 复制原有的规则到新的用户/组
-t 限制宽限期限
[root@localhost ~]# edquota -u nice 

Disk quotas for user nice (uid 1001):
  Filesystem                   blocks       soft       hard     inodes     soft     hard
  /dev/sda1                      4096       3072     102400          1        3        6

八、再次测试,此时发现100M可行

[nice@localhost ~]$ dd if=/dev/zero of=/boot/nice bs=1M count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB, 100 MiB) copied, 0.0423891 s, 2.5 GB/s
[nice@localhost ~]$ dd if=/dev/zero of=/boot/nice bs=1M count=101
dd: error writing '/boot/nice': Disk quota exceeded
101+0 records in
100+0 records out
104857600 bytes (105 MB, 100 MiB) copied, 0.0421804 s, 2.5 GB/s

二、VDO虚拟数据优化

简而言之,10G虚拟成100G,若是内容中有重复,复制其链接(相似于百度网盘的秒传)

各种压缩文件汇总

文件名 描述 类型 原始大小(KB) 实际占用空间(KB)
dickens 狄更斯文集 英文原文 9953 9948
mozilla Mozilla的1.0可执行文件 执行程序 50020 33228
mr 医用resonanse图像 图片 9736 9272
nci 结构化的化学数据库 数据库 32767 10168
ooffice Open Office.org 1.01 DLL 可执行程序 6008 5640
osdb 基准测试用的MySQL格式示例数据库 数据库 9849 9824
reymont 瓦迪斯瓦夫·雷蒙特的书 PDF 6471 6312
samba samba源代码 src源码 21100 11768
sao 星空数据 天文格式的bin文件 7081 7036
webster 辞海 HTML 40487 40144
xml XML文件 HTML 5220 2180
x-ray 透视医学图片 医院数据 8275 8260

步骤:

一、添加一块硬盘

二、安装vdo服务

三、建立vdo卷

四、格式化vdo卷

五、挂载、写入/etc/fstab文件中

六、检查

一、查看磁盘

[root@localhost ~]# ls /dev/sd*
/dev/sda  /dev/sda1  /dev/sda2  /dev/sda3  /dev/sdb  /dev/sdc  /dev/sdd

二、安装vdo服务(默认已安装,我查看其状态)

[root@localhost ~]# systemctl status vdo
● vdo.service - VDO volume services
   Loaded: loaded (/usr/lib/systemd/system/vdo.service; enabled; vendor preset: enabled)
   Active: active (exited) since Wed 2021-07-14 07:18:19 PDT; 45min ago
  Process: 1041 ExecStart=/usr/bin/vdo start --all --confFile /etc/vdoconf.yml (code=exited, statu>
 Main PID: 1041 (code=exited, status=0/SUCCESS)

Jul 14 07:18:18 localhost.localdomain systemd[1]: Starting VDO volume services...
Jul 14 07:18:19 localhost.localdomain systemd[1]: Started VDO volume services.

三、使用sdc做为vdo

[root@localhost dev]# vdo create --name=storage --device=/dev/sdc --vdoLogicalSize=100G
Creating VDO storage
Starting VDO storage
Starting compression on VDO storage
VDO instance 0 volume is ready at /dev/mapper/storage

四、格式化磁盘【20G-40G】

[root@localhost ~]# vdo create --name=nice --device=/dev/sdb --vdoLogicalSize=40G
Creating VDO nice
Starting VDO nice
Starting compression on VDO nice
VDO instance 0 volume is ready at /dev/mapper/nice

五、格式化……

[root@localhost ~]# file /dev/mapper/nice 
/dev/mapper/nice: symbolic link to ../dm-0
[root@localhost ~]# mkfs.xfs /dev/mapper/nice 
meta-data=/dev/mapper/nice       isize=512    agcount=4, agsize=2621440 blks
         =                       sectsz=4096  attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1
data     =                       bsize=4096   blocks=10485760, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=5120, version=2
         =                       sectsz=4096  sunit=1 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

AMD的cpu不兼容,一直卡在这里,过两天在想办法!

六、查看设备UUID

[root@linuxprobe ~]# blkid /dev/mapper/storage 
/dev/mapper/storage: UUID="cd4e9f12-e16a-415c-ae76-8de069076713" TYPE="xfs"

七、写入/etc/fstab

[root@linuxprobe ~]# vim /etc/fstab
#
# /etc/fstab
# Created by anaconda on Tue Jul 21 05:03:40 2020
#
# Accessible filesystems, by reference, are maintained under '/dev/disk/'.
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info.
#
# After editing this file, run 'systemctl daemon-reload' to update systemd
# units generated from this file.
#
/dev/mapper/rhel-root                        /             xfs        defaults           1 1
UUID=812b1f7c-8b5b-43da-8c06-b9999e0fe48b    /boot         xfs        defaults,uquota    1 2
/dev/mapper/rhel-swap                        swap          swap       defaults           0 0
/dev/cdrom                                   /media/cdrom  iso9660    defaults           0 0 
/dev/sdb1                                    /newFS        xfs        defaults           0 0 
/dev/sdb2                                    swap          swap       defaults           0 0 
UUID=cd4e9f12-e16a-415c-ae76-8de069076713    /storage      xfs        defaults,_netdev   0 0

三、软硬方式连接

软连接(symbolic link):也叫符号连接,仅仅包含所连接文件的名称和路径,像个记录地址的标签。

硬连接(hard link):能够将它理解为一个“指向原始文件block的指针”,系统会建立出一个与原来一摸同样的inode信息块。

-s 建立“符号连接”(若是不带-s参数,则默认建立硬连接)
-f 强制建立文件或目录的连接
-i 覆盖前先询问
-v 显示建立连接的过程

一、建立一个nice.txt的文件,分别创建软链接和硬连接

# 软连接
[root@localhost ~]# ln -s nice.txt nice1
[root@localhost ~]# ll
total 12
-rw-------. 1 root root 2632 Jul  3 11:13 anaconda-ks.cfg
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Desktop
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Documents
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Downloads
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Music
lrwxrwxrwx. 1 root root    8 Jul 15 08:59 nice1 -> nice.txt
-rw-r--r--. 1 root root    5 Jul 15 08:59 nice.txt
-rw-------. 1 root root 2053 Jul  3 11:13 original-ks.cfg
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Pictures
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Public
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Templates
drwxr-xr-x. 2 root root    6 Jul  3 11:14 Videos

# 硬连接
[root@localhost ~]# ln nice.txt nice2
[root@localhost ~]# ls
anaconda-ks.cfg  Documents  Music  nice2     original-ks.cfg  Public     Videos
Desktop          Downloads  nice1  nice.txt  Pictures         Templates

二、删除源文件,查看效果

[root@localhost ~]# rm -rf nice.txt 
[root@localhost ~]# ls 
anaconda-ks.cfg  Documents  Music  nice2            Pictures  Templates
Desktop          Downloads  nice1  original-ks.cfg  Public    Videos

# 查看软连接文件
[root@localhost ~]# cat nice1 
cat: nice1: No such file or directory

# 查看硬连接文件
[root@localhost ~]# cat nice2
nice

软连接源文件删了就没了,硬连接源文件删了还能用

四、RAID

RAID磁盘冗余阵列

RAID技术经过把多个硬盘设备组合成一个容量更大、安全性更好的磁盘阵列,并把数据切割成多个区段后分别存放在各个不一样的物理硬盘设备上,而后利用分散读写技术来提高磁盘阵列总体的性能,同时把多个重要数据的副本同步到不一样的物理硬盘设备上,从而起到了很是好的数据冗余备份效果。

RAID级别 最少硬盘 可用容量 读写性能 安全性 特色
0 2 n n 追求最大容量和速度,任何一块盘损坏,数据所有异常。
1 2 n/2 n 追求最大安全性,只要阵列组中有一块硬盘可用,数据不受影响。
5 3 n-1 n-1 在控制成本的前提下,追求硬盘的最大容量、速度及安全性,容许有一块硬盘异常,数据不受影响。
10 4 n/2 n/2 综合RAID1和RAID0的优势,追求硬盘的速度和安全性,容许有一半硬盘异常(不可同组),数据不受影响

mdadm命令

命令用于建立、调整、监控和管理RAID设备

语法格式为:“mdadm 参数 硬盘名称”

参数 做用
-a 检测设备名称
-n 指定设备数量
-l 指定RAID级别
-C 建立
-v 显示过程
-f 模拟设备损坏
-r 移除设备
-Q 查看摘要信息
-D 查看详细信息
-S 中止RAID磁盘阵列

作一个RAID-5

一、添加硬盘

二、mdadm -Cv

一、配置以下

image20210716001203935.png

二、设备目录显示

[root@localhost ~]# ls /dev/sd*
/dev/sda  /dev/sda1  /dev/sda2  /dev/sda3  /dev/sdb  /dev/sdc  /dev/sdd  /dev/sde

三、作RAID-5

[root@localhost ~]# mdadm -Cv /dev/md0 -n 3 -l 5 /dev/sd[b-d]
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 5237760K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

四、磁盘格式化

[root@localhost ~]# mkfs.xfs /dev/md0 
meta-data=/dev/md0               isize=512    agcount=16, agsize=163712 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1
data     =                       bsize=4096   blocks=2618880, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

五、挂载到目录

[root@localhost ~]# mkdir /nice
[root@localhost ~]# mount /dev/md0 /nice/
[root@localhost ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs        890M     0  890M   0% /dev
tmpfs           904M     0  904M   0% /dev/shm
tmpfs           904M  9.4M  894M   2% /run
tmpfs           904M     0  904M   0% /sys/fs/cgroup

六、写入/etc/fstab

[root@localhost ~]# cat /etc/fstab 

#
# /etc/fstab
# Created by anaconda on Sat Jul  3 11:06:41 2021
#
# Accessible filesystems, by reference, are maintained under '/dev/disk/'.
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info.
#
# After editing this file, run 'systemctl daemon-reload' to update systemd
# units generated from this file.
#
UUID=1253ac5b-eaed-4c4c-808d-09fb4828358f /                       xfs     defaults        0 0
UUID=bcc55e4d-0854-44a8-9449-dad12374a6d3 /boot                   xfs     defaults        0 0
UUID=45a308e8-b622-4f24-9ea2-d4f473388981 swap                    swap    defaults        0 0
/dev/md0 /nice xfs defaults 0 0

七、重启查看效果

[C:\~]$ 

Connecting to 192.168.180.128:22...
Connection established.
To escape to local shell, press 'Ctrl+Alt+]'.

Activate the web console with: systemctl enable --now cockpit.socket

Last login: Thu Jul 15 09:12:26 2021 from 192.168.180.1
[root@localhost ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs        890M     0  890M   0% /dev
tmpfs           904M     0  904M   0% /dev/shm
tmpfs           904M  9.4M  894M   2% /run
tmpfs           904M     0  904M   0% /sys/fs/cgroup
/dev/sda3        18G  4.4G   14G  25% /
/dev/md0         10G  105M  9.9G   2% /nice
/dev/sda1       295M  143M  152M  49% /boot
tmpfs           181M   16K  181M   1% /run/user/42
tmpfs           181M  4.0K  181M   1% /run/user/0

八、查看RAID阵列

[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Jul 15 09:14:19 2021
        Raid Level : raid5
        Array Size : 10475520 (9.99 GiB 10.73 GB)
     Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Thu Jul 15 09:17:32 2021
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost.localdomain:0  (local to host localhost.localdomain)
              UUID : 22abd690:678a6f4a:5a5217a9:9f9c4632
            Events : 22

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       3       8       48        2      active sync   /dev/sdd
相关文章
相关标签/搜索