实验:iscsi共享存储

实验名称:

  iscsi共享存储node

实验环境:

  咱们须要准备一个磁盘,对于这个磁盘咱们须要使用,将这个磁盘空间共享给iscsi客户端;服务器

实验需求:

  咱们这里使用两台服务器来实现iscsi共享存储;app

  一、指定一个服务器端的共享磁盘,将共享磁盘划分三个分区,并对分区作软raid5;dom

  二、基于raid5配置LVM的逻辑分区,指定大小为5G;tcp

  三、配置target端,配置targetname为iqn.2019-06.com.test.www:disk10,tid为1就行;工具

  四、在服务器端放行iscsi的流量;spa

  五、配置initiator客户端,指定initiatorname为iqn.2019-06.com.test.www:disk20,并关联上target服务端;命令行

  六、分区、格式化,并挂载该共享分区到 /mnt/space目录下;3d

实验配置:

  服务器端配置:rest

  准备一块磁盘,在服务器端;

  这里咱们先添加一块20G的磁盘,而后重启系统;

reboot  //重启系统

  重启后,经过 fdisk -l 查看磁盘是否存在:

  由图可知,服务器端系统新添加了一个/dev/sdb的21.5G的磁盘空间;

  一、磁盘分区,并依据分区作RIAD5,以及划分LVM分区;

fdisk /dev/sdb
    n
    p
        1
        +5G
  t
  8e //修改system id为Linux LVM n p
2 +5G
  t
  8e n p
3 +5G
  t
  8e
w //保存并退出交互界面

    查看分区状况 fdisk -l

  此时,咱们能够基于这三个分区来作RAID5

mdadm -C /dev/md10 -l 5 -n 3 /dev/sdb{1,2,3}
mdadm -D /dev/md10  //查看建立的RAID磁盘
ll /dev/md10
mdadm -D --scan > /etc/mdadm.conf  //保存RIAD配置

  此时,raid5已经建立成功;基于/dev/md10设备文件,能够建立LVM

yum install lvm2 -y  //安装lvm模块
pvcreate /dev/md10
vgcreate VGname /dev/md10
lvcreate -n LVname -L +2G VGname
fdisk -l /dev/VGname/LVname    //这个目录在系统下显示为:/dev/mapper/VGname-LVname

  自此,咱们拥有一个2G的磁盘攻坚,经过LVM+RAID技术,在服务器端,准备经过iscsi共享方式提供给客户端程序;

  二、配置服务器端的iscsi服务

  这里,咱们须要安装target服务器端的管理工具--scsi-target-utils;

  而后指定相关参数:

    一、指定targetname

    二、指定tid

    三、指定共享磁盘的IP地址段

    四、指定共享的磁盘空间

yum install scsi-target-utils -y
/etc/init.d/tgtd start //首先启动tgtd服务 tgtadm
--lld iscsi --mode target --op new --tid 1 --targetname iqn.2019-06.com.test.domain:disk10 tgtadm --lld iscsi --mode target --op bind --tid 1 --initiator-address 192.168.94.0/24 tgtadm --lld iscsi --mode logicalunit --op new --lun 10 --tid 1 --backing-store /dev/VGname/LVname tgtadm --lld iscsi --mode target --op show

  【注意,这里是经过命令行配置,若是重启,则配置则失效,因此,咱们能够经过修改配置文件的方式来进行配置】

vi /etc/tgt/targets.conf
    <target iqn.2019-06.com.test.domain:disk10>
        <backing-store /dev/VGname/LVname>
            lun 10
        </backing-store>
        initiator-address 192.168.94.0/24</target>
    :wq
/etc/init.d/tgtd restart

  三、配置防火墙,放行端口3260端口;

  经过配置iptables来放行对应的端口

iptables -I INPUT -s 192.168.94.0/24 -d 192.168.94.0/24 -p tcp --dport 3260 -j ACCEPT
/etc/init.d/iptables save
/etc/init.d/iptables restart
iptables -L

  由图能够看见,咱们这里放行了3260端口;

  

  客户端配置:

  四、配置iscsi的客户端

  为客户端定义惟一地址表示:

yum install iscsi-initiator-utils -y
vi /etc/iscsi/initiatorname.iscsi
    Initiatorname = iqn.2019-06.com.test.domain:disk20
    :wq

  发现对端的共享磁盘空间:

iscsiadm -m discovery -t st -p 192.168.94.128:3260
iscsiadm -m node -T iqn.2019-06.com.test.domain:disk10 -l[-u] -p 192.168.81.145:3260

  启动服务并关联成功,iscsiadm -l 为关联新的磁盘,而 -u 则是卸载这个关联关系;

  此时,咱们再去查看客户端端上的磁盘状况 fdisk -l:

  如图所示,这里多了一个 /dev/sdb;这个空间,就是经过iscsi服务,从服务器端共享过来的;

  五、咱们再对该磁盘进行格式化与分区,便可使用

fdisk /dev/sdb
    n
    p
        1
        +1G
    w

  在对新建立的分区进行格式化,写入文件系统,并建立新的目录 /mnt/space,将这个新的分区挂载在上面便可;

mkfs -t ext4 /dev/sdb1
mkdir /mnt/space
mount /dev/sdb1 /mnt/space
df -h //查看挂载状况

  这里,咱们能够看到/mnt/space的可以使用空间为979M,接近一个G;

  自此,咱们的共享存储实验完成;

实验结果:

相关文章
相关标签/搜索