WinSrv2016横向扩展存储(SDS)[无共享存储]

在Windows Server 2016中引入了一个新存储功能,这个功能很是相似其余的横向扩展存储解决方案,如VMware的VSAN,能够进行存储空间的直连,使用的是存储节点的本地存储,也就是使用每个存储节点的内部磁盘设备构建HA存储系统链接到单个的存储节点:shell

clip_p_w_picpath001

全部的节点是利用SMB3来直接与存储空间进行通讯:缓存

clip_p_w_picpath002

存储空间无缝集成组成Windows Server的软件定义存储功能,包括横向扩展的文件服务器,群集共享卷,存储空间和故障转移群集。服务器

clip_p_w_picpath003

除此以外按照一样的道理也能够提供给Hyper-V虚拟机进行使用网络

clip_p_w_picpath004

那么下面我将利用Windows Server 2016 TP4为你们看看微软新服务器操做系统所能带来的相似解决方案是怎样的:ide

按照微软的要求为简单是至少须要4个第二代的Hyper-V虚拟机完成实验,每一个虚拟机至少4个数据磁盘。布局

(https://technet.microsoft.com/en-us/library/mt126109.aspx)性能

注意:存储空间直连不支持MPIO哦。测试

因为测试资源有限,因此这里我准备了3台服务器:1台DC;2台Windows Server 2016的域成员服务器,每台添加了2块10G的磁盘,每台2张网卡,一个对外,一个心跳优化

下面咱们开始为每个节点安装故障转移群集角色ui

Install-WindowsFeature –Name File-Services, Failover-Clustering –IncludeManagementTools

clip_p_w_picpath005

下面开始验证群集是否具有建立存储空间直连的先决条件:

clip_p_w_picpath006

选择“仅运行选择的测试”由于咱们这里要测试存储空间直连,默认该选项为勾选。

这里我取消勾选了存储,由于我不是测试共享存储,我是要作存储空间直连。

clip_p_w_picpath007

固然也能够用Powershell进行验证,但必须带上-Include参数,带上Storage Spaces Direct值:

Test-Cluster –Node Stor1,Stor2 –Include "Storage Spaces Direct",Inventory,Network,"System Configuration"

验证完成,虽然警告,但仍是能够建立的

clip_p_w_picpath008

下面开始建立群集,包含文件服务器

New-Cluster –Name StorCluster –Node Stor1,Stor2 –NoStorage -StaticAddress 192.168.11.153

clip_p_w_picpath009

建立完成后,咱们能够查看群集网络

clip_p_w_picpath010

下面启用存储空间直连(Storage Spaces Direct)

这里启用又分为几个类型:

SATA SSD+SATA HDD:Enable-ClusterStorageSpacesDirect

NVMe SSD+ SATA SSD:Enable-ClusterS2D –S2DCacheDevice NVMe

全部的SATA SSD或NVMe SSD来配置SDS:Enable-ClusterS2D -S2DCacheMode Disabled(禁用了S2D缓存)

在SATA SSD+SATA HDD配置中,存储空间使用了SSD的性能+HDD的容量进行分层。

在NVMe SSD+SATA SSD配置中,存储空间使用了NVMe SSD的性能+SATA SSD的容量进行分层。

clip_p_w_picpath011

下面接着建立存储池

建立存储池能够用Powershell进行建立:

New-StoragePool -StorageSubSystemName <FQDN of the subsystem> -FriendlyName <StoragePoolName> -WriteCacheSizeDefault 0 -ProvisioningTypeDefault Fixed -ResiliencySettingNameDefault Mirror -PhysicalDisk (Get-StorageSubSystem -Name <FQDN of the subsystem> | Get-PhysicalDisk)

示例:

New-StoragePool -StorageSubSystemName StorCluster.contoso.com -FriendlyName StorPool -WriteCacheSizeDefault 0 -ProvisioningTypeDefault Fixed -ResiliencySettingNameDefault Mirror -PhysicalDisk (Get-StorageSubSystem -Name StorCluster.contoso.com | Get-PhysicalDisk)

clip_p_w_picpath012

固然也能够用图形化来建立:

clip_p_w_picpath013

指定存储池名称

clip_p_w_picpath014

选择存储池的物理磁盘,以及磁盘模式

clip_p_w_picpath015

这里要用多少块就选多少块,能够理解为2台服务器每台2快硬盘被假设当作一台服务器的4块硬盘构建成了群集存储池

clip_p_w_picpath016

开始建立

clip_p_w_picpath017

完成后能够建立虚拟磁盘

clip_p_w_picpath018

能够看见咱们的群集存储池:

clip_p_w_picpath019

开始建立虚拟磁盘

clip_p_w_picpath020

这里为何是33G呢?4块10G加起来应该是40G对吧

clip_p_w_picpath021

缘由在建立了存储池之后,每一个磁盘都有一小部分为已占用空间:

clip_p_w_picpath022

若是咱们有2中类型的磁盘,那么这里能够建立存储层(分层)

clip_p_w_picpath023

下一步就是出现的隐藏技能了:这个机箱感知仍是很是有意思的,惋惜资源有限,没法测试了

clip_p_w_picpath024

下面就是选择存储数据布局了:相似于RAID0,RAID1,RAID5

clip_p_w_picpath025

clip_p_w_picpath026

clip_p_w_picpath027

根据选择的布局不一样实际可用的大小也不同。

Simple可用大小为32G

Mirror可用大小为14

Parit可用大小为21

而后选择建立的虚拟磁盘大小(不能大于可用空间容量)

clip_p_w_picpath028

开始建立

clip_p_w_picpath029

完成后就能够开始建立卷了

clip_p_w_picpath030

clip_p_w_picpath031

选择虚拟磁盘

clip_p_w_picpath032

建立卷又从虚拟磁盘中消耗一点空间

clip_p_w_picpath033

分配驱动器和文件夹了,若是我要作共享存储卷那么我这是能够选择不分配驱动器和文件夹的

clip_p_w_picpath034

选择卷的格式是ReFS或NTFS,以及单元大小名称等

clip_p_w_picpath035

建立

clip_p_w_picpath036

建立完成之后能够看到改卷了

clip_p_w_picpath037

这是咱们能够把该卷转成群集共享卷了

clip_p_w_picpath038

看到这相信你们明白这里是你们熟悉的功能和原来的味道了

clip_p_w_picpath039

最后再说下存储池的优化部分:

随着时间的推移,物理磁盘的添加或移除或数据覆盖或删除会致使该池的物理磁盘数据分配不均。在这个状况下会出现某些磁盘变满,而有些比较空,所以管理员能够进行优化维护任务。

Optimize-StoragePool <PoolName>

示例:

Optimize-StoragePool StorPool

clip_p_w_picpath040

也可使用以下PS进行监控优化的进度

Get-StorageJob | ? Name –eq Optimize

clip_p_w_picpath041

若是优化意外中止工做能够进行修复:

Get-VirtualDisk | Repair-VirtualDisk

今天就分享到这,内容信息庞大,还请各位慢慢消化,我都还晕乎乎的,也须要消化消化。特别感谢“隔壁老王”对个人指导才能顺利完成,谢谢。

相关文章
相关标签/搜索