
第一章 NS20简介
NS20是一个共享的多功能网络存储设备,它提供一个大容量的文件系统供网络上多个客户端共享访问。可以通过NFS、CIFS、ISCSI等协议对外提供服务。网络客户端可以通过几种方式访问Celerra的文件系统。Windows通常通过CIFS协议访问映射的网络驱动器;UNIX和Linux用户通常会通过NFS协议。Windows和UNIX客户端也可以通过FTP或TFTP进行简单的传输文件。在应用上,如Microsoft Exchange Server可以通过iscsi服务存储数据。
1.1 NS20规格参数
1.1.1 体系结构
EMC® Celerra® NS20 多协议系统及支持单 X-Blade 20 配置,也支持双 X-Blade 20 配置。 双X-Blade 20 配置可以按主/主模式部署以实现高性能,或按主/备模式部署以提供更好的硬件可用性保护(如X-Blade 故障切换)。
每个 X-Blade 20 包含以下各项:
• 双 2.8 GHz Pentium IV CPU
• 4 GB 双数据速率 RAM (266 MHz)
• 用于后端存储连接的 2 个光纤通道端口
• 用于磁带连接的 2 个光纤通道端口
• 4 个 10/100/1000 BaseT 端口
• 1 个 10/100/1000 管理端口
• DART 文件服务器软件实例
单 X-Blade 20 配置可以无中断升级到双 X-Blade 20 配置。由控制站管理的平台。
• 通过 10/100 接口连接到每个 X-Blade
• 管理 X-Blade 故障切换
• 通过 GUI 管理所有文件系统
• SNMP MIB II 的可管理性
• Telnet 访问选项
• HTTP 服务器管理接口
• 双 USB、40 GB ATA、CD、软盘
NS20 带有集成的 EMC CLARiiON® 存储,主要特点是:
• 6 到 90 个 FC 或 SATA 磁盘最多位于 6 个驱动器托盘中,配置如下:
----全部为 FC 驱动器
----全部为 SATA 驱动器
---- FC 和 SATA 驱动器的混合 (FC 和 SATA 驱动器必须位于不同的托盘中。)
• 用于主机连接的 8 个可选光纤通道端口
1.1.2 DART文件服务器功能
| 支持的协议 | 客户端连接功能 | 可选的DART软件功能 | 可选的Clariion软件功能 |
| NFS v2、v3和v4,CIFS,FTP,iSCSI,光纤通道 | 可以通过FTP,NFS和CIFS访问文件 | Celerra防病毒 | Navisphere® SnapView™ |
| 网络锁定管理器(NLM)v1,v3,v4 | 可以通过iSCSI和光纤通道访问数据块 | Celerra Replicator | MirrorView™ |
| 路由信息协议(RIP)v1-v2 | 针对Windows客户端的虚拟数据移动器 | Celerra Manager高级版 | SAN Copy™ 请注意:PowerPath®是绑定的。 |
| 简单网络管理协议(SNMP) | 以太网中继 | Celerra文件级保留 请注意:SnapView™和Celerra Manager基础版是绑定的。 | |
| Kerberos身份验证 | 链路聚合(IEEE802.3ad) | ||
| 轻型目录访问协议(LDAP) | 虚拟局域网(IEEE802.1q) | ||
| UNIX归档工具(tar/cpio) | |||
| 网络状态监视器(NSM)v1 | |||
| Portmapper v2 | |||
| 网络信息服务(NIS)客户端 | |||
| 将Microsoft DFS作为叶节点或根服务器进行支持 | |||
| NT LAN管理器(NTLM) | |||
| LDAP signing for Windows | |||
| Microsoft Windows Server 2003 Access-based Enumeration(ABE) |
| NS20 X-Blade机箱 | 控制站 | DART功能 | CLARiiON存储 |
| 为X-blade配备冗余电源 | 自动拨出事件警报 | 以太网中继 | 磁盘清理 |
| 可热更换的电源和风扇 | 拨入远程维护 | 链路聚合 | 镜像写缓存,在交流点断电后可转储 |
| 内部环境状态监控 | 故障保护联网 | 冗余热更换电源,总线结构和I/O子系统 | |
| 网络接口端口故障切换 | 在线全局热备盘 | ||
| X-blade故障切换 | 针对Windows和UNIX主机的PowerPath故障切换功能 |
| 测量项 | NS20带1个含15个磁盘的托盘 | 扩展磁盘托盘(可以添加3个) |
| 高度 | 12.25英寸(31.36厘米) 7U | 5.25英寸(13.34厘米) 3U |
| 宽度 | 18.92英寸(48.06厘米) 安装适合标准19英寸NEMA机柜 | 17.72英寸(45.0厘米) |
| 厚度 | 从底板到后面:31.58英寸(80.21厘米) | 14.00英寸(35.56厘米) |
| 重量 | SPE(最大):203.3磅(92.4千克)(NS20带1个15磁盘的托盘) | 68磅(30.8千克) |
温度:50-104 degrees F(10-40 degrees C)
温差:10 degrees C/hr
相对湿度:20% to 80%(non-condensing)
海拔:
8000 ft.(2438.4m)@104 degrees F(40 degrees C)max.
10000ft.(3048m)@98.6 degrees F(37 degrees C)max.
1.1.6 交流电和散热
| 要求 | 描述 |
| 交流线电压 | 100到240伏交流电压+10%,单相 |
| 频率 | 47到63Hz,全自动 |
| 交流线电流 | 100伏时最大电流为14安,200伏时最大电流为7.5安(配置有15个磁盘) |
| 功耗 | 最大1229伏安(1168瓦)(配置有15个磁盘) |
| 启动电涌电流 | 在任何线路电压下峰值为59安(配置有15个磁盘) |
| 功率系数 | 在满负荷,100伏交流电压时最小0.98 |
| 散热 | 3422千焦/小时(配置有15个磁盘时的统计值) |
| 涌入电流 | 240伏交流电压时每电源电流峰值约116安,1/2电流周期;120伏交流电压时每电流峰值约65安,1/2电流周期 |
| 交流电保护 | 10安内置保险丝(一次性使用) |
| 交流电源适配器类型 | IE320-C14电器耦合器 |
| 断电后恢复时间 | 满负载时最多30毫秒 |
| 均流 | 电源之间最多60%,最少40% |
NS20出厂时安装在一个架子里,我们只需要按照架子的顺序重新安装到机柜里即可。连线一定要正确,有错误的话可能导致系统无法启动或者初始化检测报错。
NS22和NS21的连线不同,见下图
(NS21单DM连线图)
(NS22双DM连线)
2.1 加电及开关机
EMC NS20网络存储设备可分为三部分:存储系统CX3-10、Data Mover和Control Station,在开机或关机时应按顺序对这三部分进行操作。
1、 存储系统:为NS20提供数据存放空间和保护。包括Disk array enclosure(DAE)、Standby power和Storage Processor enclosure(SPE)三部分,其中DAE和SPE的电源均连接至SPS,通过SPS的外接电缆控制开关,有两个电源开关按钮。
2、 Data Mover:对外提供CIFS、NFS等数据服务的处理单元。也成为Blade enclosure,Blade上有两路电源线缆,没有开关按钮。
3、 Control Station:NS20的控制终端,使用单电源。
2.1.1开机顺序
1. 打开SPS的开关按钮,启动存储系统(需要等待存储完全启动,Blade的系统存放在存储里,如果存储未完全启动,Blade是无法启动的)
2. 接通两路Blade电源,等待完全启动完成
3.接通Control Station的电源
2.1.2 关机顺序
1. 进入Celerra Manager界面,依次点击Celerra IP地址 Data Movers会出现所有Data Mover的列表,NS21会有一个Data Mover,NS22有两个Data Mover。
2. 选中“Role”为“primary”的Data Mover,如上图所示的“server_2”,点击“shutdown”
3. 等待1分钟左右,关闭Data Mover的电源
4. 关闭存储系统的电源(SPS)
5. 关闭Control Station电源
2.2 初始化系统
使用CSA程序进行初始化设置.前提是通过串口可以看到NAS的control station 停留在这个界面上.
control station上标为MGMT的网口已连接到交换机上或和笔记本直连.运行CSA,这个程序可在随机的光盘上找到,要注意,最好安装随即附带光盘中的CSA软件,否则初始化过程中可能会遇到一些错误.无法继续配置
如连接正常,会找到NAS设备,并显示他的MAC地址,选择这个MAC地址
在HOSTNAME中输入命称,在IP Address中输入地址(客户内网地址,这里配置的是NS20的管理口),Netmask和Gateway可以直接由CSA自动获取.或取消select to use network setting from your computer,手工填入.
这里显示配置完成,点确定继续.
这里设置用户名和口令,默认是root\\nasadmin和nasadmin\\nasadmin,如果不需要改动的话按Next继续.
这里在右侧填写盘阵的IP地址,这个IP如果和前面MGMT管理口配置在同一个网段的话是比较方便管理盘阵的,可以直接通过MGMT口登陆navisphere manager管理存储。
在这个界面还需要填写一个网关,然后点NEXT
这里可以按照需求选择license,点击NEXT
这一步开始做健康检测,全部通过的话说明系统正常,继续点NEXT
这步查看之前设置过的配置,如果确认无误的话就可以点NEXT,开始使配置生效
这个过程大概需要一段时间,这里需要更新盘阵的两个管理口,每个SP需要5分钟左右.
配置完成以后就可以是同IE登陆,注意,JAVA版本最好是JRE1.5-12,不要使用太高版本。
登录后,会进入这个界面,这里会显示系统是否正常,这里显示有很多的ALERT.检查一下,如不是影响系统,可以删除这些警告,重新登录后,显示有绿色的OK标记,代表系统都已正常可以操作了。到这里初始化结束。
初始化系统,即配置IP地址,每一个CS都要配置,CSA可能有不可预知的BUG,所以在使用CSA配置完第一个CS的IP和名称之后,完成并退出,连接第二个CS,CSA无法正常识别,把已经配好的CS切断电,使其业务切到第二个CS上,通过固定IP 端口登陆NAS更改本CS的IP地址和名称。
2.3 配置网络
NS20的每个Data Mover都配有4个10/100/1000自适应的以太网口,可根据需要进行单独设置或绑定成虚拟接口。
点击左侧的network,可以出现以下配置界面
点击下面的new可以创建新端口IP。如果需要把两个或者多的端口绑定的话,可以在Devices里创建,创建的时候可以选择三种模式,第一种是负载均衡,第二种是链路聚合,第三种是建立主备模式,其中可以选择端口也可以选择已经创建好的Devices。
创建时需要填写Device的名字,下面可以选择端口及速率
Devices创建成功以后,就可以在interface里配置IP,可以给单独的一个端口,也可以给一个Device配置IP地址,其中的可选项可以不填。然后点击OK就可以创建成功。
我们可以更具需要配置多个端口的IP地址。
2.4 存储端容量划分
在存储容量的划分上,我们有两种方法,一种是登陆进存储的navishpere manager界面里,手动创建raid,LUN,以及做lun masking,其中clariion的操作在此不做过多介绍。;另一种方法是使用nas种已经编辑好的脚本来划分raid。
如果选择手动做的话需要有几点注意:
1.raid类型和盘数一定要注意,FC盘在做raid5时只能做raid4+1和raid8+1,SATA盘可以做raid4+1,raid6+1和raid8+1。其他数量的raid 是无法在nas中被识别。
2.做LUN MASKING的时候HOSTID一定要大于等于16,否则nas也无法识别到设备
自动划分可以在管理界面里执行,也可以telnet到CS在命令行里执行。
管理界面可以直接在图形界面里的storage里点击存储序列号,点击其中的config选项,可以引动脚本自动划分raid和LUN。
在这里我想详细举例说一下使用命令行划分存储的方法。图形界面会出一些不可预知的bug。
通过命令行使用模版划分存储
telnet到CS中,在/nas/sbin目录下输入./setup_clariion –init
此向导可以搜索盘阵,并且列出所有可以使用的盘,已经可以使用的模版,我们可以更具向导一步一步创建raid和lun。以下是一个配置的例子:
#./setup_clariion -init
Found CLARIION(s) APM000421000
Setup CLARiiON APM000421000 storage device...
System 128.221.252.200 is up
System 128.221.252.201 is up
Clariion Array: APM000421000 Model: CX700 Memory: 3965
Enclosure(s) 0_0,1_0,0_1,1_1,0_2,1_2,0_3,1_3,0_4,1_4 are installed in
the system.
Enclosure info:
----------------------------------------------------------------
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
----------------------------------------------------------------
1_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC UB UB UB UB UB UB UB UB UB UB UB UB UB UB UB
----------------------------------------------------------------
0_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC 0 0 0 0 0 UB UB UB UB UB UB UB UB UB UB
----------------------------------------------------------------
Continue to configure APM000421000 as User_Defined [yes or no]?: yes
Enclosure info:
----------------------------------------------------------------
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
----------------------------------------------------------------
0_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC 0 0 0 0 0 UB UB UB UB UB UB UB UB UB UB
----------------------------------------------------------------
The following 5 template(s) available:
1. FC_RAID5_4+1_HS_4+1_R1_R1
2. FC_RAID5_4+1_HS_4+1_HS_HS_HS_HS
3. FC_RAID5_4+1_4+1_4+1
4. FC_RAID5_4+1_HS_8+1
5. None
Please select a template in the range of 1-5 or 'q' to quit: 4
Enclosure info:
----------------------------------------------------------------
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
1_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC UB UB UB UB UB UB UB UB UB UB UB UB UB UB UB
----------------------------------------------------------------
The following 4 template(s) available:
1. FC_RAID5_HS_4+1_8+1
2. FC_RAID1_HS_R1_R1_R1_R1_R1_R1_R1
3. FC_RAID5_4+1_4+1_4+1
4. None
Please select a template in the range of 1-4 or 'q' to quit: 1
Template: User_Defined
Summary:
4 disk group(s) are created.
8,9,10,11,12,13
2 spare(s) are created. 200,201
0 disk devices can't be configured using User_Defined.
Configuration template doesn't completely match hardware.
Some disks may need to be relocated to fully configure the
selected template.
Enclosure(s) 0_0,1_0,0_1,1_1,0_2,1_2,0_3,1_3,0_4,1_4 are installed in
the system.
Enclosure info:
----------------------------------------------------------------
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
----------------------------------------------------------------
1_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC *HS *9 *9 *9 *9 *9 *10 *10 *10 *10 *10 *10 *10 *10 *10
----------------------------------------------------------------
0_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC 0 0 0 0 0 *HS *8 *8 *8 *8 *8 *8 *8 *8 *8
----------------------------------------------------------------
"*" indicates a diskgroup/spare which will be configured
Size Type Disks Spares
-------------------------
Enclosure 0_0.
Disk group 0, added luns 16,17
Created spare 200
Created disk group 8, luns 18,19
Enclosure 1_0.
Created spare 201
Created disk group 9, luns 20,21
Created disk group 10, luns 22,23
Waiting for 17 binds to complete ........................
Waiting for 15 binds to complete
....................................................................
.....................................
Wait
Waiting for 3 binds to comlete
....................................................................
.................................................................
Waiting for 1 binds to complete
....................................................................
....................................................................
....................................................................
..
Binding complete.
All luns are created successfully!
Enclosure(s) 0_0,1_0,0_1,1_1,0_2,1_2,0_3,1_3,0_4,1_4 are installed in
the system.
Enclosure info:
----------------------------------------------------------------
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
----------------------------------------------------------------
1_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC HS 9 9 9 9 9 10 10 10 10 10 10 10 10 10
----------------------------------------------------------------
0_0: 146 146 146 146 146 146 146 146 146 146 146 146 146 146 146
FC 0 0 0 0 0 HS 8 8 8 8 8 8 8 8 8
----------------------------------------------------------------
Configuration completed!
配置完成以后,在nas管理界面里,点击storage下面的systems,可以出现存储的rescan选项,点rescan,并等待半分钟左右时间,及可以在storage下面的volumes看到存储划分过来的空间,设备名为d+数字,这个对应的就是存储里的LUN。
通过图形界面划分存储空间
在Navisphere Manager中,右击“RAID GROUP”,选择“Create RAID Group”。选择“Raid Group ID”和磁盘数,在“Disk Selection”下,点击“Manual”来选择加入Raid Group的磁盘,如图
RAID Group ID会自动对划分的RAID按划分前后顺序进行编号,当然也可以更改此ID号。
右键“raid group”,点击“Bind LUN”, 在RAID Type列表中选择所需要的类型,并选择所要加入的Raid Group,在“LUN Properties”下,选择LUN ID,选择Lun的“Default Owner”, 确保所有的Lun均匀归属于SPA和SPB。在Lun Size框中输入Lun的大小,点击“apply”。创建LUN完成。
把创建好的LUN放入已经建立好的NS storage group里,选中LUN以后hostid选择大于16即可,点击OK确认。
在nas管理界面里,点击storage下面的systems,可以出现存储的rescan选项,点rescan,即可看到已经划分好的LUN设备。
通过光纤连接服务器
存储端如果要做FC SAN的话,需要连接光纤以后在存储端注册服务器,然后按照同样的方法把需要的LUN和对应的服务器绑定在一起,即可在服务器端看到需要的存储空间。
大概操作步骤:
在 Navisphere下, 通过以下步骤创建 storage group:
鼠标右击 storage-system 图标, 然后选择 Create Storage Groups.
为此Storage Group创建一个新名字.
点击 Apply 完成设置.
连接磁盘到 storage group:
在 Storage grups对话栏里的Storage一项,右击你想连接到主机上的Storage Group图标后,选择select lun
在 lun 栏, 从控制器下拉条目里选择 lun .
从 控制器里选择你想连接到Storage Group的lun,并点击
分配 LUNs 给 storage groups:
a. 确认“Connetctivity Status“中“Logged In“和“Registrered“的状态正常,正常值是“Yes“。
b.在 host 栏, 选择 Not connected,并将需要添加的主机从左边移到右边
第三章 软件配置
3.1 创建文件系统
在NS20中,文件系统需要建立在存储池(Storage Pool)或Meta卷(metavolume)上,创建Storage Pool是一种更加简便的方法,它可以由系统设置最优化的存储划分方案,且设置十分简单。
在Cellera Manager页面左侧导航栏中,依次点击Celleras IP地址 File Systems 页面下方会出现目前存储系统中已经创建的Storage Pool。
点击页面下方的“New”,并根据需要使用Shift键选中其中的几个volumes,在
“Name”栏定义一个名称,其他设置可以使用默认,点击OK
存储池创建成功
点击Celerra IP地址 File System并选择“New”
Create From:选择“Storage Pool”
File System Name:填写文件系统名称
Storage Pool:选择之前创建好的存储池
Storage Capacity:文件系统容量,可参考Storage Pool中的数值,单位是MB
其他设置使用默认值,并点击OK
创建文件系统时候,根据文件系统的大小,所需要的时间不同,不会马上就显示,可以进入Task Status里查看,如果文件系统在创建的过程中,运行状态为running,如果成功的话会显示successful。文件系统创建完成后,会出现在“File System”栏的右侧列表中。
3.2 配置磁盘配额
NS20的quota分为三类:目录(Tree)、用户(User)和组(Group),本文着重介绍用户和目录的quota设置方法
User Quota的设置
依次点击Celerra IP地址 File System Quotas,选择“User”标签,点击“New”创建新的quota
Choose a File System:选择需要进行配额管理的文件系统
User Names:
✓对Windows用户进行配额管理时,选中“Windows Names”前的单选框,输入已经创建好的用户名,在“Windwos Domian”处输入CIFS Server的NetBIOS名称。
✓对于UNIX用户进行配额管理时,选中Unix IDs,输入相应的UNIX用户ID号
Storage Hard Limit:设置空间硬性(使用空间不可此)
Storage Soft Limit:设置空间软性(使用空间可超过此但会被警告)
File Count Hard Limit:设置可存放文件数(硬性)
File Count Soft Limit:设置可存放文件数(软性)
点击“OK”完成设置。
Tree Quotas设置
依次点击Celerra IP地址 File System Quotas,选中Tree标签并点击“New”按钮。
Choose a File System:选择需要设置quota的文件系统
Path:指定quota tree的绝对路径,注意:指定的目录必须是不存在的,Tree Quota不能为已经存在的目录或文件夹设置quota。例如要为文件系统fluid下的dir1目录设置quota,就在Path中输入/fluid/dir1,quota设置完成后,目录dir1会自动建立;如果dir1已经存在,则创建quota会失败。
Storage Limit和File Count Limit的设置请参考前一节为user设置quota的说明。设置完成后点击“OK”添加Quota规则。
激活Quota配置
进入File System Quotas的“settings”标签,将“User Quotas Enabled”选中并点击“Apply”以将User Quota打开。此时针对特定用户的磁盘配额已经生效。
设置的Quota如果想进行更改,可以在“File System Quotas”下的“Tree”、“User”或“Group”标签下找到Quota列表,右键点击任何一个Quota规则并选择“Properties”即可修改quota参数
3.3 CIFS共享设置
3.3.1 NAS端CIFS配置
依次点击Cellera IP地址 CIFS,选择CIFS Server标签,并点击“New”
Server Type:没有域的情况下选择“Standalone”
NetBIOS Name:自定义一个CIFS SERVER的名称
Workgroup:自定义一个工作组名称,默认为workgroup
Set Loca lAdmin Password:CIFS服务中管理员的初始密码,需要在第一次登陆后修改;
Confirm Admin Password:重复输入初始密码
Interfaces:选择刚创建的虚拟网口IP
点击“OK”保存设置
点击导航栏的“CIFS”,在右侧选中“CIFS Shares”标签并新建。
CIFS Share Name:输入自定义共享名称,这个名称在进行网络映射时需要提供
File System:选择需要进行共享的文件系统
Path:输入文件系统的根路径,名称可自定义
CIFS Servers:勾选已创建的CIFS Server
设置完成后点击“OK”
点击CIFS-〉CIFS Share-〉NEW
输入ShareName(共享名)和文件系统。
创建完CIFS Shares后,选择“CIFS” “Configuration”标签,将“CIFS Servic Started”选中并点击“Apply”以启动CIFS服务
3.3.2 主机端CIFS共享设置
在以上设置完成后,在控制主机上(以XP操作系统为例),按“Ctrl+Alt+Del”,选择“更改密码”,“连接到”一栏中填入NS20的虚拟网口IP:203.138.160.73(非Control Station的IP),“原密码”中输入刚才的初始管理员密码( password ),在“输入新密码”中设置新的管理员密码,
注意:修改后的管理员密码要和管理主机的密码一样,即NS20的administrator用户和管理主机的administrator用户拥有相同的密码.
当出现“密码修改成功”的窗口后,返回控制主机的桌面,在“我的电脑”图标上点击右键并选择“管理”。
在弹出的Windows MMC窗口中右键选择“连接到另外一台计算机”
输入NS20的虚拟网口IP地址并点击“确定”
此时可以通过管理主机对NS20进行CIFS共享及用户权限等设置
在“本地用户和组”下的“用户”中,右键选择“新用户”
根据需要创建新用户
依次点击“共享文件夹” “共享”,此时可以看到目前NS20已经存在几个CIFS共享目录,其中所有结尾时$的为系统使用,不能进行改动,其中testshare是用户自己创建的CIFS Share,共享路径为NS20上的根目录/shared,为了在根目录下为用户创建并在右侧空白处单击鼠标右键选择“新文件夹共享”,
出现向导界面,点击“下一步”
在“要共享的文件夹”右侧的浏览中,在共享目录下创建若干子目录供不同的用户使用,选择需要共享的目录并点击“确定”
自定义共享名,以后该用户访问时即使用此时定义的共享名称
在权限设置页选择“自定义权限”并点击“自定义”
将Everyone删除,并点击“添加”
点击“对象类型”,只选择“用户”
点选“高级”,并选择“立即查找”
输入NS20的管理员帐号administrator及其密码
选择“开始查找”后下面的搜索框会列出找到的用户名,在新创建的CIFS Server中存在两个默认用户administrator和guest,此时新建的用户也会出现在其中。选择需要添加的用户名并点击“确定”
此时指定的用户就被添加到相应的共享权限中了,在权限复选框中点选相应的权限。每个私人的共享都应将“Everyone”去掉,加上administrator和该用户。
点击确认,完成CIFS共享的创建。
此时创建的共享也可以在Celerra Manager界面中的“CIFS Shares”列表下看到。
CIFS Share创建完成后,用户可以使用Windows的映射网络驱动器功能将相应的空间映射到本地使用。
在桌面上“我的电脑”点击右键并选择“映射网络驱动器”
在新窗口中输入NS20的对外服务地址+共享名称,例如IP为203.138.160.73,共享名为server1,那么在“文件夹”栏中输入“\\\\203.138.160.73\\\\server1”,并选择映射驱动器的盘符,点击“完成”。
在新弹出的窗口中输入映射该文件夹需要的用户名和密码,即可将NS20上的/fs1/server1文件夹指定到该用户本机,此时在“我的电脑”中会出现网络驱动器的图标。
3.4 NFS共享设置
设置NFS共享.选择右侧的NFS export
点击New创建.
这里可以设置哪些主机可以做什么操作,填入主机的IP即可. 多台主机IP可以用冒号分开。
显示创建结果,在linux中访问,首先创建一个目录nas,使用如图的命令.mount 192.168.100.176:/nfsshare /nas
使用df命令来查看结果.
权限说明
Host Access Read-only Export:选中此项将使所有访问该目录的用户拥有只读权限,但如果该用户同时被加到“Read/Write Hosts”框中,则仍然有读写权限。
Read-only Hosts:只读权限设置
✓该权限将拒绝在“Read-only Hosts”、“Read/Write Hosts”和“Access Hosts”框内存在的主机以外的一切访问。
✓赋予“Read-only Hosts”和“Read/Write Hosts”框内主机只读权限。
✓同时添加到“Read-only Hosts”和“Read/Write Hosts”的主机。
Read/Write Hosts:读/写权限设置
✓指定的主机拥有读写权限,其他主机均为只读权限。
✓除“Read/Write”、“Read only”、“Access”框内指定的主机(不一定相同)外,其余所有主机均无法访问此共享空间。
Root Hosts:此处指定的主机将对共享空间拥有Root权限。
Access Hosts:访问权限设置
✓拒绝“Access”、“Read/Write”和“Read-only”框指定主机名以外的一切访问请求。
✓如果“Read-only Export”选项未选中,且主机名未被添加到“Read only”或“Read/Write”框内,那么该主机拥有读写权限。
✓如果“Read-only Export”选项被选中,或主机名被添加到“Read only”或“Read/Write”框内,那么该主机拥有只读权限。
NFS export权限示例
3.4.1 ISCSI配置
1.点击ISCSI,Targets,点击NEW创建.
填入名称和cge口的IP地址
创建成功后,可以在target下看到创建的设备,在显示上点右键,选择New iscsi Lun
输入LUN号,以及大小.
然后选择properties
在LUN Mask下点击New创建
这里要输入连接的ISCSI Initiator的名称(在服务器上查看),和分配的LUN的数量.
复制这里的参数.填入到NAS中
点击OK
最后检查ISCSI服务是否打开
在ISCSI Enabled打钩即可,这样在主机端刷新就可以看到ISCSI设备,是一块裸设备。
3.4.2 FTP配置
创建一个匿名FTP.可以上传和下载,空间使用NFS EXPORT出来的, 登录NAS的control station创建一个用户ftp(一定要用这个,并且不能设口令) 以root用户登陆CS,并且创建用户。
创建用户,使用这个命令: /nas/sbin/server_user server_2 -add ftp
会有一些配置要填,
user id:3
group id :3
comment.
home directory:/ftp
shell:
这里填的home directory 是/ftp,FTP用户登录时默认会访问这个目录.
创建目录,mkdir /ftp
更改目录权限, chmod 777 /ftp.这一步使anonymous用户可以上传下载.
在NAS上分配空间,并使用NFS EXPORT
在Root Hosts这里要填入NAS Control station的IP地址,
回到NAS的control station上,将空间加载到.ftp这个目录. mount 192.168.100.176:/ftp /ftp
可以用df 命令查看.
设置FTP的默认目录, server_param server_2 -facility ftpd -modify defaultdir -value /ftp
使用这个命令来查看结果. server_param server_2 -facility ftpd -info defaultdir
要确认输出结果是/ftp
配置完成,可以用FTP软件进行测试.
第四章 其他
4.1 DataMover Primay and standby切换
激活standby data mover, primary data mover自动关闭
server_standby server_2 -activate mover
server_2 :
server_2 : going standby
server_2.faulted.server_3 : going active
replace in progress ...done
failover activity complete
commit in progress (not interruptible)...done
恢复Primary data mover到正常模式
server_standby server_2 -restore mover
server_2 :
server_2 : going standby
server_2.faulted.server_3 : going active
replace in progress ...done
failover activity complete
commit in progress (not interruptible)...done
server_2 : renamed as server_3
server_2.faulted.server_3 : renamed as server_2
4.2 更改failover的设置.
选择左侧Server_2,将Standby Movers,处的勾去掉.点击下方APPLY
选择左侧的server_3,
Status的状态改为Primary.点击APPLY
更改后,server_3会重启,可点击左侧的确Task status查看运行状态.
这里显示server_3正在重启.刷新网页查看结果
这里显示重启已完成.
点击左侧的Data Movers,可以看到两个Data Mover都已可以单独配置.
这里还需要在server_3上启动UNICODE.点击右侧的Unicode Enabled:,点击APPLY确认. 出现提示.
点击OK确认.
配置FAILOVER.
首先将server_3的Role,改为Standby.
Server_3会重启,等待重启完成后,选择左侧的Data mover下的Server_2,在Standby mover处打上勾.
nas_disk -delet
nas_disk -list
