光纤存储设备
A. 在linux(RedHat)中如何通过命令来识别挂载的光纤(FC)存储设备
1、在Ubuntu下点击侧面边栏上的功能按钮,打开命令行的终端。
B. 如何使光纤通道存储可用于 Oracle Solaris
Oracle Solaris 10 和 Oracle Solaris 11 自带了一个光纤通道发起方系统,您可以对它进行配置以便将 Sun ZFS
存储设备提供的光纤通道 (FC) LUN 集成到 Oracle Solaris 环境中。本文介绍如何配置 Oracle Solaris 光纤通道系统以及如何配置
Sun ZFS 存储设备来配置供 Oracle Solaris 服务器访问的 FC LUN。可以使用浏览器用户界面 (BUI) 完成这些配置。
本文做出以下假设:
已知 Sun ZFS 存储设备的 root 帐户口令。
已知 Sun ZFS 存储设备的 IP 地址或主机名。
已配置好 Sun ZFS 存储设备使用的网络。
Sun ZFS 存储设备已配置有具有足够可用空闲空间的存储资源池。
已知 Oracle Solaris 服务器的 root 帐户口令。
Sun ZFS 存储设备已经连接到光纤通道交换机。
已在 FC 交换机上配置了相应的区域,允许 Oracle Solaris 主机访问 Sun ZFS 存储设备。
配置 Oracle Solaris FC 系统
为了让 Sun ZFS 存储设备和 Oracle Solaris 服务器彼此标识,每个设备的 FC 全球编号 (WWN)
必须在另一个设备中注册。您必须确定在 FC 交换机上实现的某些形式 FC 区域的 WWN。
主机的 FC WWN 用于向 Sun ZFS 存储设备标识主机,并且需要它来完成本文中的配置过程。
WWN 来自在 Oracle Solaris 主机和 Sun ZFS 存储设备中安装的 FC 主机总线适配器 (HBA)。
为了配置 Oracle Solaris FC 系统,您需要知道 Sun ZFS 存储设备的 WWN。在传统的双结构存储区域网络 (SAN) 中,Sun
ZFS 存储设备至少有一个 FC 端口连接到每个结构。因此,您必须至少确定两个 FC WWN。
标识 Sun ZFS 存储设备 FC WWN
首先,您需要建立一个到 Sun ZFS 存储设备的管理会话。
在 Web 浏览器的地址栏中输入一个包含 Sun ZFS 存储设备的 IP 地址或主机名的地址,如以下 URL 所示:
https://<ip-address or host name>:215
将显示登录对话框。
输入用户名和口令,然后单击 LOGIN。
成功登录到 BUI 之后,您可以通过 Configuration 选项卡标识 WWN。
单击 Configuration > SAN > Fibre Channel
Ports。
将显示安装在 Sun ZFS 存储设备中的 FC 端口。由于每个 HBA 通道只有一个已发现的端口,因此这必须是 HBA 通道本身。
在前面的示例中,端口 1 具有 WWN 21:00:00:e0:8b:92:a1:cf,端口 2 具有 WWN
21:01:00:e0:8b:b2:a1:cf。
在每个 FC 端口框右侧的列表框中,应该将 FC 通道端口设置为 Target。如果情况并非如此,则 FC
端口可能用于其他用途。在调查原因之前,请不要更改设置。(一种可能的原因是可能用于了 NDMP 备份。)
标识 Oracle Solaris 主机 HBA WWN
如果 Oracle Solaris 主机已经通过相应的电缆连接到 FC 交换机,则使用以下命令来标识 WWN。
要获得主机的 WWN,输入以下命令:
root@solaris:~# cfgadm -al -o show_FCP_dev
root@solaris:~#
在该输出中,您需要的控制器号为 c8 和 c9。当端口类型为
fc-fabric 时,您还可以看到两个端口都连接到一台 FC 交换机。接下来,查询这些控制器来确定发现的 WWN。
如果 HBA 端口未用于访问任何其他连接 FC 的设备,则可使用以下命令来确定 WWN。
root@solaris:~# prtconf -vp | grep port-wwn
port-wwn: 210000e0.8b89bf8e
port-wwn: 210100e0.8ba9bf8e
root@solaris:~#
如果正在访问 FC 设备,则以下命令将显示 FC HBA WWN。
root@solaris:~# luxadm -e mp_map /dev/cfg/c8
root@solaris:~#
显示为类型 0x1f 的最后一个条目 (Unknown type, Host Bus Adapter)
在端口 WWN 条目下提供了相应的 WWN。重复此命令,使用在第 1 步中标识的其他控制器替换
/dev/cfg/c8。
从输出中,您可以看到 c8 具有 WWN
21:00:00:00:e0:8b:89:bf:8e,c9 具有 WWN
21:01:00:e0:8b:a9:bf:8e。
然后,可以使用 Sun ZFS 存储设备 HBA 和 Oracle Solaris 主机 HBA WWN 来配置任何 FC 交换机区域。
完成此操作之后,您可以运行以下命令来验证正确的区域:
root@solaris:~# cfgadm -al -o show_FCP_dev c8 c9
root@solaris:~#
现在,您可以看到可由 Oracle Solaris 主机访问的 Sun ZFS 存储设备提供的 WWN。
使用浏览器用户界面配置 Sun ZFS 存储设备
作为一个统一的存储平台,Sun ZFS 存储设备既支持通过 iSCSI 协议访问数据块协议
LUN,又支持通过光纤通道协议进行同样的访问。这一节讲述如何使用 Sun ZFS 存储设备 BUI 来配置 Sun ZFS 存储设备,使其能够识别 Oracle
Solaris 主机并向该主机提供 FC LUN。
定义 FC 目标组
在 Sun ZFS 存储设备上创建目标组,以便定义 Oracle Solaris 服务器可通过哪个端口和协议访问提供给它的 LUN。对于此示例,创建 FC
目标组。
执行以下步骤在 Sun ZFS 存储设备上定义 FC 目标组:
单击 Configuration > SAN 显示 Storage Area Network (SAN)
屏幕
单击右侧的 Targets 选项卡,然后选择左侧面板顶部的 Fibre Channel
Ports
将鼠标放置在 Fibre Channel Ports 框中,将在最左侧出现一个 Move 图标()
单击 Move 图标并将此框拖到 Fibre Channel Target
Groups 框,如图 4 所示。
拖动橙色框中的条目来创建新的目标组。将创建组,并将其自动命名为 targets-n,其中
n 是一个整数。
将光标移到新目标组条目上。在 Fibre Channel Target Groups 框右侧会出现两个图标
要重命名新的目标组 targets-0,单击 Edit 图标()显示对话框
在 Name 域中,将默认名称替换为新 FC 目标组的首选名称,单击
OK。本例中用名称 FC-PortGroup 替换
targets-0。在此窗口中,您还可以通过单击所选 WWN 左侧的框来添加第二个 FC 目标端口。第二个端口标识为 PCIe 1:Port 2。
单击 OK 保存更改。
单击 APPLY。 Fibre Channel Target Groups
面板中显示了如上的更改。
定义 FC 发起方
定义 FC 发起方以便允许从一台或多台服务器访问特定卷。应该配置对卷的访问权限,以便允许最少数量的 FC
发起方访问特定卷。如果多个主机可以同时写入一个指定卷并且使用非共享文件系统,则各主机上的文件系统缓存可能出现不一致,最终可能导致磁盘上的映像损坏。一般对于一个卷,只会赋予一个发起方对该卷的访问权限,除非使用的是一种特殊的集群文件系统。
FC 发起方用于从 Sun ZFS 存储设备的角度出发来定义“主机”。在传统的双结构 SAN 中,主机将至少由两个 FC 发起方来定义。FC
发起方定义包含主机 WWN。为了向 Sun ZFS 存储设备标识 Oracle Solaris 服务器,必须在存储设备中注册 Oracle Solaris FC
发起方 WWN,为此要执行以下步骤。
单击 Configuration > SAN 显示 Storage Area Network (SAN)
屏幕
单击右侧的 Initiators 选项卡,然后选择左侧面板顶部的 Fibre Channel
Initiators
单击 Fibre Channel Initiators 左侧的 图标显示 New Fibre Channel Initiator 对话框
如果已在 FC 交换机上配置了区域,则应显示 Oracle Solaris 主机的 WWN(假设没有为它们指定别名)。
在对话框底部单击一个 WWN(如果显示)预填充全球名称,或者在 World Wide Name 框中键入相应的
WWN。
在 Alias 框中输入一个更有意义的符号名称。
单击 OK。
对于其他涉及 Oracle Solaris 主机的 WWN,重复前面的步骤。
定义 FC 发起方组
将一些相关 FC 发起方组成逻辑组,这样可以对多个 FC 发起方执行同一个命令,例如,可以使用一个命令对一个组中的所有 FC 发起方分配 LUN
访问权限。对于下面的示例,FC 发起方组将包含两个发起方。注意,在集群中,多个服务器被视作一个逻辑实体,因此发起方组可以包含更多发起方。
执行以下步骤创建一个 FC 发起方组:
选择 Configuration > SAN 显示 Storage Area Network (SAN)
屏幕。
选择右侧的 Initiators 选项卡,然后单击左侧面板顶部的 Fibre Channel
Initiators。
将光标放置在上一节中创建的一个 FC 发起方条目上。此时,在该条目左侧会出现一个 Move 图标()
单击 Move 图标并将其拖到右侧的 Fibre Channel Initiator
Groups 面板中。此时,在 Fibre Channel Initiators Groups 面板底部出现了一个新的条目(黄色亮显)
将光标移到新的条目框上,然后释放鼠标键。此时会创建一个新的 FC 发起方组,其组名称为
initiators-n,其中 n 是一个整数,如图 13
所示。
将光标移到新发起方组条目上。在目标发起方组框右侧会出现几个图标
单击 Edit 图标()显示对话框
在 Name 域中,将新发起方组的默认名称替换为选定名称,单击 OK。本例使用
sol-server 作为该发起方组名称。
在此对话框中,您可以通过单击 WWN 左侧的复选框向组中添加其他 FC 发起方。
在 SAN 配置屏幕中单击 APPLY 确认所有修改,如图 15 所示。
定义 Sun ZFS 存储设备项目
为了对相关卷进行分组,您可以在 Sun ZFS 存储设备中定义一个项目。通过使用项目,可以继承项目所提供文件系统和 LUN
的属性。还可以应用限额和保留。
执行以下步骤创建一个项目:
选择 Shares > Projects 显示 Projects 屏幕
单击左侧面板顶部的 Projects 左侧的 图标显示
Create Project 对话框
要创建一个新项目,输入项目名称,单击 APPLY。在左侧面板的 Projects 列表中出现了一个新项目。
选择这个新项目查看其所含组件
定义 Sun ZFS 存储设备 LUN
接下来,您将从一个现有存储资源池中创建一个 LUN,供 Oracle Solaris 服务器访问。在下面的示例中,将创建一个名为
DocArchive1 的精简供应 64 GB LUN。
我们将使用定义 FC 目标组一节中创建的 FC 目标组
FC-PortGroup 来确保可以通过 FC 协议访问该 LUN。将使用定义 FC
发起方组一节中定义的发起方组 sol-server 来确保只有在 sol-server
组中定义的服务器才可以访问该 LUN。(在本例中,该发起方组只包含一个服务器。)
执行以下步骤创建一个 LUN:
选择 Shares > Projects 显示 Projects 屏幕。
在左侧 Projects 面板中,选择该项目。然后选择右侧面板顶部的 LUNs
单击 LUNs 左侧的 图标显示 Create LUN
对话框,如图 20 所示。
输入合适的值以配置该 LUN。对于本例,将 Name 设置为
DocArchive1,Volume size 设置为 64 G,并且选中
Thin provisioned 复选框。将 Target Group 设置为 FC 目标组
FC-PortGroup,将 Initiator Group 设置为
sol-server。将 Volume block size 设置为
32k,因为该卷将保存 Oracle Solaris ZFS 文件系统。
单击 APPLY 创建该 LUN 使其供 Oracle Solaris 服务器使用。
配置 LUN 以供 Oracle Solaris 服务器使用
现在我们已准备好了 LUN,可以通过 FC 发起方组使用它了。接着必须执行以下步骤,配置 LUN 以供 Oracle Solaris 服务器使用:
发起一个连接 Sun ZFS 存储设备的 Oracle Solaris FC 会话,如清单 1 所示。由于在发起该 FC 会话前已创建了 LUN,该
LUN 将会自动启用。
清单 1. 发起 Oracle Solaris FC 会话
root@solaris:~# cfgadm -al c8 c9
root@solaris:~# cfgadm -c configure c8::210100e08bb2a1cf
root@solaris:~# cfgadm -c configure c9::210000e08b92a1cf
root@solaris:~# cfgadm -al -o show_FCP_dev c8 c9
root@solaris:~#
验证对 FC LUN 的访问,如清单 2 所示。
清单 2. 验证对 FC LUN 的访问
root@solaris:~# devfsadm -c ssd
root@solaris:~# tail /var/adm/messages
[...]
[...]
在本例中,多路径状态最初显示为 degraded,因为此时只识别了一个路径。进一步,多路径状态更改为
optimal,因为存在多个到达卷的路径。
磁盘设备现在同样可供内部服务器磁盘使用。
格式化 LUN,如清单 3 所示。
清单 3. 格式化 LUN 格式
root@solaris:~# format
Searching for disks...done
: configured with capacity of 63.93GB
AVAILABLE DISK SELECTIONS:
[...]
Specify disk (enter its number): 4
selecting
[disk formatted]
Disk not labeled. Label it now? y
FORMAT MENU:
disk - select a disk
type - select (define) a disk type
partition - select (define) a partition table
current - describe the current disk
format - format and analyze the disk
repair - repair a defective sector
label - write label to the disk
analyze - surface analysis
defect - defect list management
backup - search for backup labels
verify - read and display labels
save - save new disk/partition definitions
inquiry - show vendor, proct and revision
volname - set 8-character volume name
!<cmd> - execute <cmd>, then return
quit
format> q
在准备好的 LUN 上构建 Oracle Solaris ZFS 文件系统,为此创建一个新的 ZFS 池、将此设备添加到 ZFS 池中,并创建 ZFS
文件系统,如清单 4 的示例所示。
清单 4. 构建 Oracle Solaris ZFS 文件系统
root@solaris:~# zfs createzpool create docarchive1 \
root@solaris:~# zfs list
[...]
root@solaris:~# zfs create docarchive1/index
root@solaris:~# zfs create docarchive1/data
root@solaris:~# zfs create docarchive1/logs
root@solaris:~# zfs list
[...]
df(1) 命令的最后两行输出表明,现在大约有 64 GB 新空间可供使用。转载仅供参考,版权属于原作者。祝你愉快,满意请采纳哦
C. 光纤存储设备主要技术参数主要包括哪些
缓存、最大硬盘数、主机连接数、LUN数量、MAX LUN SIZE。。。。。。。。
D. 光纤存储交换机和网络交换机有何区别
区别很大,大概说一下。1,存储交换机传输的是计算设备与存储设备或存储设备之间之间的数据,而网络交换机传输是服务器之间的访问数据,使用场景完全不同;2,存储交换机使用的是fc协议,而网络交换机大部分场景使用ip协议,由此产生的差异是存储交换机传输的数据有效载荷更多效率更高,但是对丢包,延时和抖动非常敏感,不支持数据包乱序,网络交换机则相反;3,为了应对协议特性和使用场景的不同,存储交换机需要更稳定的环境,保证数据包传输稳定,偶发的一个错包都可能导致全网的问题;4,存储交换机小客户基本用不上,只有集中存储需求强烈,备份要求极高的大型客户可能才需要;5,因此网络交换机遍地都是,品牌很多,存储交换机只有一两个外国厂商在做,基本没有选择。最后顺便说下,现在都在研究用ip协议承载存储数据的可行性,如果场景合适,以后可能就没有存储交换机了。
E. 存储器的分类,我知道有光纤存储器、scsi存储器,SNA,NAS 还有哪些,该怎么分
存储器:
按介质:磁盘(软盘,温盘也就是硬盘),光盘,磁带,集成电路(内存,闪存,固态硬盘)
按存取方式:随机,顺序(主要是磁带机)
按读写方式:只读(ROM),读写
光纤硬盘,SCSI,SAS,SATA,IDE等都是硬盘,只不过是接口不同吧
F. 光纤存储交换机是干什么用的
光纤交换机是一种高速的网络传输中继设备,它较普通交换机而言采用了光纤电缆作为传输介质。光纤传输的优点是速度快、抗干扰能力强。
功能
光纤以太网交换机是一款高性能的管理型的二层光纤以太网接入交换机。用户可以选择全光端口配置或光电端口混合配置,接入光纤媒质可选单模光纤或多模光纤。该交换机可同时支持网络远程管理和本地管理以实现对端口工作状态的监控和交换机的设置。
光纤端口特别适合于信息点接入距离超出五类线接入距离、需要抗电磁干扰以及需要通信保密等场合适用的领域包括:住宅小区FTTH宽带接入网络;企业高速光纤局域网;高可靠工业集散控制系统(DCS);光纤数字视频监控网络;医院高速光纤局域网;校园网络。
功能描述
无阻塞存储-转发交换模式,具有8.8Gbps的交换能力,所有端口可同时全线速工作在全双工状态
支持6K 个MAC地址,具备自动的MAC地址学习、更新功能
支持端口聚合,提供7组聚合宽带干路
支持优先级队列,提供服务质量保证
支持802.1d生成树协议/快速生成树协议
支持802.1x基于端口接入认证
支持IEEE802.3x全双工流量控制/半双工背压式流量控制
支持基于标记的VLAN/基于端口的VLAN/基于协议的VLAN,可提供255 个VLAN组,多达4K个VLAN
支持基于端口的网络接入控制
具有端口隔离功能
具有包头阻塞(HOL)预防机制,最大限度地减少包丢失
支持端口与MAC地址绑定,MAC地址过滤
支持端口镜像
具有SNIFF网络监听功能
具有端口带宽控制功能
支持IGMP侦听组播控制
支持广播风暴控制
网络管理:
远程集中网管:支持SNMP,基于Web的管理,Telnet;基于指定端口或802.1Q VLAN,以增加安全性。
本地独立网管:通过标准的RS-232接口实现
网络标准和协议:
IEEE:
802.3,802.3u, 802.3z,802.3ab, 802.1d, 802.1p,802.1q, 802.1v, 802.3ad, 802.3x,802.1x
IEFT:
RFC1157 SNMP, RFC 1112/2236 IGMP, RFC854 Telnet, RFC 1123/1493/1643 MIB
G. 服务器本地硬盘读写速度和光纤存储设备读写速度哪个快些
。。这里有个概念性问题,光纤是数据信号经调制成光脉冲信号的传输载体,并没有存储数据功能。那"光纤存储设备"指何种存储介质?
H. 光纤存储指的是链路FC还是FC硬盘
指链路光纤,通过光交换机和尾纤,HBA卡组成的链路,适用于高端应用
FC硬盘是在盘阵内的存储介质,通常有SATA,SAS和FC三种,也是基于性能的不同而做选择。性能和价格成正比。
I. 光纤、iSCSI、NAS:谁是服务器虚拟化最佳存储类型
因为每个应用环境都是不同的,即使在一个地方表现良好,那也不能保证在其他地方同样合适。 对于服务器虚拟化环境来说,光纤通道存储是比较传统的选择。但现在iSCSI和NAS的普及程度也越来越高,毕竟它们的性价比更加突出。下面本文就来看看每一种网络存储技术的规格特性,并逐一分析它们的优势和不足。 光纤通道存储 单从性能和可靠性的角度看,光纤通道无疑是出色的存储架构,其它产品很难与之PK.但凡事都有两面性,使用光纤通道存储的确获得了高性能,可用户却不得不承担更高的成本,以及面对更复杂的技术架构。不过,光纤通道技术在数据中心领域的应用历史很长,基础非常好,因此比较大的虚拟化环境通常都倾向于选择光纤通道,这些用户主要还是考虑速度和可靠性的因素(光纤通道当前的带宽是8 Gbps,下一代是16 Gbps)。另外,光纤通道存储网络一直是相对独立的,因此与基于以太网的存储设备相比安全性更好。可问题是,光纤通道需要特殊的HBA主机适配器、特殊的交换机,而且这些配件比以太网络使用的同类配件更加昂贵。 客观的说,如果要从零开始构建一个光纤通道网络代价是很高的。除此之外,光纤通道环境的部署和管理也更复杂,与传统网络架构相比,它配置起来难度很大,熟悉此项技术的人才也偏少。当前,很多公司都有技术熟练的网络管理员,但其中却很少有光纤通道存储网络方面的管理人才。设计并管理一个SAN架构通常需要经过特殊的培训,这无形中又进一步增加了实施的费用。 光纤通道存储的优势: FC是部署企业级存储架构的首选,而且许多应用环境本身就已经在使用SAN了; 由于具有更高的可用带宽,通常情况下性能表现最好; 独立的光纤通道网络更安全;还有LUN zoning和LUN masking等访问控制机制; 支持boot from SAN(从存储启动系统),服务器本地不再需要硬盘; 基于block的块存储类型,可以使用VMware vSphere自带的VMFS卷(一种文件系统)。 光纤通道存储的不足: 从零开始构建的话,部署成本会很高; 需要特殊的、昂贵的配件,比如交换机、线缆和HBA卡; 实施和管理也许更复杂,通常需要专职的存储管理员; 可用的安全控制功能较少,实现认证和加密比较复杂。 如果用户的物理服务器上准备运行多个虚拟机,且应用类型对磁盘I/O有较高的要求,那么为了得到最佳的性能,用户或许应该认真考虑使用光纤通道存储系统。此外,FCoE也是一个选择,它相当于在传统的以太网设备上承载光纤通道协议。但目前FCoE必须部署在同样昂贵的10 Gbps以太网环境,需要特殊的交换设备。 如果用户的应用环境中已经有了FC SAN,那么在构建虚拟化平台时使用光纤通道储存是很合适的。扩展一个已有的SAN环境很容易,而且比部署一个全新的环境要便宜许多。如果用户的预算充足,而且有管理复杂环境的技术能力,那么选择光纤通道存储一定没错。
J. 什么是光纤存储系统
一般是指服务器与存储(盘柜)之间的i/o是用光纤传输。当然服务器上有光纤卡,盘柜用光纤模块。