系统整合及本地存储方案.doc
- 文档编号:1312908
- 上传时间:2023-04-30
- 格式:DOC
- 页数:50
- 大小:717KB
系统整合及本地存储方案.doc
《系统整合及本地存储方案.doc》由会员分享,可在线阅读,更多相关《系统整合及本地存储方案.doc(50页珍藏版)》请在冰点文库上搜索。
系统整合及本地存储方案
系统整合及本地存储方案
成都中铁信计算机工程有限公司
二○一○年一月
目录
第一章概述 -4-
第二章需求分析 -5-
第三章整体方案设计 -6-
3.1整体思路 -6-
3.2数据整合方案设计 -7-
3.2.1PowerVM虚拟技术简介 -7-
3.2.1虚拟技术原理 -10-
3.2.2服务器虚拟化的优势 -11-
3.2.3虚拟化服务的必要性 -12-
3.2.4虚拟化微分区设计 -12-
3.2.5数据整合总体设计 -16-
3.3应用整合方案设计 -17-
3.3.1应用整合设计原则 -17-
3.3.2刀片式服务器的优势 -19-
3.3.3应用整合总体设计 -22-
3.4本地存储方案设计 -23-
3.4.1数据备份系统需求分析 -23-
3.4.2产品选型 -24-
3.4.3系统部署 -25-
3.4.4备份策略 -25-
3.5小型机扩容设计 -26-
3.6整体拓扑结构设计 -27-
第四章方案建议配置 -28-
4.1中端配置方案 -28-
4.2高端配置方案 -29-
第五章主要产品简介 -32-
5.1POWER595产品简介 -32-
5.1.1产品优势一览表 -32-
5.1.2产品特性 -33-
5.2POWER570产品简介 -34-
5.2.1产品优势 -34-
5.2.2产品特性 -35-
5.3DS5100产品介绍 -37-
5.3.1硬件概要 -38-
5.3.2DS5100特性与优势 -39-
5.3.3DS5100技术规格 -40-
5.4备份软件产品介绍 -41-
5.4.1VERITASStorageFoundationDR软件 -41-
5.4.2VERITASNetbackup备份软件 -47-
第一章概述
在要求日趋严格、竞争不断加剧的市场经济环境中,有效的数据管理对企业的发展和成功起着至关重要的作用。
如果能随时随地及时地向您的员工、合作伙伴和客户提供他们所需要的最新信息,将会大大提高企业的整体运营效率,获得更多的洞察和商机,从而在激烈的市场竞争中立于不败之地。
随着大量收集和使用信息的有效方法及工具的产生,促使数据量迅猛增长,企业的存储需求相应不断增加。
现在很多企业都会拥有多种类型的服务器,分别安装了Linux、AIX和Windows等多种操作系统,从而导致因服务器对存储需求差异较大,不得不维护多套不同接口类型的存储系统:
如NAS、iSCSI、SAN等,增加了设备购置及相应的管理成本投入。
以下是企业所面临的数据存储挑战:
lIT技术日新月异,现有的单一存储系统无法满足未来多样化数据存储的要求,缺乏灵活性;
l要想实现数据在Linux、UNIX和Windows之间的共享,必须进行文件格式的转换,造成资源耗费;
l无法对非结构化数据(如图片、文件等)进行方便的检索,快速查询到所需数据;
l需要一个能够规避灾害的IT环境,实施灾难备份解决方案,但又不得不面对耗资太高、实施复杂、网络带宽无法满足要求、切换到灾备中心以及回切困难的挑战;
l存在必须满足法规遵从、数据加密、安全备份、知识产权保护及安全信息共享等要求的压力。
企业需要的是:
l智能的数据和存储管理功能,以便通过有限的管理资源来应对企业的业务增长;
l为跨多个服务器和存储平台的多种应用程序整合存储系统,并提高资源利用率;
l部署存储和数据管理系统以满足业务需求时,又必须同时降低采购和管理成本。
第二章需求分析
根据提供的信息,目前用户的需求主要为:
l现有主要业务应用有7-8个;
l其中1个主要应用建立了硬件级别的HA,部署了1套磁盘阵列用于数据存储;
l现有应用涉及的数据库主要有:
Sybase、Oracle、SQL等,后期数据大集中以后,将主要应用Sybase、Oracle这两种数据库;
l系统后期会考虑到其他应用的接入;
l现有1台P550小型机,需按照本次项目建设进行扩容后,作为备份管理服务器;
l现有数据量预估为30T,后期扩大应用后,数据总量可能会达到50~60T。
用户的预期达到目标:
l数据集中整合到1个硬件平台上;
l应用系统整合到1套硬件平台上;
l建立本地的统一数据存储系统,将各应用的数据进行集中存储管理;
l建立高可用的本地备份系统,保障在灾害情况下,数据能及时恢复。
。
第三章整体方案设计
3.1整体思路
对于本次项目建设需求,从技术层面来看,一个成功的信息系统整合及本地存储备份系统的实施,其成功与否,是看其能否完成系统的建设目标--业务连续性,这一点有需要来自管理层面的指导,其中很重要的技术指标是根据我们的备份策略所得到的RTO、和RPO,我们的技术解决方案就是要达到这样的指标。
从本次用户需求可以得出,本次项目的系统整合,需要从根本入手,分阶段的进行部署,首先应进行基于数据迁移的数据整合,其次应进行基于应用级别的整合,最后建立完善的本地存储备份体系,从而达到系统整合的目标。
在整个方案设计中我们主要遵循了以下几个思路:
l先进性与成熟技术的集合:
在设备选型设计中,我们要考虑采用当今业界的流行技术,同时要选用了在众多关键领域中已经得到充分验证的产品,以保证系统的更高的可靠性和可用性;
l高效管理的管理性,容灾实施以后,对系统的管理越来越重要,IBM所推荐的容灾方案整体的设计思想是利于以后的管理;
l性能价格比:
保证充分满足用户的性能的同时,考虑最优的性价比;坚持容灾系统建设投资经济合理性的原则;
l高可用性:
在充分考虑到系统的灵活性的同时,要避免任何的单点故障,以保证系统的可靠和数据的安全;
l可扩充性,保证购买的主机和存储在以后有足够的扩充性,起到投资保护的作用,具有可扩展性;
l开放性与标准化:
采用标准的技术以保证与其他厂家的产品相兼容;
l考虑现有设备的使用情况,提高产品的利用率;
l既保证性能又保证数据不丢失,同时兼顾应用迁移的解决方案。
数据整合思路:
基于现有的应用系统数据,考虑移植到统一的硬件平台中,对硬件平台的要求相对较高,解决思路是采用PowerVM虚拟化技术实现数据整合的目标,硬件平台采用2台小型机作为数据库服务器。
应用整合思路:
从用户的现状分析,结合用户的需求,我们得出,目前整个应用共计8类,其中最重要的应用系统已经采用了HA的硬件冗余设计,并且部署了1套磁盘阵列。
后期会考虑扩展一些非主要应用,结合这种情况,我们建议,采用刀片式服务器(BladeCenter)进行应用系统的整合。
本地存储备份思路:
使用SAN架构,部署一套中端的本地存储备份系统,采用备份软件+磁盘阵列+存储的组合,满足本地存储备份的需求。
小型机扩容思路:
原有小型机为P550,两路CPU1.5Ghz主频、4GB内存、146GB硬盘、单网卡、单电源等,本次需对该台小型机进行扩容升级,因CPU为power5+,故本次扩容主要考虑对内存及硬盘容量进行扩容。
3.2数据整合方案设计
3.2.1PowerVM虚拟技术简介
最新的PowerVM是在基于IBMPOWER处理器的硬件平台上提供的具有行业领先水平的虚拟化技术家族。
它是IBMPowerSystem虚拟化技术全新和统一的品牌(逻辑分区,微分区,Hypervisor,虚拟I/O服务器,APV,PowerVMLx86,LivePartitionMobility)。
大家对2004年即出现的APV应该记忆犹新,随着Power6的推出和i和p系列的合并,APV也发展成为PowerVM。
PowerVM有三个版本,分别是PowerVMExpressEdition,PowerVMStandardEdition,PowerVMEnterpriseEdition。
对于Power6,PowerVM新支持MultipleSharedProcessorPools功能和LivePartitionMobility功能。
下面就其主要部分介绍一下,以方便后面设计部分的阅读。
微分区(Micro-Partitioning)
微分区改变了POWER系列服务器的整个规划结构。
实施APV后,可以在资源分配方面提供更大的灵活性和细分能力。
添加处理器的部分处理能力而不是整个处理器,还能够帮助客户更好地利用服务器。
使用工作负载管理器(WLM)和PLM有助于更好地优化这些资源。
现在,分区要么是专用的处理器分区(按整个处理器的增量来分配处理能力),要么是共享的处理器分区(使用微分区);不会出现两者的组合。
使用微分区时,可以将一组处理器分配到共享处理器池(SPP),然后使LPAR可以(根据在池中获得的容量和优先级)使用这些处理器。
此时,服务器上仅有一个SPP可用,但多个LPAR可以共享这些资源。
虚拟I/O服务器
APV功能部件的关键组件之一是虚拟I/O服务器。
该设施可以提供I/O虚拟化和网络资源虚拟化。
虚拟I/O服务器是一个分区,用于提供I/O资源共享,还用于为一个或多个客户机LPAR托管虚拟盘、光存储和SEA。
虚拟LAN
虚拟LAN不是APV的一部分,它只需要POWER5系统上有AIX5LV5.3或支持的Linux版本。
HMC用于定义虚拟LAN设备,从而使LPAR通过内存而非以太网卡连接。
一个LPAR可支持多达256个虚拟LAN,每个虚拟LAN的传输速度都在1到3Gbps之间。
在这里,性能是值得关注的一点。
如果在分区之间使用物理LAN连接,则适配器以LAN的传输速度运行,而不是以通常快许多的内存传输速度运行。
由于适配器能够自行处理其任务,所以需要的处理器开销非常少。
如果使用VLAN,数据传输/交换速度会更快,因为两个分区之间基本上是内存传送。
但是,这种传输需要处理器的参与。
这两种传输方式的速度可能各有不同,视具体情况而定。
但总的来说,VLAN比物理互连要快。
共享以太网适配器
SEA是一种与APV一起提供的POWER5中的新服务,它支持多个分区共享虚拟I/O服务器上的物理适配器。
它实际上起着第2层网桥的作用,在客户机中的虚拟以太网适配器和主机服务器中的实际适配器之间路由数据。
网络适配器共享是通过虚拟I/O服务器上配置的SEA实现的。
通过虚拟I/O服务器,数据或者在实际网络中流动,或者经由Hypervisor流向实际分区。
虚拟SCSI
在I/O方面,使用虚拟SCSI服务器共享磁盘和适配器。
虚拟SCSI服务器运行在虚拟I/O服务器上,它能够支持您在一个物理磁盘上分配多个逻辑卷(LV)。
然后,您可以将每个LV导出到不同的客户机LPAR。
客户机LPAR会将这些LV视为常规SCSI磁盘,而它们实际上可能是通过光纤连接到服务器。
例如,您可以使用一个146GB磁盘驱动器,将它划分为3个45GbLV并将它们用作3个不同LPAR的引导磁盘。
总的来说,这些概念相互独立。
为便于后面阅读和实践,我们主要弄清2个大的概念:
微分区和VIOserver即可,以下是我个人的白话理解:
微分区
可以理解成可以小于1个CPU并和其他分区充分共享CPU的LPAR,内存的使用和LPAR没有什么不同。
它可以使用VIOserver共享出来的网卡和存储,也可以不用。
VIOserver
是一个特殊的分区,负责共享I/O(网卡和存储)供其他分区使用。
不仅仅是微分区,实际也可以供一般LPAR使用,只是考虑到性能的原因,一般不这么做。
其中网卡通过实际网卡通过SEA勾连转换为共享虚拟网卡,通过虚拟LAN和各个分区连通,同时使得各个分区可以通过共享虚拟网卡的桥接与外界联系。
共享存储是通过设置虚拟SCSI卡vhost,可以把VIOserver的lv或磁盘,(新powerVM还可以包括文件)映射给vhost,实际vhost对应到其他分区就是一块SCSI卡,可以供其他分区使用。
数据整合是一个非常困难的问题,但是有一种相对新颖的信息管理方法可以帮助人们解决这个问题,即数据虚拟化。
数据虚拟化,也被称为“将信息作为服务”(Information-as-a-Service)和“将数据作为服务”(Data-as-a-Service),能够通过把数据从应用程序中分离出来并存储到中间件层来减少数据整合上的障碍。
“Data-as-a-Service的重要性越来越大,因为如果你有10000个数据库,这10000个数据库中唯一正确的数据又在哪里?
应用程序知道吗?
答案大概是否定的。
如果应用程序与虚拟化层互相作用,这就表明你的数据一致——你有高质量的数据可供程序使用。
”
不过说到要让应用程序在中间件层与虚拟化数据完全连续地相互作用并不容易,这要求企业在数据质量和程序性能上多费心思。
典型的企业里运作多种DBMSs,信息常常因为复制和extracttransformandload(ETL)等操作而产生重复。
因此,要把正确的数据放入中间件层中,则需要在中间件层中建立确保数据质量的功能性。
“数据质量是一个很大的因素,因为你需要有一致的数值,”他说,“从传统意义上来讲,数据质量更加是一项离线的工作,或直接创建进应用程序里。
但是现在我们要把它创建到中间件层中。
中间件层将会进行数据质量分析的工作。
3.2.1虚拟技术原理
所有的IT设备,不管是PC、服务器还是存储,都有一个共同点:
它们被设计用来完成一组特定的指令。
这些指令组成一个指令集。
对于虚拟技术而言,“虚拟”实际上就是指的虚拟这些指令集。
虚拟机有许多不同的类型,但是它们有一个共同的主题就是模拟一个指令集的概念。
每个虚拟机都有一个用户可以访问的指令集。
虚拟机把这些虚拟指令“映射”到计算机的实际指令集。
硬分区、软分区、逻辑分区、SolarisContainer、VMware、Xen、微软VirtualServer2005这些虚拟技术都是运用的这个原理,只是虚拟指令集所处的层次位置不同。
实际应用上,除了金融业、制造业、政府部门和科研领域的用户,许多用户对服务器整合、虚拟技术并不十分清晰。
在当前国内服务器市场,虚拟化的技术趋势与实际应用还存在较大差距。
以下是对虚拟化技术应用较好的行业的简要分析。
1、银行类用户
在虚拟化技术应用上最为积极。
银行是国内最早使用大型主机和小型机的行业,在应用上得到的技术支持最多,对于虚拟技术较为熟悉,期待程度和应用评价也最高。
特点在于对成本敏感度低,对虚拟技术的安全性和使用效率关注度高。
2、政府部门类用户
对虚拟技术的应用虽然不如银行用户那样熟悉,但通过技术人员的努力,仍能以最低的TCO(TotalCostofOwnership,总体拥有成本)获得最多的计算性能。
他们的特点是对预算较敏感,对系统效率提高感兴趣。
3、科研单位
随着数据计算量的加大,需要使用虚拟技术来提高系统使用效率。
这类用户对预算敏感度高,对虚拟技术本身倒并不是特别了解。
4、计算中心
如国家气象中心,大多采用高性能计算机集群,对计算性能和系统稳定性要求很高,对系统管理控制方面要求较多,对预算敏感度低。
总体而言,与北美和欧洲相对广泛的虚拟技术应用状况相比,国内在虚拟技术应用水平上还存在较大差距。
3.2.2服务器虚拟化的优势
1、维护运行在早期操作系统上的业务应用
对于某些早期操作系统,发行厂商已经停止了系统的维护,不再支持新的硬件平台,而重写运行在这些系统上的业务应用又不现实。
为此,可以将这些系统迁移到新硬件平台上运行的虚拟系统上,实现业务的延续。
2、提高服务器的利用率
《虚拟服务器环境》一书指出:
“多数用户承认,系统平均利用率只有25%~30%之间”。
这对服务器硬件资源是一种浪费。
将多种低消耗的业务利用整合到一台服务器上,可以充分发挥服务器的性能,从而提高整个系统的整体利用效率。
3、动态资源调配,提升业务应用整体的运行质量
可在一台计算机内部的虚拟机之间或是集群系统的各个业务之间进行动态的的资源调配,进而提升业务应用的整体运行质量。
在实际应用上,这一优势更偏重于集群系统。
4、提供相互隔离的,安全的应用执行环境
虚拟系统下的各个子系统相互独立,即使一个子系统遭受攻击而崩溃也不会对其他系统造成影响。
而且在使用备份机制后,子系统可被快速的恢复。
5、提供软件调试环境,进行软件测试,保证软件质量
采用虚拟技术后,用户可以在一台计算机上模拟多个系统,多种不同操作系统,使调试环境搭建简单易行,大大提高工作效率,降低测试成本。
3.2.3虚拟化服务的必要性
实际上从上世纪以来,人们一直在追求系统的兼容、整合和、集成能力,但屡屡由于计算机、操作系统、通信协议和接口不一致,即使投入大量的人力物力也不能做好或做得很好。
虚拟化技术在很大程度上解决了这一问题或有助于这一(异构化)问题的解决。
在一台主机或服务器上同时可以安装几台虚拟机,而每机可以安装不同的操作系统,因此就可以很容易集成大的系统,同时提高了系统的集成度。
采用虚拟化技术可以将不同服务器上的应用移动到同一台服务器上,进行服务合并;也可以将整个服务/操作系统组合安装在一台虚拟机上,与其它服务/操作系统组合一起运行,进行服务器合并。
可以把多台低效的服务器集中到数量比较少的服务器上(通常压缩比约为1/3.1/10)。
又可以适应紧急需要而快速设置一个虚拟机。
并且可以大大增强灾难恢复,高可用性。
根据需要,甚至在可以把几台虚拟机合并一台虚拟SMP机。
即使在工作站台或PC机上采用虚拟机也可以大有可为,比如在一台物理机上可以安装一个以上的操作系统,如一个虚拟机上是Windows,另一个是Linux;一个做个人用,一个做公用;一个进Intemet网,—个接内网以满足不同需求。
为处理繁重的负载,一些企业往往采用服务器负载均衡的技术,把工作负载分配在许多相同的服务器上。
服务被分配—个虚拟的IP地址,客户机使用虚拟IP地址访问服务。
实际服务器位于负载均衡器后端,在负载比较轻时,会关闭—个服务器,反之,在负载增加时也可以开启—个(些)额外服务器来满足需求,从而明显地降低IT运行成本。
虚拟化服务可以将正在运行的虚拟机磁盘文件从一个存储位置实时迁移到另一个存储位置,而无需停机。
可为虚拟机中运行的应用程序提供易于使用、经济有效的高可用性。
当物理服务器发生故障时,受影响的虚拟机将在具有预备用容量的其他生产服务器上自动重启动。
如在虚拟机中发生与操作系统相关的故障,会检测到,并在同一台物理服务器上重启动受影响的虚拟机。
3.2.4虚拟化微分区设计
在做具体设计之前,或者说一个准备实施微分区的服务器来说,至少需要调查了解各个分区系统的以下相关情况,这些都可能影响到微分区的配置和划分,在本章节中,我们已常见的虚拟化设计为例展开描述。
l各个微分区负载应用特点
如CPU、内存、网络等特别是I/O的负载的侧重。
l各个微分区网络需求
包括网段的划分、路由、网络设备的冗余等等在系统上线前的状况和可提供条件,以及运行过程中可能出现的变更。
l各个微分区存储需求
包括存储的大小,性能的要求,以后扩展的需要。
微分区的设计
本文由于是初步,具体分区需求不明确而,所以网卡和HBA卡设备都由VIOserver共享出来。
实际使用时,对于性能要求较高的微分区,网卡和HBA卡可以单独划分给某个分区。
1.分区规划
考虑到本次项目的实际情况,所有应用不超过10个,所以本次只划分了10个微分区,但实际可以更多,也可以事后再追加。
分区名
名称
ss55aa01
vioserver
ss55aa11
微分区1
ss55aa12
微分区2
ss55aa13
微分区3
ss55aa14
微分区4
ss55aa15
微分区5
ss55aa16
微分区6
ss55aa17
微分区7
ss55aa18
微分区8
ss55aa19
微分区9
ss55aa20
微分区10
2.CPU的设计
这些微分区为分别对应不通的应用系统,所以不太可能所有的分区都同时繁忙,所以做了如下设计:
分区名
min
desire
max
v_min
v_desire
v_max
share_mode
权重
ss55aa01
0.3
0.5
1
1
2
4
uncapped
128
ss55aa11
0.1
0.3
4
1
2
4
uncapped
64
ss55aa12
0.1
0.3
4
1
2
4
uncapped
64
ss55aa13
0.1
0.3
4
1
2
4
uncapped
64
ss55aa14
0.1
0.3
4
1
2
4
uncapped
64
ss55aa15
0.1
0.3
4
1
2
4
uncapped
64
ss55aa16
0.1
0.3
4
1
2
4
uncapped
64
ss55aa17
0.1
0.3
4
1
2
4
uncapped
64
ss55aa18
0.1
0.3
4
1
2
4
uncapped
64
ss55aa19
0.1
0.3
4
1
2
4
uncapped
2
ss55aa20
0.1
0.3
4
1
2
4
uncapped
2
权重越高,是当CPU不够分配的时候,按此比例来分配,即2个学习分区的权重最低,分配的CPU会最少。
注意,此处VIOserver的CPU也为共享,优先级最高,基于以下原因:
l这是由于该机器为中端/高端小型机,性能较高,对VIOserver的压力不大;
l此powerVM实际为power5的APV,不能实现power6的MultipleSharedProcessorPools功能,设为专有CPU后,将不能自动调整实际CPU的使用;
l实际使用过程中,如果CPU宽裕,对性能有较高要求的时候,建议采用专有的CPU模式。
3.内存的设计
考虑到实际情况,前8个分区为已有应用环境,后2个为扩展应用环境,具体调整需了解到实际应用后再修正。
分区名
min
desire
max
ss55aa01
512M
768
1G
ss55aa11
1G
3G
6G
ss55aa12
1G
3G
6G
ss55aa13
1G
3G
6G
ss55aa14
1G
3G
6G
ss55aa15
1G
3G
6G
ss55aa16
1G
3G
6G
ss55aa17
1G
3G
6G
ss55aa18
1
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 系统 整合 本地 存储 方案