文档视界 最新最全的文档下载
当前位置:文档视界 › 多数据中心解决方案

多数据中心解决方案

多数据中心解决方案
多数据中心解决方案

多数据中心解决方案

Redis在携程内部得到了广泛的使用,根据客户端数据统计,整个携程全部Redis的读写请求在200W QPS/s,其中写请求约10W QPS/S,很多业务甚至会将Redis当成内存数据库使用。

这样,就对Redis多数据中心提出了很大的需求,一是为了提升可用性,解决数据中心DR(Disaster Recovery)问题;二是提升访问性能,每个数据中心可以读取当前数据中心的数据,无需跨机房读数据。在这样的需求下,XPipe应运而生。

从实现的角度来说,XPipe主要需要解决三个方面的问题,一是数据复制,同时在复制的过程中保证数据的一致性;二是高可用,xpipe本身的高可用和Redis系统的高可用;三是如何在机房异常时,进行DR 切换。

下文将会从这三个方面对问题进行详细阐述。最后,将会对测试结果和系统在生产环境运行情况进行说明。为了方便描述,后面的行文中用DC代表数据中心(Data Center)。

1. 数据复制问题

多数据中心首先要解决的是数据复制问题,即数据如何从一个DC传输到另外一个DC,通常有如下方案:客户端双写

从客户端的角度来解决问题,单个客户端双写两个DC的服务器。初看没有什么问题。但是深入看下去,如果写入一个IDC成功,另外一个IDC失败,那数据可能会不一致,为了保证一致,可能需要先写入一个队列,然后再将队列的数据发送到两个IDC。如果队列是本地队列,那当前服务器挂掉,数据可能会丢失;如果队列是远程队列,又给整体的方案带来了很大的复杂度。

目前的应用一般都是集群部署,会有多个客户端同时操作。在多个客户端的前提下,又带来了新的问题。比如两个客户端ClientA和ClientB:

ClientA: set key value1ClientB: set key value2

由于两个客户端独立操作,到达服务器的顺序不可控,所以可能会导致两个DC的服务器对于同一个key,value不一致,如下:

Server1: set key value1; set key value2;Server2: set key value2; set key value1;

在Server1,最终值为value2,在Server2,最终值为value1。

服务器代理

Proxy模式解决了多客户端写可能会导致数据不一致的问题。proxy类似于一个client,和单个client双写的问题类似,需要一个数据队列保数据一致性。

为了提升系统的利用率,单个proxy往往需要代理多个Redis server,如果proxy出问题,会导致大面积的系统故障。这样,就对系统的性能和可用性提出了极大的挑战,带来实现的复杂度。

此外,在特殊的情况下,仍然会可能带来数据的不一致,比如value和时间相关,或者是随机数,两个Redis服务器所在系统的不一致带来了数据的不一致。

考虑到以上情况,为了解决复制问题,我们决定采用伪slave的方案,即实现Redis协议,伪装成为Redis slave,让Redis master推送数据至伪slave。这个伪slave,我们把它称为keeper,如下图所示:

有了keeper之后,多数据中心之间的数据传输,可以通过keeper进行。keeper将Redis日志数据缓存到磁盘,这样,可以缓存大量的日志数据(Redis将数据缓存到内存ring buffer,容量有限),当数据中心之间的网络出现较长时间异常时仍然可以续传日志数据。

Redis协议不可更改,而keeper之间的数据传输协议却可以自定义。这样就可以进行压缩,以提升系统性能,节约传输成本;多个机房之间的数据传输往往需要通过公网进行,这样数据的安全性变得极为重要,keeper之间的数据传输也可以加密,提升安全性。

2. 高可用

任何系统都可能会挂掉,如果keeper挂掉,多数据中心之间的数据传输可能会中断,为了解决这个问题,需要保证keeper的高可用。我们的方案中,keeper有主备两个节点,备节点实时从主节点复制数据,当主节点挂掉后,备节点会被提升为主节点,代替主节点进行服务。

提升的操作需要通过第三方节点进行,我们把它称之为MetaServer,主要负责keeper状态的转化以及机房内部元信息的存储。同时MetaServer也要做到高可用:每个MetaServer负责特定的Redis集群,当有MetaServer节点挂掉时,其负责的Redis集群将由其它节点接替;如果整个集群中有新的节点接入,则会自动进行一次负载均衡,将部分集群移交到此新节点。

Redis也可能会挂,Redis本身提供哨兵(Sentinel)机制保证集群的高可用。但是在Redis4.0版本之前,提升新的master后,其它节点连到此节点后都会进行全量同步,全量同步时,slave会处于不可用状态;master将会导出rdb,降低master的可用性;同时由于集群中有大量数据(RDB)传输,将会导致整体系统的不稳定。

截止当前文章书写之时,4.0仍然没有发布release版本,而且携程内部使用的Redis版本为2.8.19,如果升到4.0,版本跨度太大,基于此,我们在Redis3.0.7的版本基础上进行优化,实现了psync2.0协议,实现了增量同步。下面是Redis作者对协议的介绍。

https://https://www.docsj.com/doc/2410752401.html,/antirez/ae068f95c0d084891305

3. DR切换

DR切换分为两种可能,一种是机房真的挂了或者出异常,需要进行切换,另外一种是机房仍然健康,但是由于演练、业务要求等原因仍然需要切换到另外的机房。XPipe处理机房切换的流程如下: 检查是否可以进行DR切换

类似于2PC协议,首先进行prepare,保证流程能顺利进行。

?原主机房master禁止写入

此步骤,保证在迁移的过程中,只有一个master,解决在迁移过程中可能存在的数据丢失情况。

?提升新主机房master

?其它机房向新主机房同步

当然了,即使做了检查,也无法绝对保证整个迁移过程肯定能够成功,为此,我们提供回滚和重试功能。回滚功能可以回滚到初始的状态,重试功能可以在DBA人工介入的前提下,修复异常条件,继续进行切换。

根据以上分析,XPipe系统的整体架构如下所示:

Console用来管理多机房的元信息数据,同时提供用户界面,供用户进行配置和DR切换等操作。Keeper 负责缓存Redis操作日志,并对跨机房传输进行压缩、加密等处理。Meta Server管理单机房内的所有keeper状态,并对异常状态进行纠正。

4. 测试数据

我们关注的重点在于增加keeper后,平均延时的增加。测试方式如下图所示。从client发送数据至master,并且slave通过keyspace notification的方式通知到client,整个测试延时时间为t1+t2+t3。

首先我们测试Redis master直接复制到slave的延时,为0.2ms。然后在master和slave之间增加一层keeper,整体延时增加0.1ms,到0.3ms。相较于多个DC之间几毫秒,几十毫秒的延时,增加一层keeper 带来的延时是完全没问题的。

在携程生产环境进行了测试,生产环境两个机房之间的ping RTT约为0.61ms,经过跨数据中心的两层keeper后,测试得到的平均延时约为0.8ms,延时99.9线为2ms。

综上所述:XPipe主要解决Redis多数据中心数据同步以及DR切换问题,同时,由于XPipe增强后的Redis版本优化了psync协议,会极大的提升Redis集群的稳定性。

双活数据中心建设方案

目录 第1章概述.................................................................................................................... 错误!未指定书签。 1.1数据集中阶段的数据中心建设 ......................................................................... 错误!未指定书签。 1.1.1 传统架构存在的问题.................................................................................. 错误!未指定书签。 1.1.2 H3C全融合虚拟化架构 .............................................................................. 错误!未指定书签。 1.2双活数据中心建设目标 ..................................................................................... 错误!未指定书签。第2章双活数据中心业务部署 .................................................................................... 错误!未指定书签。 2.1基于的业务部署模式 ......................................................................................... 错误!未指定书签。 2.1.1 模式简介 ..................................................................................................... 错误!未指定书签。 2.1.2 企业数据中心业务典型部署...................................................................... 错误!未指定书签。 2.2基于的业务部署模式 ......................................................................................... 错误!未指定书签。 2.2.1 技术简介 ..................................................................................................... 错误!未指定书签。 2.2.2 企业数据中心典型部署.............................................................................. 错误!未指定书签。 2.2.3 与 ................................................................................................................. 错误!未指定书签。第3章双活数据中心设计............................................................................................ 错误!未指定书签。 3.1网络结构 ............................................................................................................. 错误!未指定书签。 3.2双活数据中心部署 ............................................................................................. 错误!未指定书签。

DataCenter-CN数据中心解决方案

康宁公司积极参与国际组织制定标准,驱动整个电讯行业技术创新与发展。康宁参与了数据中心电讯基础设施标准TIA-942的制定,并积极参与许多其他的TIA(电信工业协会)活动,也推动了与IEEE、FiberChannel、ICEA和以太网联盟的技术讨论。 康宁公司2000年所整合的 SIECOR和西门子通信电缆集团等产品线,有超过20年的标准化 委员会经验,是最早提供屏蔽系统的厂商,产品提供从100MHz到1,500MHz适合各种应 用。从线缆到接插件全部由康宁研发和生产,100%的质量跟踪,为EWP成员所安装的系 统的最终用户,提供25年质量保证。 康宁公司的技术创新始于光纤制造采用全部自行生产的玻璃材料和拥有专利的外气相沉 积技术,康宁公司专注于生产最纯净、最高品质的光纤。康宁光纤经过广泛的高于客户 要求的测试,严格的有效模式带宽计算测试测量程序(MiniEMBc方法),为确保强劲的 10Gb/s短距离系统传输提供最新和最佳的性能。 康宁拥有数据中心网络绝对的专业领导力 康宁公司与其他行业领导者的紧密关系强化了创新这一优势。康宁Plug & Play?系统产品线已经为思科公司技术开发计划和博科数据中心准备体系所认证。这些认证确保了康宁数据中心产品与业界领先电子产品之间的互操作性。康宁LANscape? Pretium? 集成化解决方案,是专为简单一体化集成思科和博科SAN 交换机产品而开发的。 QLogic NETtrack 伙伴计划认证表明了康宁的光纤连接解决方案与InfiniBand的电子产品在存储区域网络和高性能计算环境中良好的互操作性;康宁积极参与光纤通道行业协会,确保了客户掌握最前沿的光纤通道技术。

XXX SDN数据中心网络解决方案(模板)

XXX项目SDN数据中心网络解决方案(模板) XX集团 XXX.XXX.XXX

目录 1XXX项目建设背景 (4) 1.1项目背景 (4) 1.2项目目标 (4) 1.3项目需求 (4) 2XXSDN技术发展及产品现状 (4) 2.1XXSDN技术发展现状 (4) 2.2XXSDN市场地位 (5) 2.3XX SDN解决方案 (6) 3XXX项目SDN网络解决方案 (6) 3.1方案设计原则 (6) 3.2整体建设方案 (8) 3.2.1整体组网设计 (9) 3.2.2单Fabric组网设计 (10) 3.2.3方案主要功能 (11) 3.3XX SDN服务支持 (20) 3.3.1SDN部署服务 (20) 3.3.2SDN软件技术支持服务 (20) 3.3.3SDN开发者技术支持服务 (20) 3.3.4SDN解决方案规划咨询服务 (20) 3.3.5SDN APP定制开发服务 (21) 3.4XX SDN下一代数据中心优势 (21) 3.4.1 整网设计架构开放、标准、兼容 (22) 3.4.2可靠性设计 (22) 3.4.3安全融合,符合等保建设要求 (23) 3.4.4架构弹性设计 (23) 3.4.5端到端全流程自动化 (25) 3.4.6 可视化运维管理便捷 (25)

1 XXX项目建设背景 1.1项目背景 XXX 1.2项目目标 基于以上项目背景和需求,本次XXXX网络建设设计需要满足未来较长一段时期的基础设施部署需求,并借助本次XXXX网络部署的独立性,运用VXLAN、SDN主流技术对当前数据中心网络结构进行优化,以适应未来网络架构的发展需求。本项目的具体目标如下: 1.建设XXXX机房网络基础设施。 2.数据中心网络至少需要支持未来的生产系统、业务系统部署需求。业务 上线时间由原先的平均30天,缩短到分钟级别。 3.结合xx公司IT总体的规划,对XXXX的网络结构进行必要的优化,以适 应新时期的业务部署、安全运行、提高IT管理水平的需求,网络方案要 保持一定的先进性。 4.采用先进的数据中心设计理念,能够支持新一代应用架构,适用于未来 5-7年的IT技术发展,可以最大程度的保护数据和业务连续性。 1.3项目需求 在XXXX建设过程中,主要有以下几方面需求。 1.1.1 业务需求 如何更加快速地部署业务应用,为企业业务系统提供更及时、更便利的网络服务,提升企业的运行效率与竞争实力,也是当前企业数据中心使用中面临的挑战之一。因此,当前数据中心的建设必须考虑如何实现快速上线业务、快速响应需求、提高部署效率。 1.1.2 网络需求 服务器虚拟化使高效利用IT资源,降低企业运营成本成为可能。服务器内

IDC客户解决方案标准版

XXXXXXXXXXXXXXXXX公司IDC服务器解决方案 中国联合网络通信有限公司 北京三区电话局分公司 2012年XX月

IDC业务是一种通过向用户提供网络带宽和机房环境的租用,为客户提供大规模、高质量、安全可靠的服务器托管与租赁及相关增值产品的业务。是贵公司网站建设的最佳合作伙伴。 针对XXXXXXXXXXXX公司服务器托管的需求,我们将为客户提供专业IDC 托管服务。 北京联通的IDC基本服务主要包含以下内容: ?提供电信级机房场地(包含机位、机架),用于用户放置其服务器设备; ?提供用户接入互联网的独享或共享端口; ?针对用户的特殊电力需求、特殊机架改造等,提供个性化定制服务; ?提供电信级电力、空调等基础环境保障。 一、IDC技术方案 1.1 IDC机房介绍 (一)网络带宽 1.独享:2M、10M、20M、50M、100M、1000M及以上 2.共享:10M、100M (二)空间租用 1、机位:机架中的部分空间,以U(Unit)计算。1U=4.5CM 2、标准开放式机架:未经保护网封闭的机架 3、封闭式机架:根据用户需求使用保护网进行封闭的机架,最小单元4架。 (三)机房环境 位置:我公司有23个IDC机房,机房分布广泛,可最大限度的方便客户就近选择合适机房。 参数:IDC机房建在交通方便、自然环境清洁的地点。机房建筑结构抗震烈度不低于8度,能防雷击、防御重大洪涝灾害。IDC机房室内净高度不小于3.2米。机房承重不低于每平米600公斤,UPS室承重每平米不低于800公斤。

供电:机位、机架A、B两路交叉供电;供电采用两路10KV市电引入,五星和四星级机房UPS采用1+1或2+1冗余系统,机架双路电源引自不同的UPS系统,构成双总线系统.单机架供电2.86KVA(13A/架)或3.52KVA(16A/架). 按照满负荷配备柴油发电机,为IDC 机房提供后备电源,蓄电池满负荷工作持续时间30分钟。 安防:门禁系统、7*24小时专业保安、闭路监视系统及7*24小时监控等。通过摄像头保证机房监控无死角,监控系统由专业人员7*24小时值守,监控录像内容至少保存一个月。 布线:IDC机房根据不同机房条件采取下走线或者上走线方式布线,高低压分开,以太网线和光缆分开,三种线均有走线槽。 消防:采取防火构架和材料,不同的楼层/空间/防火门分隔。具有完善的消防监控系统7*24小时运行,使用火灾报警系统,自动探测活动并报警。据有气体灭火系统及充足的手动灭火设备。每年消防检测单位对设备检测一次。

云数据中心边界防护解决方案v1.0(文字说明)

云数据中心边界安全解决方案 -安全网关产品推广中心马腾辉 数据中心的“云化” 数据中心,作为信息时代的重要产物之一,先后经历了大集中、虚拟化以及云计算三个历史发展阶段。在初期的大集中阶段中,数据中心实现了将以往分散的IT资源进行物理层面的集中与整合,同时,也拥有了较强的容灾机制;而随着业务的快速扩张,使我们在软、硬件方面投入的成本不断增加,但实际的资源使用率却很低下,而且灵活性不足,于是便通过虚拟化技术来解决成本、使用率以及灵活性等等问题,便又很快发展到了虚拟化阶段。 然而,虚拟化虽然解决了上述问题,但对于一个处于高速发展的企业来讲,仍然需要不断地进行软、硬件的升级与更新,另外,持续增加的业务总会使现有资源在一定时期内的扩展性受到限制。因此,采用具有弹性扩展、按需服务的云计算模式已经成为当下的热点需求,而在这个过程中,数据中心的“云化”也自然成为发展的必然! 传统边界防护的“困局” 云计算的相关技术特点及其应用模式正在使网络边界变得模糊,这使云数据中心对于边界安全防护的需求和以往的应用场景相比也会有所不同。在云计算环境下,如何为“云端接入”、“应用防护”、“虚拟环境”以及“全网管控”分别提供完善、可靠的解决方案,是我们需要面对的现实问题。因此,对于解决云数据中心的边界安全问题,传统网关技术早已束手无策,而此时更需要依靠下一代网关相关技术来提供一套体系化的边界安全解决方案! 天融信云数据中心边界安全防护解决方案

面对上述问题,天融信解决方案如下: ?通过TopConnect虚拟化接入与TopVPN智能集群相结合,实现“云端接入”安全需求; ?通过在物理边界部署一系列物理网关来对各种非法访问、攻击、病毒等等安全威胁进行深度检测与防御,同时,利用网关虚拟化技术还可以为不同租户提供虚拟网关 租用服务,实现“应用防护”安全需求; ?通过TopVSP虚拟化安全平台,为虚拟机之间的安全防护与虚拟化平台自身安全提供相应解决方案,实现“虚拟环境”安全需求; ?通过TopPolicy智能化管理平台来将全网的网络及安全设备进行有效整合,提供智能化的安全管控机制,实现“全网管控”安全需求; 技术特点 ●虚拟化 ?网关虚拟化:

曙光DS800-G25双活数据中心解决方案介绍

曙光DS800-G25 双活数据中心解决案介绍 曙光信息产业股份有限公司

1解决案概述 在信息社会里,数据的重要性已经毋容置疑,作为数据载体的存储阵列,其可靠性更是备受关注。尤其在一些关键应用中,不仅需要单台存储阵列自身保持高可靠性,往往还需要二台存储阵列组成高可靠的系统。一旦其中一台存储阵列发生故障,另一台可以无缝接管业务。这种两台存储都处于运行状态,互为冗余,可相互接管的应用模式一般称之为双活存储。 由于技术上的限制,传统的双活存储案无法由存储阵列自身直接实现,更多的是通过在服务器上增加卷镜像软件,或者通过增加额外的存储虚拟化引擎实现。通过服务器上的卷镜像软件实现的双活存储,实施复杂,对应用业务影响大,而且软件购买成本较高。通过存储虚拟化引擎实现的双活存储,虽然实施难度有一定降低,但存储虚拟化引擎自身会成为性能、可靠性的瓶颈,而且存在兼容性的限制,初次购买和维护成本也不低。 曙光DS800-G25双活数据中心案采用创新技术,可以不需要引入任第三软硬件,直接通过两台DS800-G25存储阵列实现两台存储的双活工作,互为冗余。当其中一台存储发生故障时,可由另一台存储实时接管业务,实现RPO、RTO为0。这是一种简单、高效的新型双活存储技术。

2产品解决案 曙光DS800-G25双活数据中心案由两台存储阵列组成,分别对应存储引擎A、引擎B。存储引擎A 和B上的卷可配置为双活镜像对,中间通过万兆以太网链路进行高速数据同步,数据完全一致。由于采用虚拟卷技术,双活镜像对中的两个卷对外形成一个虚拟卷。对服务器而言,双活镜像对就是可以通过多条路径访问的同一个数据卷,服务器可以同时对双活镜像对中两个卷进行读写访问。组成双活镜像系统的两台存储互为冗余,当其中一台存储阵列发生故障时,可由另一台存储阵列直接接管业务。服务器访问双活存储系统可根据实际需要,选用FC、iSCSI式,服务器访问存储的SAN网络与数据同步的万兆网络相互独立,互不干扰。 组网说明: 1)服务器部署为双机或集群模式,保证服务器层的高可用, 2)存储与服务器之间的连接可以采用FC、iSCSI链路,建议部署交换机进行组网; 3)存储之间的镜像通道采用10GbE链路,每个控制器上配置10GbE IO接口卡,采用光纤交叉直连的式,共需要4根直连光纤; 4)组网拓扑

双活数据中心解决方案

双活数据中心建设方案建议书

前言 信息是用户的命脉。在过去的十年中,信息存储基础架构的建设为用户带来了长足的进步。从内置存储到外部RAID存储,从共享外部RAID阵列的多台服务器,到通过SAN共享更大存储服务器的更多服务器。在存储服务器容量不断扩展的同时,其功能也在不断增强。从提供硬件级RAID保护到跨磁盘阵列的独立于服务器的数据镜像,存储服务器正逐渐偏离服务器外围设备的角色,成为独立的“存储层”,以为服务器提供统一的数据存储,保护和共享服务。在数据中心。 随着用户服务的不断发展,对IT系统尤其是存储系统的要求越来越高。考虑到用户服务的重要性,由于信息的重要性,需要多个中心来防止单个数据中心的操作风险。 多数据中心建设计划可以防止出现单个数据中心的风险,但是面对建设多个数据中心的巨额投资,如何同时使用多个数据中心已成为IT部门的首要问题。决定者。同时,必须使用多个数据中心在各个中心之间传输和共享生产数据。众所周知,服务器性能的瓶颈主要在IO部分。不同中心之间的数据传输和共享将导致IO延迟,这将影响数据中心整体表现。 同时,各种制造商继续引入新技术,新产品,不断扩大容量,不断提高性能以及越来越多的功能。但是,由于不同存储供应商的技术实现方式不同,因此用户需要使用不同的管理界面来使用不同的供应商。存储资源。这样,也给用户行业的用户带来很多问题。首先,不可能使用统一的接口来允许服务器使用不同制造商的存储服务器,并且不同制造商的存储服务器之间的数据迁移也将导致业务中断。 针对用户跨数据中心信息传输和共享的迫切需求,推出存储解决方案,很好的解决了这些问题。

第一章.方案概述 1.需求 计划建设两个数据中心,构成同城双生产系统,两中心之间距离不超过100公里;要求数据零丢失,系统切换时间小于5分钟; 2.方案简介 为了满足客户建设容灾系统的需求,我们设计了本地双活数据中心。整体架构如下: 上图是双活数据中心总体框架,包括双活存储系统、双活数据库系统、双活应用系统和双活网络系统。 我们将利用存储双活技术和主机集群技术实现数据库系统的双活,利用负载均衡设备实现应用系统在两个数据中心内的负载均衡,利用动态域名确保两个数据中心的网络双活。 双活数据中心可以实现业务系统同时在两个节点同时工作,达到负载均衡的目的。当生产节点出现故障时,业务系统还能够在第二生产节点上正常工作,实现业务零切换。

双活数据中心解决方案(最新)

构建永不宕机的信息系统 ——双活数据中心

双活数据中心解决方案目录 案例分享 12

存储层 应用层 双活数据中心端到端技术架构 数据中心A 数据中心B 双活存储层双活访问、数据零丢失 异构阵列 双活应用层 Oracle RAC 、VMware 、FusionSphere 跨DC 高可用、 负载均衡、迁移调度 双活网络层高可靠、优化的二层互联 最优的访问路径 ≤100km 裸光纤 Fusion Sphere Fusion Sphere 接入层 汇聚层核心层DC 出口网络层 GSLB SLB GSLB SLB

前端应用的双活(VMware ) vm vm vm vm vm vm vm vm vm vm vm vm AD vm vm vm vm SQL node1MSCS vCenter Server vm vm vm vm APP……. APP……. SQL node2MSCS vm vm vm vm vm vm vm vm vm 大二层互通网络,跨数据中心VM 配置双活应用,使用虚拟化网关提供的镜像卷作为共享存储 Weblogic 业务集群 管理集群 vm Weblogic ?vSphere Cluster HA ?vSphere Cluster DRS ?配置PDL 参数 ?Huawei OceanStor UltraPath for vSphere ? 配合负载均衡设备实现 Weblogic 访问自动漂移和均衡 VMware 配置要点 业务访问效果 ?业务访问负载均衡 ?虚拟机分布按业务压力自动均衡 ?故障自动切换访问?Weblogic 可动态扩展 ? 单数据中心故障恢复后,虚拟机自动回切

双活数据中心方案15460

双活数据中心方案 一、需求背景: 随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。 近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。 商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。 为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。 二、发展趋势: 多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。目前客户建设多数据中心的模型可以归纳为以下几种: 1.单纯的数据容灾: 正常情况下只有主数据中心投入运行,备数据中心处于待命状态。发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。这种模式只能解决业务连续性的需求,但用户无法就近快速接入。灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。

双活数据中心解决方案

双活数据中心解决方案

目录 1 用户面临的挑战和需求 (3) 1.1面临的挑战 (3) 1.2迫切需求 (3) 2NetApp双活数据中心解决方案 (4) 3NetApp解决方案优势 (5)

1 用户用户面临的挑战面临的挑战面临的挑战和需求和需求 1.1 面临的挑战 ? 目前几乎所有金融行业用户的业务正常开展都离不开后端IT 环境的支持,一旦IT 环境由于各种原因不能正常提供支撑服务,就会对用户的业务造成巨大影响。因此金融用户对后端IT 系统的可靠性和可用性的要求越来越高,需要保证IT 系统7×24的运行能力。 ? 虽然目前大部分的专业存储系统均实现了硬件容灾保护,单个部件的失效不会导致其数据访问能力的失效。但是一旦某套存储系统由于一些严重故障或灾难性事故导致其整体性失效,则会导致前端应用系统的宕机从而影响业务系统的正常运行。因此金融用户需要在硬件冗余的基础上提供更高的可靠性保证。 ? 目前很多金融用户已经采取了多数据中心的架构,并且在多个数据中心之间进行了数据容灾保护架构的建设。但是由于传统的容灾架构基本上采用了Active-Standby 的方式,因此一方面限制了数据中心的角色和功能,另一方面也限制了用户在各个数据中心部署应用系统的灵活性。最重要的一点,传统的容灾架构在进行容灾恢复的时候过程复杂且冗长,缺乏足够的智能化。因此金融用户需要一种更加灵活更加智能化的多数据中心架构。 1.2 迫切需求 ? 后端存储系统在硬件冗余保护的基础上,需要提供更高级别的可靠性保证,能在存储系统发生整体性故障的时候还能保证数据访问的正常进行,从而防止这些严重故障或灾难性事故对业务系统造成严重影响。 ? 实现双活的数据中心架构替代原有的Active-Standby 架构,双活数据中心架构必须提供如下的功能: o 前端应用服务器可以从两个数据中心均能对同一份数据进行正常访问,同一个应用的服务器可以根据实际需要部署在两个中心当中的任何一个或同时部署在两个中心,部署在两个中心的应用服务器均可以处于服务提供状态

大数据中心建设的策划方案

大数据中心建设的策划方案 大数据中心建设不仅对广电网络现有的广播电视业务、宽带业务的发展产生积极作用,同 时为广电的信息化提供支撑,下面由学习啦为你整理大数据中心建设的策划方案的相关资料, 希望能帮到你。 大数据中心建设的策划方案范文一大型承载企事业、集团、机构的核心业务,重要性高, 不允许业务中断, 一般按照国标 A 级标准建设, 以保证异常故障和正常维护情况下, 正常工作, 核心业务不受影响。 数据中心机房基础设施建设是一个系统工程,集电工学、电子学、建筑装饰学、美学、暖 通净化专业、计算机专业、弱电控制专业、消防专业等多学科、多领域的综合工程。 机房建设的各个系统是按功能需求设置的,主要包括以下几大系统:建筑装修系统、动力 配电系统、空调新风系统、防雷接地系统、监控管理系统、机柜微环境系统、消防报警系统、 综合布线系统等八大部分。 一、建筑装修系统是整个机房的基础,它主要起着功能区划分的作用。 根据用户的需求和设备特点,一般可以将机房区域分隔为主机房区域和辅助工作间区域, 主机房为放置机架、服务器等设备预留空间,辅助工作间包括光纤室、电源室、控制室、空调 室、操作间等,为主机房提供服务的空间。 此外,数据中心机房装修需要铺抗静电地板、安装微孔回风吊顶等,确保机房气密性好、 不起尘、消防、防静电、保温等,以为工作人员提供良好的工作条件,同时也为机房设备提供 维护保障功能。 二、供配电系统是机房安全运行的动力保证。 计算机机房负载分为主设备负载和辅助设备负载。 主设备负载指计算机及网络系统、计算机外部设备及机房监控系统,这部分供配电系统称 为 “设备供配电系统,其供电质量要求非常高,应采用 UPS 不间断电源供电来保证供电的稳 定性和可靠性。 辅助设备负载指空调设备、动力设备、照明设备、测试设备等,其供配电系统称为“辅助 供配电系统,其供电由市电直接供电。 机房内的电气施工应选择优质电缆、线槽和插座。 插座应分为市电、UPS 及主要设备专用的防水插座,并注明易区别的标志。 照明应选择机房专用的无眩光高级灯具。 三、空调新风系统是运行环境的保障。 由于数据中心机房里高密度存放着大量网络和计算机设备,不仅产生大量的集中热量,而 且对环境中的灰尘数量和大小有很高的要求,这就对空调系统提出了更高的要求。 保证设备的可靠运行,需要机房保持一定的温度和湿度。 同时,机房密闭后仅有空调是不够的,还必须补充新风,形成内部循环。 此外, 它还必须控制整个机房里尘埃的数量, 对新风进行过滤, 使之达到一定的净化要求。

H3C数据中心解决处理方案总结

数据中心解决方案 前言 数据中心(Data Center,DC)是数据大集中而形成的集成IT应用环境,是各种IT应用业务的提供中心,是数据计算、网络传输、存储的中心。数据中心实现了IT基础设施、业务应用、数据的统一、安全策略的统一部署与运维管理。 数据中心是当前运营商和各行业的IT建设重点。运营商、大型企业、金融证券、政府、能源、电力、交通、教育、制造业、网站和电子商务公司等正在进行或已完成数据中心建设,通过数据中心的建设,实现对IT信息系统的整合和集中管理,提升内部的运营和管理效率以及对外的服务水平,同时降低IT建设的TCO。 H3C长期致力于IP技术与产品的研究、开发、生产、销售及服务。H3C不但拥有全线以太网交换机和路由器产品,还在网络安全、IP存储、IP监控、语音视讯、WLAN、SOHO及软件管理系统等领域稳健成长。目前,网络产品中国市场份额第一,安全产品中国市场份额位居三甲,IP存储亚太市场份额第一,IP监控技术全球领先,H3C已经从单一网络设备供应商转变为多产品IToIP 解决方案供应商。 H3C长期保持对数据中心领域的关注,持续投入力量于数据中心解决方案的研发,融合了网络、安全、IP存储、软件管理系统、IP监控等产品的基于IToIP架构的数据中心解决方案,有效地解决了用户在数据中心建设中遇到的各种难题,已经在各行各业的数据中心建设中广泛应用。 基于H3C在数据通信领域的长期研发与技术积累,纵观数据中心发展历程,数据中心的发展可分为四个层面: 数据中心基础网络整合: 根据业务需求,基于开放标准的IP协议,完成对企业现有异构业务系统、网络资源和IT资源的整合,解决如何建设数据中心的问题。 数据中心基础网络的设计以功能分区、网络分层和服务器分级为原则和特点。通过多种高可用技术和良好网络设计,实现数据中心可靠运行,保证业务的永续性; 数据中心应用智能:基于TCP/IP的开放架构,保证各种新业务和应用在数据中心的基础体系架构上平滑部署和升级,满足用户的多变需求,保证数据中心的持续服务和业务连续性。各种应用的安全、优化与集成可以无缝的部署在数据中心之上。 数据中心虚拟化:传统的应用孤岛式的数据中心模型扩展性差,核心资源的分配与业务应用发展出现不匹配,使得资源利用不均匀,导致运行成本提高、现有投资无法达到

大数据创业平台解决方案

大数据创业平台 解决方案

目录 1 建设大数据平台的目的 (3) 2 大数据平台带来的价值 (3) 3 投资建设的内容 (4) 3.1 大数据支撑体系建设 (5) 3.1.1 大数据支撑平台 (5) 3.1.2 数据管理子系统 (10) 3.1.3 创新创业管理子系统 (13) 3.1.4 数据统一展示门户子系统 (14) 3.1.5 用户及权限管理子系统 (17) 3.2 大数据平台运营维护服务 (19) 3.2.1 平台内部资源的监控管理 (19) 3.2.2 平台故障处理管理 (20) 3.2.3 日常平台管理任务自动化 (21) 3.2.4 故障处理自动化 (21) 3.3 科研专家和数据资源 (22) 4 项目收费和收益模型 (22) 4.1 平台运营服务 (22) 4.2 数据运营服务收益 (23) 4.3 大数据产业链发展促进收益 (23) 4.4 政府社会收益 (23) 5 项目建设阶段目标 (24)

1建设大数据平台的目的 大数据正在改变信息社会,我们正从IT时代走向DT时代。大数据产业,作为国家战略新兴产业,受到各级政府的高度重视。大数据产业建设,通过“政府引导、市场主导”的模式建设一个数据驱动的创新创业生态环境,改变当下政务数据的分散、独立的现状,充分利用“大众创业、万众创新”的创新创业热潮,积极建设一个以数据驱动的运营体系、创新创业生态、大数据产业链、政务数据共享交换、智慧城市大数据支撑平台为核心目的的大数据全产业链的生态环境。 以“一点创新,全盘激活”为引导思路,“一平台,多应用”为框架设计思路,在人才培育体系建立、就业岗位增加、产业发展空间和产值提升等方面真切的做到为政府提供全方位的服务,从而为产业发展现状形成标杆性的发展格局,夯实大数据产业发展基础。 进一步推进“大众创业、万众创新”,让创业创新成为经济增长的“倍增器”、发展方式的“转换器”,让“大众创业、万众创新”在全社会蔚然成风;支撑政府在更高的平台上实现经济可持续发展,为产业转型升级提供经验和启示。 2大数据平台带来的价值 创新创业大数据平台可以带来巨大的产业发展空间、解决诸多历史问题、明确城市产业的发展方向以及带动相关产业的协同发展,具体表现在:数据运营体系的建立:建立以数据为核心资产和驱动力的运营体系,全面利用智慧城市框架内各类垂直业务的运营数据、国信优易拥有的可访问的700T国家部分部委的政务数据、区域政府的各委办局的政务数据等高价值的数据资产,并为之配套形成标杆性的规范与标准,对于大数据产业发展方向无疑会产生标志性的里程碑意义。依托国信优易的未来国家级大数据共享促进中心的发展定位,创新创业大数据平台作为区域内唯一的国信优易所拥有的国家部委重要数据资源的访问接口,在未来以数据驱动的运营体系中会处于非常有利的发展格局。 创新创业生态的孵化:以数据为基础的创新创业平台,不仅迎合了国家“大众创业、万众创新”的政策,可以为政府服务,产生很多就业机会,形成有效的汇聚人才、吸引投资的强大磁场。数据作为政府的核心资产,有数据就有机遇,就会有人才培养和孵化的润土。

数据中心端到端网络解决方案

数据中心端到端网络解决方案 前言 数据中心(Data Center,DC)是数据大集中而形成的集成IT应用环境,是各种IT应用业务的提供中心,是数据计算、网络传输、存储的中心。数据中心实现了IT基础设施、业务应用、数据的统一、安全策略的统一部署与运维管理。 数据中心是当前运营商和各行业的IT建设重点。运营商、大型企业、金融证券、政府、能源、电力、交通、教育、制造业、网站和电子商务公司等正在进行或已完成数据中心建设,通过数据中心的建设,实现对IT信息系统的整合和集中管理,提升内部的运营和管理效率以及对外的服务水平,同时降低IT建设的TCO。 H3C长期保持对数据中心领域的关注,持续投入力量于数据中心解决方案的研发,融合了网络、安全、智能运维管理等产品的数据中心解决方案,有效地解决了用户在数据中心建设中遇到的各种难题,已经在各行各业的数据中心建设中广泛应用。 基于H3C在数据通信领域的长期研发与技术积累,纵观数据中心发展历程,数据中心的发展可分为四个层面: ?数据中心端到端网络整合:根据业务需求,基于开放标准的IP协议,完成对企业现有异构业务系统、网络资源和IT资源的整合,解决如何建设数据中心的问题。数据中心端到端网络的设计以功能分区、网络分层和服务器分级为原则和特点。通过多种高可用技术和良好网络设计,实现数据中心可靠运行,保证业务的永续性; ?数据中心应用智能:基于TCP/IP的开放架构,保证各种新业务和应用在数据中心的基础体系架构上平滑部署和升级,满足用户的多变需求,保证数据中心的持续服务和业务连续性。各种应用的安全、优化与集成可以无缝的部署在数据中心之上。 ?数据中心虚拟化:传统的应用孤岛式的数据中心模型扩展性差,核心资源的分配与业务应用发展出现不匹配,使得资源利用不均匀,导致运行成本提高、现有投资无法达到最优化的利用、新业务部署难度增大、现有业务持续性得不到保证、安全面临威胁。虚拟化通过构建共享的资源池,实现对网络资源、计算计算和存储资源的几种管理、规划和控制,简化管理维护、提高设备资源利用率、优化业务流程部署、降低维护成本。 ?数据中心资源智能:通过智能化管理平台实现对资源的智能化管理,资源智能分配调度,构建高度智能、自动化数据中心。 附件一数据中心相关产品 H3C数据中心解决方案产品分为三大部分: (1)端到端网络平台

大型数据中心解决方案

大型数据中心
实现有效的联结
机架 机柜行 机房 整个大楼 确保整体系统的效率和可用性

动态的能源管理构架 … 从 电力生产到电力使用 与关键应用领域全面兼容 有效平衡施耐德电气和第三方供应商之间的开放式标准
2

数据中心方向
整个业界都在行动, 致国于制定政策和相应的行为规范
● 绿色网格全球联盟一直致力于制定标准, 衡量,流程和技术以提升数据中心的性 能 ● 美国环境保护局 (EPA) 正在确定数据中心的效率标准 (能源之星评级) ● 欧盟委员会能源研究所 d正在确定数据 中心效率的 “行为准则” ● 大型企业联合会也正在开始确定公共的 碳承诺
是绿色网格计划的的创始成员及董事 会成员单位
效率不容忽视
3

什么是DCPI….
Data Center Physical Infrastructure
IT floor The “white space”
涉及供电,制冷,机架系统,安 防,管理等为IT设备提供技 持的各个层面
我们全面端到端视角对于可用性 我们全面端到端视角对于 可用性和 和效率 效率产生深远的影响 产生深远的影响
4

所有的挑战都汇集于数据中心
● IT密度不断提升,且已超出传统的供电和制冷基础设施的能力范围
● 分布式数据中心的的集中化 ● 虚拟化和IT运算的随需而变
● 设计及构建的周期需要更快可预见性更高
● 反复多变的商业氛围要求数据中心具有特别的灵活性以与其保持同步 多变 氛 要 其 ● IT技术的发展变化为”早期的使用者”带来明显的商业优势
● 能效现是已是一个全球性的问题
● 由于能耗大而且需求不断提升,数据中心已成为焦点 由于能耗大而且需求不断提升 数据中心已成为焦点 ● 能源成本和可用性会对底限产生影响
5

大数据中心建设方案

大数据中心建设方案 大数据中心建设不仅对广电网络现有的广播电视业务、宽带业务的发展产生积极作用,同时为广电的信息化提供支撑,下面由学习啦小编为你整理大数据中心建设的策划方案的相关资料,希望能帮到你。 大型承载企事业、集团、机构的核心业务,重要性高,不允许业务中断,一般按照国标A级标准建设,以保证异常故障和正常维护情况下,正常工作,核心业务不受影响。 数据中心机房基础设施建设是一个系统工程,集电工学、电子学、建筑装饰学、美学、暖通净化专业、计算机专业、弱电控制专业、消防专业等多学科、多领域的综合工程。机房建设的各个系统是按功能需求设置的,主要包括以下几大系统:建筑装修系统、动力配电系统、空调新风系统、防雷接地系统、监控管理系统、机柜微环境系统、消防报警系统、综合布线系统等八大部分。 一、建筑装修系统 是整个机房的基础,它主要起着功能区划分的作用。根据用户的需求和设备特点,一般可以将机房区域分隔为主机房区域和辅助工作间区域,主机房为放置机架、服务器等设备预留空间,辅助工作间包括光纤室、电源室、控制室、空调室、操作间等,为主机房提供服务的空

间。此外,数据中心机房装修需要铺抗静电地板、安装微孔回风吊顶等,确保机房气密性好、不起尘、消防、防静电、保温等,以为工作人员提供良好的工作条件,同时也为机房设备提供维护保障功能。 二、供配电系统 是机房安全运行的动力保证。计算机机房负载分为主设备负载和辅助设备负载。主设备负载指计算机及网络系统、计算机外部设备及机房监控系统,这部分供配电系统称为“设备供配电系统”,其供电质量要求非常高,应采用UPS不间断电源供电来保证供电的稳定性和可靠性。辅助设备负载指空调设备、动力设备、照明设备、测试设备等,其供配电系统称为“辅助供配电系统”,其供电由市电直接供电。机房内的电气施工应选择优质电缆、线槽和插座。插座应分为市电、UPS及主要设备专用的防水插座,并注明易区别的标志。照明应选择机房专用的无眩光高级灯具。 三、空调新风系统 是运行环境的保障。由于数据中心机房里高密度存放着大量网络和计算机设备,不仅产生大量的集中热量,而且对环境中的灰尘数量和大小有很高的要求,这就对空调系统提出了更高的要求。保证设备的可靠运行,需要机房保持一定的温度和湿度。同时,机房密闭后仅有空

浪潮双活存储解决方案

浪潮数据中心存储双活解决方案【需求分析】 大数据时代,数据已经成为各行业至关重要的核心资产。传统的灾备方案中存在着资源利用率低、可用性差、出现故障时停机时间长、数据恢复慢、风险高等问题。数据是否安全、业务是否连续运行无中断成为用户衡量一个灾备方案的关键。 传统数据中心存储灾备一般采用主备模式,只有当生产数据中心存储故障后,灾备中心存储才会接管数据访问业务,并且此过程需要手动执行,将灾备中心对应的业务Lun手动激活读写服务;此外,主备数据中心的模式,在正常业务运转情况下,只有主中心发挥作用,备中心的资源一直处于“待命”模式,无法最大程度发挥所有资源的效率。 双活数据中心将是未来数据中心发展的趋势,而存储双活又是数据中心双活的重要基础。 【浪潮存储双活方案设计】 浪潮AS8000-M3使用虚拟卷镜像与节点分离两个核心功能实现数据存储的双活构建: AS8000-M3虚拟卷镜像功能实现: 浪潮AS8000-M3作为异构存储整合的专业设备,可以实现在两台存储设备之间实现逻辑卷的镜像。保障单个磁盘的故障或单台存储的故障都不造成对前端服务器性能的影响,实现业务连续性。 上图是通过AS8000-M3实现两台阵列之间存储镜像的示意图,对于底层的磁盘阵列来说,其使用方式与现在相同,对其内部的磁盘先进行RAID,然后在RAID 组上进行逻辑磁盘(LUN)的划分。如上图的例子中,首先对两个阵列的磁盘做RAID5,然后在左边阵列中再作成LUNa和LUNb两个逻辑磁盘,同样在右边阵列中可以作成LUN1和LUN2两个逻辑磁盘。AS8000-M3将从左边磁盘阵列获得的管理磁盘a和从右边阵列获得的管理磁盘1进行镜像后,形成了虚拟卷为虚拟卷1,然后再将虚拟卷1映射给服务器。服务器就像使用本地磁盘一样的使用虚拟卷1。 使用AS8000-M3进行跨阵列镜像后,对于服务器获得的虚拟卷来说,不会因为任何一个后端磁盘存储系统的故障而出现问题。 ?AS8000-M3节点分离功能实现: 浪潮AS8000-M3拥有节点分离功能,可以把AS8000-M3一个节点组中的两个控制器节点分开放置,两个节点间最远距离可以达到100KM,AS8000-M3节点分离功能只是物理节点的分开放置,但是在用户对于数据的访问以及在AS8000-M3对于后挂存储空间的管理上与一个节点组处理方式相同,如果一个AS8000-M3

大数据中心建设方案

工业产品环境适应性公共技术服务平台信息化系统建设方案

1. 平台简介 工业产品环境适应性公共技术服务平台是面向工业企业、高校、科研机构等提供产品/材料环境适应性技术服务的平台。平台服务内容主要包括两部分,一是产品环境适应性测试评价服务,一是产品环境适应性大数据服务。测试评价服务是大数据的主要数据来源和基础,大数据服务是测试评价服务的展示、延伸和增值服务。工业产品环境适应性公共技术服务平台服务行业主要包括汽车、光伏、风电、涂料、塑料、橡胶、家电、电力等。 平台的测试评价服务依据ISO 17025相关要求开展。测试评价服务涉及2个自有实验室、8个自有户外试验场和超过20个合作户外试验场。见图1 图1环境适应性测试评价服务实验室概况 平台的大数据服务,基于产品环境适应性测试评价获取的测试数据以及相关信息,利用数据分析技术,针对不同行业提供产品环境适应性大数据服务,包括但不限于: (1)产品环境适应性基础数据提供; (2)产品环境适应性调研分析报告; (3)产品环境适应性分析预测; (4)产品环境适应性技术规范制定;

2. 信息化系统概述 信息化系统由两个子系统构成,即产品环境适应性测试评价服务管理系统和产品环境适应性大数据服务数据库系统。两个系统紧密关联,大数据系统的主要数据来源于测试评价服务产生的测试数据和试验相关信息,大数据服务是测试评价服务的展示、延伸和增值服务。 信息化系统的整体框架详见图2. 3. 产品环境适应性测试评价服务管理系统 建设内容 (1)测试评价业务的流程化和信息化 实现从来样登记、委托单下达、测试评价记录上传、报告审批、印发到样品试毕处理、收费管理等全流程电脑信息化管理;同时实现电子签名、分类统计、检索、自动提醒、生成报表等功能。 (2)实验室/试验场管理信息化 实现主要实验室/试验场样品、设备、标准、人员的信息化管理;实现主要仪器设备的数据自动采集和远程传输;实现主要试验场的远程视频监控。 (3)多方远程通讯 以广州为总部,实现广州总部与主要试验场之间的远程通讯,提供异地账户登录,满足异地多方人员(如委托方、委托方供应商、广州总部、户外试验场、外聘专家等)开展影音交流和现场办公; 总体要求 (1)人机界面采用WINDOW界面,直观简单易学; (2)数据或信息一次录入,多系统共用; (3)人员身份识别; (4)检测报告唯一性识别; (5)不合格自动提醒报警; (6)短信通知,软件将重要事项,如不合格记录及时发送至指定人员手机上。(7)数据溯源,所有修改行为均留记录; (8)提供多层密码、权限,避免越权操作

相关文档