开启辅助访问

超融合+云计算论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

超融合架构的本质是什么?

2016-4-3 22:32| 发布者: 渝粤| 查看: 3910| 评论: 24|原作者: 渝粤

摘要: 超融合在2015年关注度非常高,但各家厂商的超融合架构实现方法各有不同。我们不评判对错,也不去探究这些是不是真正的超融合,而是重新追本溯源,思考为什么超融合现在被关注,什么样的IT架构更“合适”于当今的商业 ...

超融合在2015年关注度非常高,但各家厂商的超融合架构实现方法各有不同。我们不评判对错,也不去探究这些是不是真正的超融合,而是重新追本溯源,思考为什么超融合现在被关注,什么样的IT架构更“合适”于当今的商业。


传统集中存储落后于现代企业数据中心发展


首先,选择超融合架构的原因,是传统存储解决不了现在企业数据中心的问题。


据麦肯锡研究显示,全球的IT数据每年在以40%的速度增加中。数据正在逐步影响商业,企业通过数据的分析来做决策与管理。完成快速的分析决策和管理,就需要借助强大的数据中心。下图为传统SAN存储:


1.png

图1 传统SAN存储


但是,光靠越来越快、核数越来越多的CPU是不够的,瓶颈在于传统存储的硬盘太慢了,CPU大部分计算能力都空闲或者说在等待存储数据传输过来。传统存储容量和性能不具备和”计算能力“匹配的可扩展性,不能满足企业进行数据访问的需求。


2.png

图2 传统SAN存储遭遇I/O瓶颈


这个问题并不是现在才有。Google很早遇到这个问题。那么Google是如何做的呢?


作为一个给全世界互联网网民提供数据检索的企业,Google考虑过EMC、IBM,还有当年的SUN存储产品,但是都解决不了它的问题。无论是容量还是性能,这些公司的产品都无法满足Google的规模需求。于是Google只能自己建立一个适合自己的数据搜索的存储结构了。


Google优秀的计算机科学家们,打破了传统的存储思维,利用服务器的本地硬盘和软件构建了一个容量和性能不断可扩展的分布式文件系统,并在其上构建了其搜索和分析的计算引擎:


不用把数据从存储端取出来,然后通过网络传输到计算端,而是将计算直接分发到存储上运行,将“计算”作为传输单元进行传输,这样大量的存储数据都是本地访问,不需要再跨网络上传输了,自然访问很快。于是乎,自然而然地,“计算”和“存储”运行(“融合”)在了一个服务器上,这里我们也看到超融合架构的一个优势就是,本地访问数据,不必跨网络。


3.png

图3 超融合架构示意图


现代企业的数据量越来越大,应用越来越多,他们开始面临当年Google遇到的问题,CIO要考虑怎么更高效的构建自己的计算和存储的基础架构,来满足应用的数据访问需求。


虚拟化为更容易的管理应用而生,它解决了CPU、内存资源闲置的问题。但随着虚拟化的大规模应用,虚拟机越来越多,虚拟机在传统存储上运行却越来越慢了。“慢”造成“体验差”,“体验差”成为了限制虚拟化应用的最大的瓶颈。这里面的最重要原因自然是,存储的I/O性能不够,大量的虚拟机和容器同时运行,I/O的混合,使得随机读写急剧增加,传统存储的结构无法承受大量的随机I/O。


超融合恰恰是为了解决这个问题,才被带到了虚拟化和容器领域。同时,业内也存在不同的解决I/O问题的方法,我们先尝试分析下其他的解决方法:


解决方法一:在存储设备采用SSD做Cache,加速I/O。这在一定的规模下可能有效,但是存储设备的SSD Cache通常比例较小,不足5%的容量比的情况下,自然满足不了用户的热数据的缓存需求。另外,仍然无法随需扩展,所有的数据仍然要从集中的存储控制器流出,这个集中的“收费站”势必堵塞“高速公路”。


解决方法二: 使用服务器侧SSD做Cache,加速I/O。这种类似的解决方案,通常缺乏高可靠性软件的支撑,服务器端的Cache如果用做写Cache,存在单点失效的问题,需要在多个服务器的Cache设备上,做副本来提供可靠性,可以说这是一个阉割版的超融合架构,将Cache放到服务器端,仍然使用传统存储,当Cache满,需要被写回传统存储的时候,仍然被传统存储的“控制器”限制整体性能。


我们看到,上面的两种方案都是受限于传统存储的结构,超融合存储则不一样,通过完全去掉传统存储,利用分布式文件系统来提供“不可限量”的性能和容量,在这个基础上,再通过Cache进行加速,甚至全部使用闪存(全闪存产品)来构建都是自然而然,不被限制了。


因此,超融合架构不是为了让单台服务器的存储飞快,而是为了让每增加一台服务器,存储的性能就有线性的提升,这样的存储结构才不限制企业业务的运行,并保证业务的可靠性。


4.png

图4 超融合将存储池化,性能线性提升


正因为这种扩展性很好的共享存储,使得整个Google的业务得以顺畅地运转。


另外,超融合近几年得以快速发展的原因,这要归功于硬件设备。CPU核数越来越多,服务器的内存容量越来越大,SSD设备和网络互联网设备越来越快,这意味着:


  • 服务器的资源除了运行业务以外,仍然可以预留出来足够的CPU,内存资源来运行存储软件。将存储软件和业务运行到一块,既减少了设备量,减少了电力使用,本地读取也提高了I/O的存取效率。这在几年前是做不到的,因为CPU和内存太有限了。


  • 网络互联越来越快,无论是万兆,40Gb以太网,还是Infiniband(无限宽带技术),使得我们的软件能够将独立的存储设备进行互连,通过分布式文件系统形成共享的存储池,供上层应用使用。


  • 如果说SSD等硬件厂商让单个存储设备跑的更快,我们的软件的意义在于,让超大量的这些存储设备,一起工作,提供无止境的整体性能和容量。


在超融合架构中,层次存储为什么是提升数据的I/O性能的最好选择


首先,让我们追溯到现代计算机体系结构中,解决系统性能瓶颈的关键策略:Cache。


现代计算机体系结构是基于冯·诺依曼体系结构构建的,冯.诺依曼体系结构将程序指令当做数据对待,程序和数据存储在相同的存储介质(内存)中,CPU通过系统总线从内存中加载程序指令和相应的数据,进行程序的执行。


冯·诺依曼体系结构解决了计算机的可编程性问题,但是带来了一个缺点,因为程序指令和数据都需要从内存中载入,尽管CPU的速度很快,却被系统总线和内存速度的限制,不能快速的执行。为解决这个问题,Cache的理念被提出,通过在CPU和内存之间加入更快速的访问介质(CPU Cache),将CPU经常访问的指令和数据,放置到CPU Cache中,系统的整体执行速度大幅度提升。


I/O性能瓶颈问题转移到了存储


如果内存的访问速度相对CPU太慢,那么磁盘的I/O访问速度相对CPU来说就是“不能忍”了。下表是不同存储介质的访问延时,在虚拟化环境下或云环境下,由于I/O基本都是随机I/O,每次访问都需要近10ms的寻道延时,使得CPU基本处于“等待数据”的状态,这使得核心业务系统运转效率和核心应用的用户体验都变得很差,直观的感受就是业务系统和桌面应用“很卡”。


5.png

参考:http://norvig.com/21-days.html#answers


基于SSD构建平衡系统


和前人解决内存访问延时问题的思路类似,现在的主流方法是使用内存和SSD作为Cache来解决I/O性能瓶颈。存储系统能够分析出数据块的冷热程度,将经常访问的数据块缓存到内存和SSD中,从而加速访问。


不论是全闪存存储,还是混合介质存储,从某种意义上讲都是层次存储,只不过混合阵列多了一层磁盘介质。


学过计算机体系结构的人都听说过著名的Amdahl定律,这里我们要介绍一个Amdahl提出的“不那么著名”的经验法则:


“在一个平衡的并行计算环境中,每1GHz的计算能力需要1Gbps的I/O速度与之匹配”


假设一台服务器有2颗E5-4669 v3的CPU,每颗CPU有18个核,36个超线程,主频是2.1GHz,那么我们可以计算一下,这样的一台服务器需要151Gbps (即~19GBps)的带宽。在大规模的云计算(虚拟机算)环境中,极端情况下,大量的I/O并发使得存储收到的I/O都变成随机I/O,在这么一个并发环境中,假设我们的访问大部分都是8KB的读写,根据上面的计算,我们需要为一台服务器配备近250万的IOPS读取速度。


在不考虑系统总线的情况下,如果我们用SAS/SATA硬盘来提供这个IOPS,即使每个SAS/SATA盘可以提供近250的IOPS(实际数值更小),仅为构建一台平衡的服务器计算存储环境,就需要大概1万个SAS/SATA硬盘。在稍大规模的虚拟化环境,想要搭出一个平衡的系统,用传统的SAS/SATA硬盘几乎不可能完成任务。但是如果采用能够提供10万“写IOPS”的SSD设备,25块SSD就够了。


层次存储的优势


“层次存储”是相对“全闪存”而言,是指将容量大但是速度较慢的HDD和速度快的SSD同时构建在系统中,通过数据的访问特性,将经常访问的热数据放置在SSD中,而冷数据放置在HDD中。


首先,为构建一个平衡的虚拟化环境,需要大量的SSD设备来提供足够的IOPS。但是SSD也不是完美的。目前的SSD擦写次数有限、价格高。层次存储将热数据放置在SSD层中,而大量的冷数据仍然放置在SATA硬盘上,热数据周期性的同步到HDD硬盘,既为用户热数据提供了高IOPS的保障,也通过SATA硬盘提供了更大的容量和可靠性。


下图是对11个开发人员桌面负载的I/O统计,包含了对5.1TB大小的存储上的76亿次IO访问和28TB的数据传输。首先值得注意的是,有3.1TB(62%)的数据,在一年内从来没有被访问过,这意味着这些数据无论是放置在SSD上,还是SATA上,甚至放到U盘上拔走,对系统都没有影响。


2

鲜花
1

握手

雷人

路过

鸡蛋

刚表态过的朋友 (3 人)

发表评论

最新评论

carson1025 2016-4-7 12:53
Thanks
霍華德 2016-4-26 06:59
很详细了 、感谢楼主
sungkenkok 2016-10-11 15:42
谢谢楼主分享!
jackie-xu 2016-10-19 09:38
好文章,浅显易懂
Josh 2016-10-26 17:30
有点不明白,传统SAN是有瓶颈,那么不使用SAN呢?很多机架式服务器,都自带了SAS磁盘,通过内置的RAID控制器来控制;nutanix的内置磁盘难道不需要RAID控制器吗?如果需要RAID控制器,那么和传统服务器内置的磁盘的DAS访问方式又有啥区别呢? 请赐教!
Josh 2016-10-26 17:35
Josh 发表于 2016-10-26 17:30
有点不明白,传统SAN是有瓶颈,那么不使用SAN呢?很多机架式服务器,都自带了SAS磁盘,通过内置的RAID控制 ...

还有就是,如果不用SAN;全部都是用服务器内置的磁盘(当然也可以都是内置的SSD);按照这种理解,是不是就没有存储IO瓶颈了?
cig0940 2016-11-24 16:40
谢谢分享!
cig0940 2016-11-24 16:41
谢谢分享!内容我喜欢!
Palading_Lee 2017-11-20 11:55
楼主 好像少下半部分的内容啊!感谢分享!
lixiaohaoku 2018-1-19 12:55
感謝分享。。
tc845 2018-3-11 16:20
谢谢分享!
wst2080 2018-4-14 09:39
超融合給我的感覺似乎是 刀鋒伺器 + 儲存 + 虛擬機 , 然後透過同一個機箱的背板頻寬加強資料傳輸效能!
youcome 2018-5-2 15:59
很多希望学习Nutanix的同学,很难找到能够练习的硬件环境;
youcome 2018-5-2 16:00
很多希望学习Nutanix的同学,很难找到能够练习的硬件环境;
Ruru 2018-5-18 15:58
谢谢楼主分享
ahooxy 2018-6-11 14:00
学习了。。。这个技术很新鲜,不知道是否能满足我们的需求
liuaihualove 2019-2-18 19:35
hello,新人贴!
juguodong 2019-4-25 14:58
感谢分享
juguodong 2019-4-25 15:01
感谢分享

查看全部评论(24)

返回顶部微信扫一