100G Ethernet => 2.6M IOPS (4K) !!! (5)

原创内容,转载请注明:  [http://www.ssdfans.com]  谢谢!

作者 唐杰

我们在开篇的第一部分中提及了目前的存储厂商全闪产品的架构,基本还是X86存储的机头+SAS SSD +JBOD 扩展。在2016年的时候,也有一些存储厂商,包含OCP的Facebook都推出过一些NVMe的存储盘阵,但是基本上都没有规模部署,其中除了成本较高以外,还存在一个重要的技术原因, PCIE的扩展性。

 

在大部分全闪的存储系统中,大家都采用X86 存储机头服务器,通过SAS cable进行级联JBOD,无论是使用SAS HDD,或者SAS SSD,大家通过传统的SAS switch进行存储资源的scale out,这个是目前性价比最高,也是最健壮的一种扩展方式。

 

当存储厂商开始部署NVMe SSD的时候,他们使用了PCIE switch来替代SAS Switch,使用PCIE的HBA来替换SAS HBA,不知道有多少读者见过PCIE 的HBA card。这个扩展卡和传统的HBA不同,直接连接在CPU里面的Root Port上。

 

 

这种使用方式,连国内PLX PCIE switch最大的用户都认为,PCIE switch的使用成本太高,而且系统的稳定性挑战比较大,因为PCIE switch环境下的error 的隔离非常重要,否则就有可能和TeraData的集群一样面临可能性的问题。

 

随着NVMeoF的出现,使用100G Ethernet来代替PCIE成为互联接口变成可能,在传统的使用磁盘阵列进行扩展的场景下,100G带来的可用性优势明显。因此,在2017年7月,pure storage推出了他的下一代设计,基于NVMeoF的存储扩展框FlashArray //X。【1】

 

 

因此,可以预见,未来的企业存储的架构会使用100G Ethernet进行扩展并提供服务。

 

 

同时,因为全闪阵列带来的两个必须的功能,压缩和去重,从而是X86的CPU在对外提供服务的同时有了更大的workload,不止一个存储厂商在考虑使用硬件进行压缩的实现。

 

对于未来的存储系统, 相信大家会沿着NVMe 取代SCSI协议的路上越走越宽,还是用Alibaba盘古2.0的系统架构师的一个展望来结束这个系列吧。

 

“Microsecond-Scale Era”

 

 

  1. https://blog.purestorage.com/extending-nvme-leadership-introducing-directflash-shelf-previewing-nvmef/
分类目录 SSD.
扫一扫二维码或者微信搜索公众号ssdfans关注(添加朋友->点最下面的公众号->搜索ssdfans),可以经常看到SSD技术和产业的文章(SSD Fans只推送干货)。
ssdfans微信群介绍
技术讨论群 覆盖2000多位中国和世界华人圈SSD以及存储技术精英
固件、软件、测试群 固件、软件和测试技术讨论
异构计算群 讨论人工智能和GPU、FPGA、CPU异构计算
ASIC-FPGA群 芯片和FPGA硬件技术讨论群
闪存器件群 NAND、3D XPoint等固态存储介质技术讨论
企业级 企业级SSD、企业级存储
销售群 全国SSD供应商都在这里,砍砍价,会比某东便宜20%
工作求职群 存储行业换工作,发招聘,要关注各大公司招聘信息,赶快来
高管群 各大SSD相关存储公司高管和创始人、投资人

想加入这些群,请微信扫描下面二维码,或搜索nanoarchplus,加阿呆为微信好友,介绍你的昵称-单位-职务,注明群名,拉你进群。SSD业界需要什么帮助,也可以找阿呆聊。