100G Ethernet => 2.6M IOPS- JBOF的思考

作者 唐杰

JBOF的思考

 

和上篇的讨论一样,PCIE接口的JBOF的确不受待见。Kalary【6】,这个做众核的网络处理器的公司,也在讨论40G/80G的JBOF方案(因为是ASIC,25G/100G没ready,但是产品应该在路上)。Newisys 【7】和Kazan合作的JBOF也是最近几年的明星。Kazan使用FPGA方案做NVMeoF方案,已经顺利拿到投资了。

 

JBOF使用PCIE 接口的确成本和代价过高。100G应该是大家公认的接口了。100G RDMA的当红厂家Mellanox【8】也是当仁不让提出了后Biuefeild的方案。在目前Bluefeild的方案中,数据流程必[……]

阅读全文

100G Ethernet => 2.6M IOPS(后记)

作者 唐杰

每年一度的SNIA的SDC是存储厂家的盛会,同时也是未来一年的存储设备发展的风向标。相对于FMS这样的会,SDC的广告成分要少一些,毕竟现在踏踏实实做存储的厂家已经不多了,大家都是自己人,不忽悠。

 

Samsung从做面粉到做面包【1】

 

和之前的NVMeoF系列提过的一样,Samsung公布了他们NVMeoF测试系统的更加具体的规格和性能指标。这个在之前的论文中有提。出人意外的是,人家也意识到这个时代已经是,”通用已死,应用为王”, 人家附上了RocksDB和Mysql的应用级别的测试数据,与时俱进呀。

 

在应用级别的测试,也清楚得显示,NVMeoF 完败iSCSI, 性能[……]

阅读全文

金士顿HyperX 3K固态硬盘评测

作者 白丁

业内人士都知道,目前正规的SSD厂商使用的闪存颗粒有两种来源,一种是购买原厂封装测试过的闪存芯片,质量较好,但是价格贵。另一种是直接从原厂购买晶圆,自己封装测试,好的用在SSD上,差的用在U盘、SD卡等产品中。HyperX SSD是金士顿的高端固态硬盘,所以采用的都是原厂封装测试过的闪存芯片,所以售价更贵。如果我们只是看性能评测是看不出闪存的差别的,必须要长期使用才能知道闪存寿命的差别。

 

这篇2012年ANandTech的评测给读者作参考。

 

回顾

 

随着OCZ正在试图将尽可能多的产品转移到其Indilinx控制器上,SandForce(现在的Seagate,当年的LSI/[……]

阅读全文

100G Ethernet => 2.6M IOPS (4K) !!! (5)

作者 唐杰

我们在开篇的第一部分中提及了目前的存储厂商全闪产品的架构,基本还是X86存储的机头+SAS SSD +JBOD 扩展。在2016年的时候,也有一些存储厂商,包含OCP的Facebook都推出过一些NVMe的存储盘阵,但是基本上都没有规模部署,其中除了成本较高以外,还存在一个重要的技术原因, PCIE的扩展性。

 

在大部分全闪的存储系统中,大家都采用X86 存储机头服务器,通过SAS cable进行级联JBOD,无论是使用SAS HDD,或者SAS SSD,大家通过传统的SAS switch进行存储资源的scale out,这个是目前性价比最高,也是最健壮的一种扩展方式。

 

当存[……]

阅读全文

100G Ethernet => 2.6M IOPS (4K) !!! (4)

作者 唐杰

和大部分技术一样,通往罗马的路不止一条。我们来看看目前市场的竞争态势。NVMeoF作为新型存储介质的互联协议,在一开始就不同的厂商使用不同的方案。在我去年的NVMeoF系列中,讨论了NVMeoF支持的多种网络传输协议,目前来看,基本上都聚焦在了ROCEV2上。目前在全球的Hyper-Scale数据中心,Microsoft已经实现了规模部署。

 

 

在过去的两三年中,发生在大型数据中心的网络侧一个重大的事件就是25G Ethernet的出现和部署。

 

在大部分的Hyper-Scale数据中心中都部署了25G,因为25G目前最大的供应上Mellanox可以支持RDMA,因此将R[……]

阅读全文