[转帖]PCIe Switch Adapter:不只是NVMe HBA?

pcie,switch,adapter,只是,nvme,hba · 浏览次数 : 0

小编点评

## NVMe Switch Adapter 测试方法介绍 **1. 破坏性的测试方法:** * 使用软件测试硬盘转速,例如 **Prime Storage Assessment** 或 **CrystalDisk Info**. * 使用硬件工具测试硬盘转速,例如 **Anker SSD Speed Test**. **2. 简单的测试方法:** * **观察硬盘启动过程:** 观察硬盘启动时 LED 是否闪烁,以及启动时间。 * **检查硬盘驱动程序信息:** 在 Windows 系统中,打开设备管理器,检查硬盘驱动程序的名称和型号是否与实际硬件相符。 * **测试硬盘延迟:** 使用 **CrystalDisk Info** 等工具测试硬盘延迟,例如读写速度和延迟时间。 **3. 建议:** * 选择最适合您需求的方法进行测试。 * 破坏性的测试方法可能损害硬盘健康,请谨慎使用。 * 在测试过程中,请注意硬盘温度,避免过热。

正文

https://new.qq.com/rain/a/20200906A02YFF00

 

前几天有朋友提到,某款标称5400RPM(每分钟转数)的HDD硬盘,实际上是7200 RPM。今天又看到国外网站上用声音(噪声)测试来判断的方法。

由于对硬盘的感情,我本来也想就此写点东西,并且我还想提出另外2种更简单的测试(判断硬盘转速)方法,其中一种是破坏性的:)

但因为时间和精力实在不够,上面这个话题只能先搁置了。今天写给大家的东西,实际上也已经拖了一段时间…

NVMe Switch Adapter:I2C bus负责LED点灯

基于48 (50)lane PCIe Switch的设计,上下行带宽比是1:2。

从照片和图表中不难看出P411W-32P用的芯片是PEX88048(从PLX收购来的产品线),48 lane PCIe 4.0 Switch(严格说应该是50 lane)。主机插槽为x16,连接SSD或背板的是4个x8的SFF-8654接口。在不级联下一个PCIe Switch的情况下,最多可以拆分为32个PCIex1来连接SSD(此时牺牲了单盘带宽)。

大家知道LSI的传统强项是MegaRAID SAS和HBA,如今已发展到兼容NVMe的Tri-Mode三模接口,但传统RAID架构的始终无法让PCIe SSD性能充分发挥。Broadcom推出这款“纯NVMe HBA”可能多少有点无奈之举吧?其实同类产品已经很多了。

上面照片最早出现在5年前的《服务器设计进化:戴尔R930跨代对比之存储篇》一文中,曾经我还以为卡上的芯片只是一颗PCIe retimer,但实际上看散热片就是PCIe 3.0 Switch了。Switch交换芯片从信道拆分等兼容性上还是要比retimer更好。当时这块卡是用来线速支持前面板的4个热插拔U.2 NVMe SSD。

前面提到过原理,Broadcom P411W-32P如果直连标准U.2 NVMe x4 SSD通常是8块盘。根据背板上连接器的不同,可能需要使用1分2的线缆。上图中的红色连线示意I2C bus,毕竟存储这个用途需要考虑管理,特别是热插拔和LED点灯。

Dell PowerEdge 14G服务器使用的PCIe Extender card上下行接口都是x16(这一代Intel平台还是PCIe 3.0)。因为有时是搭配直通背板,而有时则是下面这种带Switch Daughter card的扩展背板。

更多品牌的“NVMe HBA”

下面我再给大家介绍一位朋友做的NVMe Switch Adapter品牌,其性价比可能比Broadcom原厂卡要高一些。在给出的链接里,也有specsheet(测试报告)的下载。

https://www.amazon.com/DiLiVing-SFF-8639-SFF-8643-Connector-Servers-LRNV9324-4I/dp/B089SQ84CH?ref_=ast_sto_dp

这款卡的型号是LRNV9324-4I,PLX PEX8724主控自然比前面的便宜,主机插槽为主流的PCIe3.0 x8,4个SFF-8643接口用来连接SFF-8639(U.2)NVMe SSD。上下行接口带宽也是1:2。

在测试报告中,有SSD单盘性能,也有Windows下做了Striped Volume(带区卷,软RAID0)的测试——如上图,就是证明下确实能跑出PCIe 3.0 x8的水平。

除了直连SSD、背板之外,既然是PCIe Switch也可以用于扩展连接显卡等。比如在主板插槽有限的情况下,实现多显卡屏幕拼接方案,或者是挖矿啥的?

这个品牌也有高端型号LRNV9349-8I,这里的主控芯片就是48 lane PCIe Switch了。除了支持的PCIe速率,与前面介绍的P411W-32P还有一点差别,就是连接器仍然是传统的SFF-8643。一些白牌服务器/渠道经销商使用的机箱,背板接口应该还有许多尚未更新到高密的x8,两头SFF-8643的线缆也比较普及。

Multi-Host PCIe Switch模式

最后我再引用一段网站上的英文介绍:

LRNV9324-4I NVMe Series is PCI Express x8 Gen3Multi-HostPCI-e switchCard. It offers Multi-Host PCI Express switching capability that enables userstoconnect multiple hosts to their respective endpoints via scalable, high-bandwidth, non-blockinginterconnection to a wide variety of applications including servers, storage,communications, and graphics platforms. The LRNV9324-4I employs an enhancedversion of PLX’s field tested PEXPCIe switch architecture, which allows usersto configure the device in legacysingle-host mode or multi-host modewith up to six host portscapable of 1+1 (one active & one backup) or N+1 (N active & one backup)host failover. This powerful architectural enhancement enables users tobuild PCIe based systems tosupport high-availability, failover, redundant, or clustered systems.High Performance & Low Packet Latency The LRNV9324-4I architecture supportspacket cut-thru with alatencyof less than 130nsbetween symmetric(x8 to x8). This combined with largepacket memory, flexible common buffer/FC credit pool and non-blocking internalswitch architecture, provides full line rate on all ports forperformance-hungry applications such as servers and switch fabrics. The lowlatency enables applications to achieve high throughput and performance and supportsa packet payload size of up to2048 bytes, enabling the user to achieve even higher throughput.

多主机连接,属于PCIe Switch的高级用法吧。如果是传统双控存储那样的2节点间PCIe连接,Intel CPU现在也支持NTB(非透明桥接),不见得要通过PCIe Switch。但总有特殊一些的用途,比如连接2个以上的主机,在一个机箱内的节点互连/切换等。Multi-Host卡支持这个功能,而具体的软硬件系统设计又是另一个层面了。

与[转帖]PCIe Switch Adapter:不只是NVMe HBA?相似的内容:

[转帖]PCIe Switch Adapter:不只是NVMe HBA?

https://new.qq.com/rain/a/20200906A02YFF00 前几天有朋友提到,某款标称5400RPM(每分钟转数)的HDD硬盘,实际上是7200 RPM。今天又看到国外网站上用声音(噪声)测试来判断的方法。 由于对硬盘的感情,我本来也想就此写点东西,并且我还想提出另外2种更

[转帖]RAID 5写带宽11.7GB/s:当SAS 24G阵列卡嵌入PCIe Switch

https://zhuanlan.zhihu.com/p/576562821 引言:在SAS/SATA RAID卡开始转向Tri-Mode即支持NVMe之后,关于软硬RAID哪个更好的讨论还在继续。而Broadcom和Microchip这两家大厂的手里,正好都掌握着PCIe Switch芯片技术。不

[转帖]PCIe信息查询

https://www.jianshu.com/p/b3a57fcaff8d 查询PCIe设备厂商信息 通过PCIe设备的描述信息进行查询 PCIe设备的描述:Class号、厂商号(vender id)、设备号(device id). 通过PCIe设备的描述查询PCI设备具体信息的网站:http:/

[转帖]【硬件相关】PCIe组件配置说明

一、PCIe介绍 1、前言 1.1、PCIe概述 PCI Express(peripheral component interconnect express)是INTEL提出的新一代的总线接口,PCI Express采用了目前业内流行的点对点串行连接,比起PCI以及更早期的计算机总线的共享并行架构,

[转帖]全面普及路漫长!PCIe 7.0标准还在修订 速度高达512GB/s

https://baijiahao.baidu.com/s?id=1737830340315169745&wfr=spider&for=pc 2019年提出PCIe 5.0经过几年后,今年下半年才会开始正式进入消费级市场,而上个月底宣布的PCIe 7.0,其普及之路就更漫长了。 SSD主控芯片大厂慧

[转帖]10GB/s 存储方案设计测试:用PCIe 5.0单盘还是SSD RAID?

https://zhuanlan.zhihu.com/p/558884542 - 测试平台介绍 - M.2 NVMe SSD散热方案浅析 - Intel RST RAID的Write Back写缓存适用于SSD吗? - RAID 0、10读写带宽线性提升 - 选择软RAID还是硬RAID? - SL

[转帖](三)固态硬盘的接口与协议

https://zhuanlan.zhihu.com/p/415817808 目前市场上的固态硬盘简单来说共有SATA、PCIE、M.2和U.2四种接口类型。 早期,为了更适应于超极本这类超薄设备的使用环境,针对便携设备开发的mSATA(mini SATA)接口应运而生。你可以把它看作标准SATA接

[转帖]解读CPU架构:X86、ARM、MIPS、IRSC-V、CISC

https://www.cnblogs.com/zhangxinglong/p/15019549.html CPU发挥“大脑”的功能,负责数据的处理和运算, CPU 与 GPU 、内存、硬盘和网卡间并不能直接通信,需要通过内存控制芯片、 PCIe 控制芯片和 I/O 处理芯片等实现,这类通信协调芯片

[转帖]pcie4.0和3.0的实际使用差别大吗?实测PCI-E4.0对显卡性能影响

http://www.lotpc.com/yjzs/8970.html 众所周知,AMD X570、B550主板,包括RX3000系列显卡,率先支持了PCIe 4.0协议,高达32GB/s带宽,相比现在的PCIe3.0带宽足足翻了一倍,也是AMD新平台一大卖点,然而intel却无动于衷,并各种表示P

[转帖]读IOPS 640万、写110万:24G SAS/NVMe RAID卡性能谜团

https://aijishu.com/a/1060000000361186 存储 引言:读IOPS__翻倍的原因相对简单,但写IOPS__暴增似乎也是有代价的。MegaRAID 9600__的算法会不会改用纠删码了? 背景阅读 《PCIe 4.0 SAS+NVMe RAID/HBA卡:最高读IOP