[转帖]VMWare ESXi中,不同的虚拟网卡性能竟然能相差三倍!

vmware,esxi,不同,虚拟,网卡,性能,竟然,相差,三倍 · 浏览次数 : 0

小编点评

## 性能测试结果总结 **测试1:VMXNET3直连** * 带宽:11.6 Gbps **测试2:E1000e直连** * 带宽:4.24 Gbps **测试3:E1000e与VMXNET3对接1** * 带宽:6.12 Gbps **测试4:E1000e与VMXNET3对接2** * 带宽:7.01 Gbps **测试结果总结** * 通过测试,VMWare ESXi 通过对虚拟机的性能进行优化,使得虚拟机之间的网络交换不受底层网卡的限制。 * 虽然E1000e模拟的是千兆网卡,但实际性能仍然比千兆略低。 * 虽然VMXNET3模拟的是万兆网卡,实际性能也可以超出万兆。 * 两者底层都不需要对应物理网卡,这点是SR-IOV直通所不支持的。 * 通过组合对比,E1000e网卡的转发性能最差,只有VMXNET3网卡的三分之一。 * 最至少我们可以确认,VMware ESXi 6.7的最佳实践就是配置虚拟机的网络适配器类型为VMXNET3,相比于E1000e,能大幅提升网络性能。

正文

https://zhuanlan.zhihu.com/p/525656364

 


 

正文共:1024 字 11 图,预估阅读时间:1 分钟

在上个实验中VPP使用DPDK纳管主机网卡,我们已经初步实现了通过DPDK纳管主机网卡。

不知道大家注意到没有,我们在查看主机网卡的主线信息时,后面的描述信息是不一样的,可以理解为是主机的网卡信息,一个是VMXNET3类型,另一个是82574L类型。

 

 

其实这个是和配置主机时选择的适配器类型相对应的,适配器类型选择VMXNET3,在主机上看到的就是VMXNET3;如果选择的是E1000e,显示就成了82574L了。

 

 

当然,还有一个SR-IOV直通,指的就是Single Root I/O Virtualization了,据说是将一个物理网卡虚拟出来多个轻量化的PCI-e物理设备,再分配给虚拟机使用。启用SR-IOV直通之后,将大大减轻宿主机的CPU负荷,提高网络性能,降低网络时延等。

但是很不幸,我的服务器网卡(型号BCM5719)不支持。

 

 

那E1000e和VMXNET3这两种类型有什么区别呢?

E1000e虚拟网络适配器模拟的是千兆网卡,而VMXNET3则模拟的是万兆网卡,而且这两种虚拟网络适配器可以没有物理网卡对应,也就是不需要借助底层的硬件网卡,并且通过对虚拟机中的性能进行优化,使得虚拟机之间的网络交换不受底层网卡的限制。比如我的服务器,底层都是千兆电口网卡,而主机转发却可以达到万兆,就是这个原因。

所以,VMware ESXi的最佳实践应该是使用VMXNET3虚拟NIC,除非存在无法使用特定驱动程序或兼容性等原因,建议使用VMXNET3来替换掉E1000e,以有效提升网络性能。

这么说准确吗?那今天的主要任务,就是测试一下这两种网卡的性能差距主要有多大。

 

 

测试1:VMXNET3直连

将两台主机的适配器类型都配置为VMXNET3,并连接在同一个端口组下。

 

 

用iperf3打流测试,带宽竟然不止万兆,达到了11.6 Gbps。

 

 

 

 

测试2:E1000e直连

将两台主机的适配器类型都配置为E1000e,并连接在同一个端口组下。

 

 

用iperf3打流测试,带宽比千兆好一些,达到了4.24 Gbps,相比VMXNET3,只有三分之一的性能。

 

 

 

 

测试3:E1000e和VMXNET3对接1

将一台主机142的适配器类型配置为E1000e,另一台主机141的适配器类型配置为VMXNET3,并将两台主机连接在同一个端口组下。

先用适配器类型为E1000e的主机142作为服务器,打流测试,带宽为6.12 Gbps,介于前两次测试之间。

 

 

再用适配器类型为VMXNET3的主机141作为服务器,打流测试,带宽为7.01 Gbps,优于使用主机使用E1000e作为服务器的场景。

 

 

 

 

测试4:E1000e和VMXNET3对接2

为了避免主机的影响,我将两台主机的网卡配置对调了一下,并将两台主机连接在同一个端口组下。

同样的,先用适配器类型为E1000e的主机141作为服务器,打流测试,带宽为7.01 Gbps。

 

 

再用适配器类型为VMXNET3的主机142作为服务器,打流测试,带宽为6.71 Gbps,比6.12 Gbps这个值稍好一点。

 

 

 

 

总结

 

 

通过本次的4个测试可知,VMWare ESXi通过对虚拟机的性能进行优化,使得虚拟机之间的网络交换不受底层网卡的限制。虽然E1000e模拟的是千兆网卡,但实际性能仍然不止千兆;虽然VMXNET3模拟的是万兆网卡,实际性能也可以超出万兆。两者底层都不需要对应物理网卡,这点是SR-IOV直通所不支持的。

通过组合对比,E1000e网卡的转发性能最差,只有VMXNET3网卡的三分之一,当两者组合使用时,转发性能大概能达到VMXNET3网卡的三分之二左右。

所以,最起码我们可以确认,VMware ESXi 6.7的最佳实践就是配置虚拟机的网络适配器类型为VMXNET3,相比于E1000e,能大幅提升网络性能。

与[转帖]VMWare ESXi中,不同的虚拟网卡性能竟然能相差三倍!相似的内容:

[转帖]VMWare ESXi中,不同的虚拟网卡性能竟然能相差三倍!

https://zhuanlan.zhihu.com/p/525656364 正文共:1024 字 11 图,预估阅读时间:1 分钟 在上个实验中(VPP使用DPDK纳管主机网卡),我们已经初步实现了通过DPDK纳管主机网卡。 不知道大家注意到没有,我们在查看主机网卡的主线信息时,后面的描述信息是不

[转帖]VMware ESXi虚拟化平台驱动查询

虚拟化平台升级或者增加服务器时,如果驱动不在官方兼容性列表中,容易导致未知问题。出现问题后,即使有售后服务,官方也不进行支持。所以在正式上线之前将驱动升级到官方兼容性列表中,显得尤为重要。 本文将介绍在VMware ESXi 6.7 U3版本下,查询网卡,HBA及RAID卡驱动版本,以及去官方查看兼

[转帖]vSphere虚拟化平台(vCenter和ESXi)升级注意事项

https://www.dinghui.org/vmware-vsphere-upgrade.html 最近两年做了蛮多vSphere升级项目,几点思路,做一下汇总整理如下供参考: 一、升级必要性 1、软件生命周期:在评估软件升级必要性分析中,vSphere软件生命周期是重点考虑的问题; 生命周期查

[转帖]VMware ESXi 7.0 U3 主机未响应的应急解决方法

https://blog.51cto.com/wangchunhai/5747928 【说明】这是2021年写的文章,是当时vSphere 7.0 U3刚发布的时候出的问题。现在VMware官网上已经提供的7.0 U3C及以后的版本没有这个问题。在此只是将当时的情况记录下来​。如果有类似问题,可以通

[转帖]VMware ESXi 8.0 Unlocker & OEM BIOS 集成网卡驱动和 NVMe 驱动 (集成驱动版)

https://www.cnblogs.com/sysin/p/16966225.html 目录 通用特性概览 集成的驱动 网卡兼容性 集成 NVMe 驱动 平台兼容性 Intel NUC Apple Mac 国产小主机 其他硬件 常见问题解答 下载地址 发布 ESXi 8.0 集成驱动版,在个人电

[转帖]VMware ESXi 各版本号对照表

本博文转自以下链接: VMware ESXi Release and Build Number History | virten.net vSphere ESXi 7.0 NamePatchDateBuildESXi 7.0 Update 3dESXi_7.0.3-0.35.194825372022

[转帖]从VMware ESXI主机在线扩容到虚拟机磁盘扩容

一、需求 虚拟机磁盘空间不足,需要扩容,ESXI主机未接存储,且虚拟机磁盘模式均为“厚置备延迟置零”,主机仅剩余16GB存储空间,无法满足扩容需求,需要为ESXI主机的磁盘组进行扩容。 操作过程:插入物理磁盘–>配置磁盘RAID–>ESXI存储扩容–>虚拟机添加硬盘–>linux lvm扩容。 整个

[转帖]KVM与ESXi 对比

关于KVM KVM,深受开源、国产虚拟化、云计算厂家欢迎,费用可以无视,可定制,配合的开源云管平台很丰富,但是对入门用户不友好,第三方工具不够多,无代理备份方式受限于KVM所选择的Linux发行版本,导致各个版本的第三方工具支持力度不高。大厂喜欢,企业用户不喜欢。 关于Vmware ESXi,商业版

[转帖]部分软件下载链接ESXi vSphere 等.

https://blog.51cto.com/wangchunhai/5860649 1 vSphere 8.0 vSphere 8.0.0-20221011 VMware vSphere 8.0 | 2022 年 10 月 11 日 ESXi 8.0 | 2022 年 10 月 11 日 | 内部

[转帖]ESXi5.5升级到ESXi6.7

之前一直以为ESXi升级必须得 一个版本一个版本升级,不能跨版本,做了个实验结果证实从ESXi5.5可以升级到6.7。该实验是虚拟了一台ESXi上面并没有跑虚机,生产环境进行升级时,能将虚机迁移则迁移(就算升级失败大不了重装,不至于丢失数据)。 1、ESXi的介质分为两类,以6.7为例:VMware