Mellanox 张辉:创新网络构建高效SDN/NFV平台

各位嘉宾,各位领导,大家下午好。

我今天有几方面内容,偏一些更具体的东西,上午听了一上午,下午听了电信的领导讲相关的趋势、研究,高屋建瓴,也很受启发。Mellanox本身是做网络相关的东西,我会从技术点上跟大家做一个分享和汇报。

今天的话题是创新网络,构建高效SDN/NFV平台。先介绍一下我们公司,在所有的赞助商里面,从华为开始,思科,惠普,VMware到烽火,我们的名声可能最小,因为我们一直在后端。这家公司是家以色列公司,是端到端的网络连接,随着我们的发展和对整个网络的认识,我们逐渐认识到以太网的重要性和我们芯片的优势,所以我们开发了基于我们自己芯片的以太网的网卡、交换机和我们相应的各种功能的软件,包括我们线缆相关的东西,我们做的是端到端的连接。这里面有个数字,大家知道现在的以太网或InfiniBand的速率到多少了深,我们可以做到200G,在2017年我们以太网以后做到200G,整个速度来讲,我们绝对处于领先地位。我们从卡、交换机到我们的软件、网关、线缆,大家会发现我们关注在连接、网络相关的东西,我们提供的是端到端的网络连接方案。我的话题会落地一些,三个方面,大家都知道SR-IOV比较流行或者都在用,第一个,我们和SROV相关的配合怎么做的,第二个,你做云也好,你做SDN也好,NFV也好,这都是会碰到的难题。最后会有我们自己的比较有意思的,ASAP2。

大家都知道,做云也好,NFV也好,第一步必须要做虚拟化。凡事都有一个双面性,虚拟化带来灵活、可快速部署的同时也带来另外一个不可避免的问题,性能的损耗。无论从网络本身还是从计算资源,还是从你的存储资源,都会有损耗。我去年参与青云那个大会的时候,我记得他们的CTO提了一次,I/O这块的,他的一个SSD正常情况下跑5万,到虚拟化跑5000了,网络差不多,没有10%那么低,可能万兆的只有几千的速度,其实离真正的裸性能差得很远,这个其实就是虚拟化带来的一些惩罚,性能损耗必须要接受,有没有解决方案,好在有SR-IOV。大家知道整个虚拟化环境在你部署的时候,你会受制于你的软交换,整个性能体现不出来,你的硬件配置很好,调度也很好,突然发现性能始终起不来,怎么办,其中一个解决方案可能就是我们提到的SR-IOV,这里面会看到,Mellanox会在我们的集成网卡里用eSwitch,这样效果有效避免了软交换的性能制约,让我们的性能优提升。在SR-IOV,DPDK不可避免会提到,今天上午相关的业内同事也在跟我讨论DPDK的问题,DPDK加SR-IOV是比较流行的方式,大家知道CPU中断以后带来损耗和延迟的问题,这里面Mellanox跟这个产品或者这个技术特点,加上我们自己的网卡,发明了我们自己的东西叫PMD,实现了轮循的机制。这里面通过消除中断,把处理的速度进一步加快。这是SR-IOV加上DPDK,配合我们的底层加上我们Mellanox的智能网卡的PMD,有效把你包处理的速度进一步提升,这是和SR-IOV、DPDK的配合。

大家都知道在电信级应用或者企业级应用里,功能上能实现是一个基本的要求,再下一步,体的管理一定是要要求的,还有高可用的问题。这里先谈一下QoS,每个VF做限速,还有保证带宽,保证这个VF一定能得到带宽,保证应用能得到保障。同样在这里面虚拟化或半虚拟化环境我们都可以做到的。在SR-IOV里面,整个的力度会更细一些,做得会和你应用的契合度和你上层应用的感知度会更智能、更敏感,另外会更平稳,在应用里要求你的运行越平稳越好,波峰波谷这种性能的体现其实会影响你最终交付给用户的用户体验,这种是很难接受的,这种情况下我们能做到你的抖动更小,同时对CPU的消耗更小。

再提到一个SR-IOV,大家知道原生的SR-IOV其实不太支持高可用的,这个在技术探讨的时候可以用,但是真正部署到应用里,真正上线的时候,一定是高可用,这是一个企业级应用或者能真正上线的基本要求。Mellanox,因为我们本身做硬件的,我们有很多东西可以我们自己控制,芯片我们自己做的,做的方法,在单张网卡上我可以支持透明的SR-IOV高可用,我的整个LAG在Mellanox网卡已经支持了,同时支持双活的状态,另外支持LACP的状态,整个对用户端来讲或者说对你的VF来讲是一个透明的状态,这是整个SR-IOV的高可用。

VXLAN卸载,在新的云环境里甚至SDN/NFV环境里已经受多限制,VXLAN是必须要上的,或者说VXLAN是我们现在能看到一个比较好的解决方案。VXLAN本身的特点,导致你现有的网卡或者已有的老的网卡导致这个工作交给CPU来工作,无形中加大CPU负载。举个例子,也是我们的用户,他的部署环境里,没有用VXLAN卸载的时候,用CPU来解包和封包的时候,这时候24核的系统里面,在万兆的情况下能用到10个核做到封包解包,这个也是我们核心用户探讨说用户是不是可以接受。对于普通用户来讲觉得无所谓,如果说对于我们做SDN/NFV甚至做云计算的,大家都知道做云计算,最终云计算厂商卖给用户的是计算资源、存储资源、网络资源,意味着他买了这么的CPU,应该卖计算资源的时候没有卖出去,原因是被VXLAN封包解包消耗掉了,这个实际上对云计算厂商是不可接受的。VXLAN卸载这块就应运而生,这有一个实际的,它是支持Overlay加速的,在这里面大家可以看到在40G的链路里面,我们实测可以跑到37.5G,基本上接近40G上限。同时大家可以发现,它对CPU的消耗,因为整个的VXLAN卸载以后,整个包处理的情况全部放到了网卡来做,大量的把CPU的资源释放出来,几乎CPU的利用率零点几,甚至看不到CPU消耗。

还有一个ASAP2,加了个平方是什么意思,这实际上是我们的一个技术,加速交换和包处理。在这里面其实也是基于我们的智能网卡和芯片做了一些新的技术的部署,大家可以看到有三种工作模式,第一种是ASAP2 Direct,会全卸载,把整个的vSwitch卸载,第二种是ASAP2 Flex,第三种是ASAP2 Flex VNF加速。我们是支持SR-IOV加DPDK的,大家看这两个情况的对比,一个是DPDK的OVS全加速,再一个是我们ASAP2 Direct,第一个流是没有VXLAN的情况下,整个的OV对DPDK差不多是3倍以上。CPU消耗率为零,对比OVS对DPDK却使用4个CPU内核。

刚才提到你这个东西很或,但是我现在已经用了DPDK,或者说DPDK的东西我已经在用了,这个所谓的ASAP2 Flex,我可以做部分的卸载,这里面提到数据流由vSwitch来做,部分的工作还是可以交给DPDK来做,或者和DPDK配合,在现有的部署或者已经投入的情况下,可以同样帮你做加速,可能效果没有ASAP2 Direct效果好。它是部分卸载,效果可能没有那么好,但是在你现有的基础上用ASAP2 Flex也有性能提升。

简单做一个回顾,第一个是SR-IOV加DPDK的配合,包括高可用、质量管理,另外是VXLAN的卸载情况,最后是ASAP2独有的特点,包括ASAP2 Direct和ASAP2 Flex。

相信大多数人对Mellanox不是很熟悉,我们是做端到端的网络,我们的产品有我们自己的网卡,大家会看到我们这里面以太网还是100G,IB到200G,有我们的交换机,包括我们的软件,以及底下的Link。今天上午还有专家在问我,你们那个线行不行,这个线也是我们自己独有的东西,你会发现整个在业内能做以太网能做到端到端的可能就有我们一家,真正跑通100G,今年上半年或下半年能发布200G的也只有我们一家。

就讲到这,谢谢各位。


  • 本站原创文章仅代表作者观点,不代表SDNLAB立场。所有原创内容版权均属SDNLAB,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用,转载须注明来自 SDNLAB并附上本文链接。 本站中所有编译类文章仅用于学习和交流目的,编译工作遵照 CC 协议,如果有侵犯到您权益的地方,请及时联系我们。
  • 本文链接https://www.sdnlab.com/18643.html
分享到:
相关文章
条评论

登录后才可以评论

SDNLAB君 发表于17-02-24
0