

随着AI大模型“百花齐放”,底层的算力需求与日俱增。目前,AI大模型的训练参数已飙升至万亿级别,如此庞大的训练任务无法由单个服务器完成,需要大量服务器作为节点,通过高速网络组成算力集群,相互协作完成任务。……

生成式AI和大语言模型(LLM)正在以难以置信的方式吸引全世界的目光,本文简要介绍了大语言模型,训练这些模型带来的硬件挑战,以及GPU和网络行业如何针对训练的工作负载不断优化硬件。

当地时间8月29日,谷歌于Google Cloud Next ’23大会上宣布推出新一代Cloud TPU v5e,由 Nvidia H100 GPU 驱动的 A3 超级计算机将于下个月全面上市。

8月25日下午,在第七届未来网络发展大会闭幕式上,紫金山科研团队在闭幕式活动中正式对外发布《算网操作系统白皮书》、《光电融合服务定制广域网》、《以网络IO为中心的无服务器数据中心》三本白皮书。

8月25日,第七届未来网络发展大会在南京上秦淮国际文化交流中心盛大召开,紫金山实验室在闭幕式活动中正式对外发布《光电融合服务定制广域网》白皮书。

8月25日,第七届未来网络发展大会在南京上秦淮国际文化交流中心盛大召开,紫金山实验室在闭幕式活动中正式对外发布《以网络IO为中心无服务器数据中心》白皮书。

随着数字化转型进程推进,云网融合加速发展,企业对于网络信息安全提出了更高要求。如何将灵活的云网基础能力和全面的安全防护能力更好地融合,逐渐成为市场关注的焦点。


近日,MIT和Meta团队发布了名为“Rail-Only”的全新大语言模型架构设计,对专门用于训练大型语言模型的 GPU 集群的传统any-to-any网络架构提出了挑战。

在过去的几十年里,高端路由器和交换机的带宽呈指数级增长。随着这些系统带宽增加,功耗也在增加。为了减少碳排放并保持较低的电力传输和冷却成本,最大限度地减少这些系统消耗的能源至关重要。

在 QUIC发布之前,HTTP 使用 TCP 作为传输数据的底层协议。随着移动互联网的不断发展,人们对实时交互和多样化网络场景的需求越来越大。然而,已经使用了40多年的传统TCP协议,在目前大规模远距离、移动网络差、网……
请输入评论内容