2023 AI 网络大事记:巨头入局、资本下场、神仙打架

2023年已步入尾声,回望这一年,自ChatGPT横空出世,AI便一路狂飙,已然成为科技界的“顶流”,巨头入局、资本下场、神仙打架,万物皆可“大模型”,热闹非凡的这一年,一起回顾下AI领域有哪些值得关注的大事吧!

12月

AMD推出Instinct MI300X GPU、MI300A APU,称速度比Nvidia产品快1.6倍

12 月 6 日,AMD 在 Advancing AI 活动期间正式发布Instinct MI300X GPU以及MI300A APU两款人工智能加速处理器。凭借全新CDNA 3架构、8颗HBM3高速内存、3.5D封装等技术,AMD声称其全新AI芯片部分性能、能效方面可赶超英伟达H100。与此同时,AMD推出了ROCm 6 AI软件生态系统,便于客户构建生成式AI。AMD 并未透露其新芯片的定价,但这些产品目前正在向众多 OEM 合作伙伴发货。

Instinct MI300X GPU加速器芯片采用全新的AMD CDNA 3架构,集成8颗5nm制程XCD GPU、8颗12层HBM3芯片、4颗6nm制程I/O单元。与上一代MI250X加速器相比,CU计算单元数量达304个,增加40%;显存容量提高至1.5倍,理论显存带宽提高至1.7倍。这款芯片集成了2.5D以及3D封装技术,AMD将其称之为“3.5D”封装。

AMD 表示,其 Instinct MI300X GPU 在人工智能推理工作负载中的性能比英伟达H100 高出 1.6 倍,并在训练工作中提供类似的性能,从而为业界提供了急需的英伟达GPU 的高性能替代品。此外,这些加速器的 HBM3 内存容量是英伟达GPU 的两倍以上(每个 192 GB 令人难以置信),使其 MI300X 平台能够支持每个系统两倍以上的 LLM 数量,并运行比英伟达H100 HGX 更大的模型。

谷歌发布 Gemini,声称性能超越GPT-4和人类专家

12月6日,谷歌宣布推出一种名为Gemini的新人工智能模型,声称该模型在一系列智力测试中的表现优于OpenAI的GPT-4模型和“专家级”人类。Gemini已针对不同的应用创建了3个版本,分别是Nano、Pro和Ultra。谷歌拒绝回答有关Pro和Ultra的规模、它们包含的参数数量、训练数据的规模或来源等问题。

谷歌表示,Gemini 是包括 Google Research 在内的 Google 各团队间进行广泛合作的成果。在大语言模型研究和开发中广泛使用的 32 项学术基准中,Gemini Ultra 的性能有 30 项都超过了目前最先进的水平。

11 月

狂砸439亿!谷歌和AWS相中AI新锐Anthropic

谷歌将向AI初创公司 Anthropic 进行高达 20 亿美元(约为146亿人民币)的投资,以支持该公司和OpenAI之间的大模型竞争。此次投资交易的条款显示,谷歌将先进行5亿美元的先期投资,后续再追加15亿美元。在本次投资几个月前,Anthropic和谷歌云签署了一项价值30亿美元的多年合约。这一举动不仅让谷歌在云业务上取得突破,还在AI领域的竞争中加快了步伐。不过谷歌并不是唯一一家对Anthropic 进行重大投资的企业。

今年9月,AWS 计划向 Anthropic 投资至多 40 亿(约为293亿人民币)美元。作为协议的一部分,Anthropic 将使用AWS 的云计算平台和专用AI芯片训练和部署其未来的基础模型。对于AWS 来说,这笔交易标志着其在生成式人工智能的最新进展,同时也加大了与微软、谷歌和英伟达的竞争力度。AWS 将其 Trainium 和 Inferentia 芯片定位为英伟达处理器的可靠替代品,用于训练和运行生成式 AI 模型。

OpenAI“宫斗”续:96%员工辞职威胁,微软或成最大赢家?

2023年11月,随着首席执行官Sam Altman的离职,OpenAI经历了一场重大的领导层剧变,在人工智能界引起动荡。最初,OpenAI董事会宣布 Altman将辞去首席执行官一职,并离开董事会,由公司首席技术官Mira Murati担任临时首席执行官。

然而,发生了戏剧性的逆转。OpenAI投资者向董事会施压,要求Sam Altman重返首席执行官。最终,纽约时间的11月22日凌晨1点,Open AI在X(前Twitter)的官方账号正式宣布原则上同意Sam Altman重新回到Open AI担任公司的CEO。同时,Open AI的董事会大换血,新的董事会包含 Bret Taylor (Chair), Larry Summers 和 Adam D’Angelo。

GSE技术特设组正式成立,AI网络方案谁主沉浮

11月开放数据中心委员会(ODCC)冬季全会会议,全调度以太网(GSE)技术特设组成立并召开第一次工作组会议。该特设组由中国信息通信研究院和中国移动共同发起,腾讯、中国广电、思科、Intel等三十余家全球合作伙伴携手推动,这是全调度以太网技术发展和产业合作的里程碑。

随着ChatGPT横空出世,智算中心网络迅速成为热议的话题。今年5月,中国移动联合腾讯等率先发布了《全调度以太网技术(GSE)架构白皮书》。7月,超以太网联盟(UEC)成立并发布UE技术愿景白皮书。两者技术技术理念基本一致,都以革新以太网转发机制作为核心,并进一步优化物理层到软件层协议,推动网络芯片底层逻辑架构支持,突破无损以太性能瓶颈。新型以太网成为未来智算主流方向已经行业共识。然而,对以太网转发机制的革新,需要依赖网络芯片底层逻辑架构、网络设备及上层协议的支持,目前国内缺乏相应的开放组织,尚未形成产业合力。随着全调度以太网技术特设组的成立,以太网在中国的标准化工作也有了新的舞台。

马斯克的AI大模型 Grok登场

今年4月,马斯克成立xAI,加入AI大战。经过半年多的酝酿,11月4日,马斯克旗下社交媒体平台X的AI团队发布公告,正式推出Grok大语言模型。一直以来,马斯克把AI描述为“历史上最具颠覆性的力量”。他是这项技术的狂热粉丝,但又充满警惕。他称,这样的结果就是,“终有一天,人们将不再需要工作”。

据称Grok-0在许多基准大模型测试中,表现出来的能力已经与参数量翻一倍的LLaMA 2相近。在那之后,团队又进行了两个月的努力迭代至Grok-1,也就是此次正式对外发布的公测版本。xAI团队介绍称,这个AI旨在回答几乎所有的问题,甚至还会建议该问什么样的问题。该团队同时提醒称,这个模型的人设是“有智慧,还有叛逆的性格”。

英伟达发布最强AI芯片H200

11月13日,英伟达正式宣布,在目前最强AI芯片H100的基础上进行一次大升级,发布新一代H200芯片。H200拥有141GB的内存、4.8TB/秒的带宽,并将与H100相互兼容,在推理速度上几乎达到了H100的两倍。H200预计将于明年二季度开始交付,英伟达尚未公布其价格。

与A100和H100相比,H200最大的变化就是内存。搭载“世界上最快的内存”HBM3e技术的H200在性能上得到了直接提升,141GB的内存几乎是A100和H100最高80GB内存的2倍,4.8TB每秒的带宽则达到了A100的2.4倍,也显著高于H100 3.35TB每秒的带宽。英伟达还透露,下一代Blackwell B100 GPU也将在2024年推出,性能已经“望不到头”。

10 月

网连智能,智驱网络|2023 AI网络创新大会在京盛大召开!

10月21日,2023 AI网络创新大会在北京成功召开,本次大会由中国通信学会指导,中国通信学会信息通信网络技术委员会、江苏省未来网络创新研究院主办,SDNLAB协办。大会以“网连智能,智驱网络”为主题,设立了一个主论坛,三个分论坛,共邀请了三十余位行业专家,围绕AI下的网络互联架构、AI网络设备、高性能网络传输技术、网络调度与资源分配等议题展开了深入的交流和探讨,全面展示了国内外AI网络行业发展现状。AI网络创新大会的成功召开不仅为与会者提供了丰富的见解和深度的讨论,也为行业带来了新思维、新合作机会和新研究方向,进一步推动了AI网络技术的创新和进步,为更智能、更高效的未来网络打下坚实基础。

搞事情!OCP与 UEC 宣布合作,推动AI网络性能和硬件革新

10月17日,2023 年 OCP 全球峰会在加利福尼亚州圣何塞正式拉开帷幕。会上,OCP和UEC宣布合作开发下一代数据中心设备,优化人工智能和高性能计算工作负载,为 OCP 社区交付的下一代人工智能集群集成增强型以太网,提供后端人工智能集群结构所需的低延迟连接。

OCP 和 UEC 的合作结合了UEC 在针对特殊工作负载进行以太网现代化方面的专业知识,以及OCP 在指定综合系统解决方案和新兴技术方面的经验。合作目标包括增强以太网性能,以解决AI/HPC工作负载的规模、带宽、多路径和拥塞问题。合作的主要方向将包括调整 OCP 和 UEC 内部的工作,将工作重点放在共同目标上,并确保 OCP 对 UEC 以太网增强功能的整合顺利有效。OCP希望将受 UEC 启发的以太网增强功能集成到完整的系统中,从而增强 OCP 的多供应商供应链。

总的来说,本次合作将利用两家组织的专业技能来提高人工智能工作负载的以太网性能。已确定初步探索潜在合作的领域包括 OCP交换机抽象接口(SAI)、OCP Caliptra Workstream、OCP网络项目、OCP网卡Workstream、OCP Time Appliance项目和OCP未来技术倡议。

自研AI 芯片!来自OpenAI、微软的反击

10月6日,路透社报道称,有消息表示OpenAI正在探索打造自研AI芯片,并在评估潜在的收购目标。在OpenAI的官网上,也能发现几个可能与自研芯片相关的岗位。报道称,去年OpenAI就开始讨论解决AI芯片成本昂贵、供应短缺等问题的多项解决方案,其中包括自研AI芯片,与英伟达在内的芯片供货商更紧密合作,推动AI芯片供应来源多元化等举措。

当前OpenAI已将获得更多AI芯片列为公司首要任务,但自研芯片是一项重大投资,每年成本或高达数亿美元,耗时超过数年,且最终也无法保证能成功研发。目前还不清楚 OpenAI 到底会不会迈出定制芯片这关键性的一步。

有意思的是,作为OpenAI大股东的微软,其自研芯片项目“雅典娜”(Athena)和OpenAI此次传出的消息并不是一回事,二者大有各过各的感觉。微软于 2019 年左右开始研发 Athena,预计将与英伟达的旗舰 H100 GPU 在数据中心AI 加速方面展开竞争,微软和合作伙伴 OpenAI 的小组已经对定制芯片进行了秘密测试。Azure 目前依赖英伟达 GPU 来实现微软、OpenAI 和云客户使用的 AI 功能,但有了 Athena,微软可以追随竞争对手 AWS 和谷歌的脚步,为云用户提供自主研发的AI芯片。

9 月

思科新动作:放弃 HyperFlex超融合,强化基于以太网的AI网络战略!

9 月 12 日,思科正式宣布已停止生产其 HyperFlex 超融合基础设施(HCI)产品。思科表示,做出这个决定有两方面的考虑。一方面是不断变化的客户需求和市场形势,让自己重新考虑了针对这款设备的计划;另一方面是超大规模计算公司开始涉足这个市场。思科之所以放弃 HyperFlex,可能是因为它的销量始终没能达到让思科满意。不过思科没有错过AI网络的风口,制定了一系列基于以太网的AI网络战略。

思科的人工智能蓝图定义了组织如何使用现有数据中心以太网来支持人工智能工作负载,其核心组件是 Nexus 9000 数据中心交换机,这些交换机的每个 ASIC 高达 25.6Tbps 的带宽,并且拥有可用的硬件和软件功能,可提供所需的低延迟、拥塞管理机制和遥测, 可提供 AI/ML 集群所需的极高吞吐量。此外还发布了全新高端可编程处理器Silicon One G202和Silicon One G200,其针对高带宽、超大规模数据中心以及 AI/ML高性能网络进行了全面优化,构建无损、低延迟和高能效的AI数据中心。

8 月

首个《人工智能法示范法1.0(专家建议稿)》发布

8月15日,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组发布《人工智能法示范法 1.0(专家建议稿)》。

据悉,《示范法》涵盖总则、工智能支持与促进、人工智能管理制度、人工智能研发者和提供者义务、人工智能综合治理机制、法律责任和附则七大章节。总体来看,《示范法》坚持发展与安全并行的中国式治理思路,提出了负面清单管理等治理制度,并对人工智能产业链条各主体责任义务分配等核心问题进行了回应。

7 月

剑指InfiniBand,超以太网联盟(UEC)正式成立

7 月 19 日,超以太网联盟 (Ultra Ethernet Consortium,UEC) 正式成立,它是一个由 Linux 基金会及其联合开发基金会倡议主办的新组织。UEC 的目标是超越现有的以太网功能,例如远程直接内存访问 ( RDMA ) 和融合以太网 RDMA (RoCE),提供针对高性能计算和人工智能进行优化的高性能、分布式和无损传输层,直接将矛头对准竞争对手的传输协议 InfiniBand。

UEC 的创始成员包括 AMD、Arista、博通、思科、Eviden 、HPE、Intel、Meta和微软,都拥有数十年的网络、人工智能、云和高性能计算大规模部署经验。

为改进以太网,UEC 联盟提出了UEC 传输协议,旨在提供比目前的 RDMA 更好的以太网传输(仍支持 RDMA),在提供AI和HPC应用程序所需性能的同时保留以太网/IP的优势。UEC 协议将提供更灵活的传输,不需要无损网络,允许many-to-many人工智能工作负载所需的多路径和无序数据包传输等功能。

Meta 发布免费商业应用的开源 AI 模型 Llama 2

继LLaMA开源后,Meta联手微软高调开源Llama 2,一共有7B、13B、70B三个版本。据介绍,Llama 2接受了2万亿个token训练,上下文长度4k,是Llama 1的2倍。微调模型已在超100万个人类标注中进行了训练。

而 Llama 2 之所以能引起这么大的反响,不仅是因为它是开源的,更主要的原因便是它可以被免费地用于研究和商业用途。与此同时,Meta 还与微软强强联手,旨在驱动 OpenAI 的 ChatGPT、Bing Chat 和其他现代聊天机器人等应用程序。

6 月

思科推出新的AI网络芯片,正面硬刚博通、Marvell

6 月 20 日,思科宣布推出专为人工智能超级计算机设计的新型网络芯片,在推出 Cisco Silicon One™ 三年半之后,思科宣布推出第四代设备,即 Cisco Silicon One G200 和 Cisco Silicon One G202,将与博通和 Marvell Technology 的产品展开直接竞争。目前几家主要的云供应商已经在测试这些芯片,不过思科没有透露相关公司的名称。根据 Bofa Global Research的数据,主要的云计算参与者包括AWS、微软 Azure 和谷歌云等。

Cisco Silicon One G200 是一款 5 纳米、51.2 Tbps、512 x 112 Gbps 的SerDes设备,具有可编程、确定性、低延迟等特性,且具备高级可见性和控制能力。Cisco Silicon One G200 提供了统一架构的优势,专注于基于以太网的增强型AI/ML和网络规模主干部署。

Cisco Silicon One G202 处理器是一款 25.6-Tbps、全双工、独立的交换处理器,可用于构建固定外形规格的交换机,适合利用 50G SerDes 与交换机进行光纤连接的客户,非常适合网络级数据中心脊叶应用和 AI/ML 应用。

5 月

中国移动研究院发布《全调度以太网技术架构(GSE)白皮书》

5月9日,中国移动研究院携手中国信通院、腾讯、鹏城实验室、清华大学、华为、中兴、锐捷、新华三、中信科、思博伦、Intel、Marvell、盛科等十余家合作伙伴,联合发布《全调度以太网技术架构(GSE)白皮书》,旨在推动面向未来智算中心的新型全调度以太网技术方案,助力产业突破智算中心网络性能瓶颈,打造无阻塞、高带宽、超低时延的新型智算中心网络,助力AIGC等高性能业务快速发展。

中国移动研究院主导提出的全调度以太网技术架构,在最大限度兼容现有以太网标准的前提下,将高性能计算需求融入以太网。创新性提出报文容器(PKTC)概念,以及从“流”分发到“报文容器”分发转变、从“推”流到“拉”流转变、从“局部决策”到“全局调度”转变三大核心理念,构建出全网流量有序调度、链路带宽高效利用、网络状态精确感知的高性能网络。彻底解决了传统网络技术负载不均,公平调度难、拥塞控制能力不足等技术难题,为智算中心高性能网络发展奠定了基础。

Meta发布两款自研AI芯片,或用台积电7nm制程

据外媒报道Facebook母公司Meta于5 月18日发布两款用于人工智能的自研芯片,并可能采用台积电7nm制程。该报道指出,由于元宇宙商用进度不理想,Meta打造新一代为AI设计的Meta基础设施架构,涵盖硬件与软件堆叠的各个层面,及串联这些技术的定制化网络。Meta公告显示,新架构中包含Meta首个用于执行AI模型所定制的芯片、全新的AI优化资料中心设计,及配备1.6万个GPU,专为AI研发设计的超级电脑。

Meta基建部门副总裁比约琳表示,Meta已为AI芯片家族制定“多代路线图”,包括用于训练AI模型的处理器,但其拒绝提供新型推理芯片以外的细节。路透社此前报道,Meta已取消一项AI推理芯片计划,展开的另一项计划预估2025年问世。

4 月

国内办公行业厂商加速布局人工智能

4月11日,阿里巴巴旗下办公软件钉钉宣布接入“通义千问”AI大模型,同一天,字节跳动宣布即将推出飞书AI助手“My AI”;4月18日,金山办公发布基于大语言模型的生成式人工智能应用WPS AI;4月21日,印象笔记宣布其“印象AI”可以开始使用;4月27日,“石墨文档”宣布将通过百度智能云,全面接入“文心一言”。

3 月

OpenAI 宣布正式推出 GPT-4

OpenAI 宣布正式推出 GPT-4,这也是OpenAI在扩大深度学习方面的最新里程碑。官方公告显示,GPT-4是多模态大型语言模型(支持接受图像和文本输入,以文本形式输出),虽然 GPT-4 对于许多现实场景的处理比人类差,但它在各种体现专业和学术能力的 benchmark 上,已表现出和人类相当的水平。

例如,GPT-4 通过了模拟律师考试,其分数在应试者的前 10% 左右;相比之下,GPT-3.5 的得分却在倒数 10% 左右。OpenAI 表示,他们花了 6 个月的时间来使用对抗性测试程序,以及通过 ChatGPT 的经验教训迭代调整 GPT-4,从而在真实性和可控性等方面取得了有史以来最好的结果(尽管远非完美)。

百度发布文心一言,打响国内大语言模型发布的第一枪

3月16日,百度发布文心一言,打响国内大语言模型发布的第一枪,抢占中文大模型产业化先机。10月,文心一言的基础模型升级到4.0,理解、生成、逻辑和记忆四大人工智能基础能力全面提升。文心大模型4.0过去两个多月整体效果又提升了32%。

此后,国内科技企业纷纷跑步入场。阿里巴巴“通义千问”、华为“盘古”、360“智脑”、昆仑万维“天工”、京东“灵犀”、科大讯飞“星火”、腾讯“混元”、商汤“日日新”等大模型先后登场,AI终端百花齐放。截至2023年10月初,国内公开的AI大模型数量已经达到238个,从“一百模”升级至“二百模”。

12月28日,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰表示文心一言用户规模已突破1亿,自8月31日获准开放对公众提供服务以来,文心一言的用户提问量一路上扬,基本与文心大模型的效果提升同步。

2 月

谷歌AI挑战ChatGPT :Apprentice Bard

消息称,谷歌正测试一款类似ChatGPT的聊天机器人,名为Apprentice Bard。该产品基于谷歌对话模型LaMDA,面向各种对话,将给出尽可能让人满意的合理回答,即便近期刚发生的事,它也能回答出来。

据消息称,其与ChatGPT的区别如下:

Apprentice Bard可以根据时事和新信息生成答案,而ChatGPT 3.5仅使用 2021 年之前的信息,因此不适合研究。
在使用 Apprentice Bard AI 时,需要对谷歌设置进行一些小的调整才能获得常规搜索结果。在 ChatGPT 中,仅返回文本响应。
Apprentice Bard 基于 Lambda,ChatGPT 基于 GPT。
ChatGPT 有自己的抄袭检测器,称为AI 文本分类器。此功能尚不适用于Apprentice Bard AI。
Apprentice Bard AI 目前完全免费,OpenAI 最近向用户推出了名为ChatGPT Plus的付费计划。

1月

微软向OpenAI投资100亿美元

2023年1月23日,微软公司在其官方博客宣布,已与OpenAI扩大合作伙伴关系,消息称,作为两家公司合作伙伴关系的第三阶段,微软将向OpenAI进行一项为期多年、价值数十亿美元的投资,以AI 突破,拓展双方在 AI 超算和研究方面的合作,并致力于 AI 技术商业化。

自从2019年微软首次投资以来,OpenAI与微软就一直保持了实质上的合作伙伴关系,这次投资基本上是这种伙伴关系的正式化,两家公司能够联合起来,共同加速技术研究。此次投资后,微软可以和OpenAI一起,在自家云平台上开发技术。通过投资OpenAI,微软将自己定位在了这场AI革命的最前沿。

2023年的AI之旅或许即将落幕,但AI的精彩故事仍将不断书写。在这不断变革与创新的一年里,我们见证了AI技术的飞速进步,但最令人期待的,永远是充满无限可能的未来。我们,来年再见!


  • 本站原创文章仅代表作者观点,不代表SDNLAB立场。所有原创内容版权均属SDNLAB,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用,转载须注明来自 SDNLAB并附上本文链接。 本站中所有编译类文章仅用于学习和交流目的,编译工作遵照 CC 协议,如果有侵犯到您权益的地方,请及时联系我们。
  • 本文链接https://www.sdnlab.com/26425.html
分享到:
相关文章
条评论

登录后才可以评论

SDNLAB君 发表于23-12-29
0