算力芯片看点系列:如何理解Scale-up网络与高速SerDes芯片?
投资要点
AI芯片Scale-up领域,英伟达一骑绝尘。在Scale-up领域,当前行业主流多采用闭环的自有协议方案,如业界发展最早和最成熟的英伟达NVLink技术,可以将GPU和GPU互连,至多让576个GPU实现每秒1.8TB的通信;而其他厂商的Scale-up互连大多以PCIe协议为基础,目前PCIe5.0技术单通道双向速率为8GB/s,16通道可达128GB/s,远远低于NVLink同代技术。由AMD、AWS、谷歌和思科等九家巨头宣布成立的UALink联盟则主张建立开放生态,从技术节奏来看,挑战英伟达NVLink的难度较大。UALink初代V1.0标准已于25Q1发布,NVLink1.0早在2016年已应用于Pascal架构GPU。
英伟达如何实现卡间互连?英伟达GPU中NVLink和PCIe同时存在,GPU互连采用NVLink,GPU与CPU互连采用PCIe。Grace Hopper超级芯片引入NVLink-C2C,可不通过PCIe直接访问CPU,是一次重要的技术补齐。到英伟达GB200这一代,NVSwitch技术进一步完善,一个NVLink域内最多连接GPU的数量从8升级为576,使得内部互连更加庞杂。GB200由两颗B200GPU和一颗Grace CPU构成,B200北向有基于200G SerDes的1.8TB/s NVLink5.0链路,GB200共包含72对200G SerDes。B200南向包含NVLink-C2C接口和2个PCIe接口。我们分析接口的物理层结构发现,无论是NVLink还是NVSwitch,SerDes都是物理层重要的底层技术支撑。在后续Rubin架构中,英伟达通过引入独立I/O芯片与第六代NVLink进一步提升互连带宽至3.6TB/s,而Rubin Ultra则在封装内采用多芯片分层互连与1TB HBM4E的高带宽设计,机柜架构亦演进至Kyber,以支撑更大规模的GPU集群。
UALink开放生态新机遇,关注高速SerDes IP供应商进展。在AI需求提升的背景下,SerDes技术向224G升级的趋势加速确立。当前的高速SerDes研发仍然由海外厂商主导,包括(1)第三方SerDes供应商:Cadence、Alphawave等,授权SerDes IP给芯片商使用并收取专利授权费;(2)自研厂商:博通、Marvell、英特尔等厂商根据自身需求或帮下游客户设计SerDes IP,定制化属性较强。以上海外SerDes供应商均已具备224G SerDes能力。国内能跟上高速SerDes芯片开发的队伍屈指可数,高速SerDes领域的市场格局仍未成型,主要玩家包括芯动科技、晟联科、集益威、芯耀辉等,最高能达到112G速率。在AI芯片Scale-up方面的国产化进程上,高速SerDes芯片也应当给予足够的重视。
投资建议:重点推荐盛科通信、海光信息,关注万通发展、澜起科技等。
风险提示:AI应用进展不及预期,技术发展不及预期,市场竞争风险。
本站内容源自互联网,如有内容侵犯了您的权益,请联系删除相关内容。 本站不提供任何金融服务,站内链接均来自开放网络,本站力求但不保证数据的完全准确,由此引起的一切法律责任均与本站无关,请自行识别判断,谨慎投资。