AI GPU需求太猛,英伟达(NVDA.US)催促SK海力士提前6个月备好HBM4

让建站和SEO变得简单

让不懂建站的用户快速建站,让会建站的提高建站效率!

栏目分类AI GPU需求太猛,英伟达(NVDA.US)催促SK海力士提前6个月备好HBM4

你的位置:经济观察网 > 产业经济 >

AI GPU需求太猛,英伟达(NVDA.US)催促SK海力士提前6个月备好HBM4

发布日期:2024-11-04 17:03    点击次数:63

(原标题:AI GPU需求太猛,英伟达(NVDA.US)催促SK海力士提前6个月备好HBM4)

智通财经APP获悉,韩国大型财团之一的SK集团董事长崔泰源在周一领受采访时示意,英伟达首席施行官黄仁勋此前条款SK集团旗下存储芯片制造巨头SK海力士(SK Hynix)提前六个月推出其下一代高带宽存储家具HBM4。SK海力士10月份在财报中曾示意,诡计在2025年下半年向大客户(商场揣摸为英伟达以及AMD)提供HBM存储系统。SK海力士发言东说念主周一则示意,这一时刻表如实比领先的指标要快,但莫得进一步进行推崇。

黄仁勋躬行条款SK海力士加速下一代HBM——HBM4存储系统的交货速率,突显出对英伟达关于配置愈发先进的东说念主工智能GPU系统的更高容量、更节能HBM存储系统的无比强盛需求,以及愈加突显出OpenAI、Anthropic、微软、亚马逊以及Meta等东说念主工智能、云谋划以及互联网大厂们关于AI考核/推理算力险些无尽头的“井喷式需求”,迫使英伟达(NVDA.US)中枢芯片代工场台积电(TSM.US)加班加点扩大Blackwell AI GPU产能,以及纷繁条款英伟达以更快速率推出性能更高、存储容量更遍及、推理后果更矫健且愈加节能的下一代AI GPU的研发程度。

英伟达诡计于2026年推出下一代AI GPU架构——Rubin,展望Rubin AI GPU将搭载HBM4存储系统。据装假足统计,英伟达当前在大派系据中心AI芯片商场占据80%-90%号称附近的商场份额,展望AMD占比接近10%,其他份额则为谷歌TPU、亚马逊自研ASIC等大厂自研AI芯片。

四肢英伟达H100/H200以及近期批量分娩的Blackwell AI GPU的中枢HBM存储系统供应商,SK海力士一直在引颈人人存储芯片产能竞赛,以知足英伟达、AMD以及谷歌等大客户们知足对HBM存储系统的爆炸性需求以杰出他企业关于数据中心SSD等企业级存储家具的需求,这些存储级的芯片家具关于管制海量数据以考核出愈发矫健的东说念主工智能大模子以及需求剧增的云表AI推理算力而言号称中枢硬件。

但SK海力士也靠近着来自三星电子以及好意思国存储巨头好意思光(MU.US)日益浓烈的竞争压力。三星上周在财报中示意,在与一家主要客户(可能是英伟达)达成供应公约方面取得了积极进展,此前该公司永恒遭受家具测试延误而且在上一次测试中未能通过英伟达禀赋测试。三星补充示意,该公司正在与主要客户进行探求,有可能来岁上半年批量分娩“改良后”的HBM3E家具。三星还诡计在来岁下半年分娩下一代HBM——HBM4存储,以跟上竞争敌手SK海力士的门径。

在好意思国,好意思国脉土存储巨头好意思光乃另一得回英伟达供应禀赋的HBM供应商,另一家为SK海力士。在本年2月,好意思光照旧初始量产专为东说念主工智能和高性能谋划所联想的HBM3E存储系统,并示意英伟达一部分H200以及Blackwell AI GPU将搭载好意思光HBM3E。随后,好意思光CEO还屡次示意,好意思光今明两年的HBM产能已销售一空。好意思光还示意,正在加速鞭策下一代的HBM4和HBM4e研发程度。

在与崔泰源领受采访险些统一时刻,SK海力士首席施行官郭鲁正在首尔举行的2024年SK东说念主工智能峰会上示意,该公司诡计本年年底前向一位大客户(商场揣摸为英伟达)提供最新的12层HBM3E,并诡计在来岁头运送更先进的16层HBM3E存储样品。而且这位首席施行官在采访中还显露,英伟达AI GPU供应仍然难以知足需求,而且英伟达屡次条款SK海力士加速HBM3E供应限度。

HBM需求炸裂,号称“印钞机”

英伟达首创东说念主兼CEO黄仁勋在前不久的采访中曾显露,Blackwell架构AI GPU已全面投产,且需求极度“狂放”;与此同期,跟着AI GPU需求爆表,HBM存储系统需求也随之激增,而且改日几年可能捏续供不应求。

据了解,来自天风国外的着名科技产业链分析师郭明錤最新发布英伟达Blackwell GB200芯片的产业链订单信息,指出微软当前是人人最大的GB200客户,Q4订单激增3-4倍,订单量越过其他总共的云作事商总数。

郭明錤在一份最新解释中示意,Blackwell AI GPU的产能彭胀展望在本年第四季度初启动,届时第四季度的出货量将在15万到20万块之间,展望2025年第一季度出货量将显赫增长200%到250%,达到50万到55万块。这意味着,英伟达可能仅需几个季度就能竣事百万台AI作事器系统的销量指标。

阐明华尔街金融巨头花旗集团的最新预测数据,到2025年,好意思国四家最大限度科技巨头的数据中心关系老本开销展望将同比增长至少40%,这些遍及的老本开销基本上齐与生成式东说念主工智能挂钩,意味着ChatGPT等AI行使的算力需求仍然遍及。花旗集团示意,这意味着巨头们关于数据中心的开销限度有望在本已强盛的2024开销限度之上无间大举彭胀,该机构展望这一趋势将为AI GPU当之无愧的霸主英伟达以及数据中心互连(DCI)本领提供商们股价捏续带来极度重磅的正面催化剂。

HBM存储系统与AI芯片霸主英伟达所提供的中枢硬件——H100/H200/GB200 AI GPU以及庸俗的AI ASIC芯片(比如谷歌TPU)合作搭载使用,HBM与英伟达AI GPU共同组合成所谓的“NVIDIA AI GPU作事器”。HBM以及AI GPU关于驱动ChatGPT以及Sora等重磅东说念主工智能行使可谓必不能少,AI GPU需求越强盛,则涌现HBM存储需求愈发横暴。

HBM是一种高带宽、顽劣耗的存储本领,稀薄用于高性能谋划和图形管制边界。HBM通过3D堆叠存储本领,将堆叠的多个DRAM芯片全面联贯在沿路,通过细微的Through-Silicon Vias(TSVs)进行数据传输,从而竣事高速高带宽的数据传输。HBM通过3D堆叠本领,将多个存储芯片堆叠在沿路,不仅大幅减少了存储体系空间占比,也大幅裁减了数据传输的能耗,高带宽则大约显赫普及数据传输后果,使得AI大模子大约24小时不远隔地更高效地运行。

尤其是HBM存储系统具有无可比较的低延长特质,大约快速反馈数据拜谒肯求。GPT-4等生成式AI大模子广泛需要时时拜谒大数据集以及进行无比劳作的大模子推理使命负载,矫健的低延长特质大约极大程度提高AI系统的举座后果和反馈速率。在AI基础身手边界,HBM存储系统全面绑缚英伟达H100 /H200 AI GPU以及AMD MI300X等AI GPU,以及正在批量分娩的英伟达B200和GB200 AI GPU,以及AMD MI325X等。

华尔街大行高盛发布研报称,由于企业无比强盛的生成式东说念主工智能(Gen AI)需求推动了更高的AI作事器出货量和每个AI GPU中更高的HBM密度,该机构大幅提高了HBM总商场限度预估,当前展望商场限度将从2023年到2026年间以复合年增速100%大幅增长,展望到2026年增长至300亿好意思元。高盛展望,HBM商场供不应求的情况改日几年将捏续,SK海力士、三星和好意思光等主要玩家将捏续受益。