現(xiàn)貨庫(kù)存,2小時(shí)發(fā)貨,提供寄樣和解決方案
熱搜關(guān)鍵詞:
據(jù)知情人士透露,英偉達(dá)不僅大量預(yù)定了臺(tái)積電的產(chǎn)能,還投入了巨資以確保其HBM3內(nèi)存的供應(yīng)。公司已經(jīng)從美光和SK海力士處預(yù)購(gòu)了價(jià)值介于700億至1萬(wàn)億韓元的HBM3內(nèi)存。盡管目前尚無(wú)公開(kāi)的具體用途信息,但業(yè)內(nèi)人士普遍認(rèn)為這一舉措旨在確保2024年HBM供應(yīng)的穩(wěn)定。
此外,還有業(yè)內(nèi)人士透露,三星電子、SK海力士、美光等三大存儲(chǔ)公司明年的HBM產(chǎn)能已經(jīng)完全售罄。業(yè)內(nèi)人士預(yù)計(jì),在人工智能領(lǐng)域半導(dǎo)體公司的激烈競(jìng)爭(zhēng)推動(dòng)下,HBM市場(chǎng)有望在未來(lái)兩年內(nèi)迎來(lái)爆發(fā)式增長(zhǎng)。
據(jù)悉,英偉達(dá)正籌備兩款搭載HBM3E內(nèi)存的新品:分別是配備高達(dá)141GB HBM3E內(nèi)存的H200 GPU和GH200超級(jí)芯片。這兩款產(chǎn)品的推出將進(jìn)一步提升英偉達(dá)對(duì)HBM內(nèi)存的需求。
H200是目前世界上最強(qiáng)的AI芯片,也是世界上首款采用HBM3e的GPU,基于NVIDIA Hopper架構(gòu)打造,與H100相互兼容,可提供4.8 TB/s速度。
在人工智能方面,英偉達(dá)表示,HGX H200在Llama 2(700億參數(shù)LLM)上的推理速度比H100快了一倍。HGX H200將以4路和8路的配置提供,與H100系統(tǒng)中的軟件和硬件兼容。它將適用于每一種類(lèi)型的數(shù)據(jù)中心(本地、云、混合云和邊緣),并由Amazon Web Services、Google Cloud、Microsoft Azure和Oracle Cloud Infrastructure等部署,預(yù)計(jì)將于2024年第二季度推出。
英偉達(dá)一直是人工智能(AI)和高性能計(jì)算(HPC)領(lǐng)域的領(lǐng)先者。英偉達(dá)的決策表明其對(duì)高帶寬內(nèi)存(HBM3)供應(yīng)的重視,這將有助于確保其未來(lái)產(chǎn)品的高性能和競(jìng)爭(zhēng)力。這一舉措也預(yù)示著AI領(lǐng)域或?qū)⒂瓉?lái)爆發(fā)式增長(zhǎng),英偉達(dá)的投資將為未來(lái)的技術(shù)創(chuàng)新和市場(chǎng)競(jìng)爭(zhēng)帶來(lái)新的動(dòng)力。