Vælg dit land eller din region.

EnglishFrançaispolskiSlovenija한국의DeutschSvenskaSlovenskáMagyarországItaliaहिंदीрусскийTiếng ViệtSuomiespañolKongeriketPortuguêsภาษาไทยБългарски езикromânescČeštinaGaeilgeעִבְרִיתالعربيةPilipinoDanskMelayuIndonesiaHrvatskaفارسیNederlandTürk diliΕλλάδαRepublika e ShqipërisëአማርኛAzərbaycanEesti VabariikEuskeraБеларусьíslenskaBosnaAfrikaansIsiXhosaisiZuluCambodiaსაქართველოҚазақшаAyitiHausaКыргыз тилиGalegoCatalàCorsaKurdîLatviešuພາສາລາວlietuviųLëtzebuergeschmalaɡasʲМакедонскиMaoriМонголулсবাংলা ভাষারမြန်မာनेपालीپښتوChicheŵaCрпскиSesothoසිංහලKiswahiliТоҷикӣاردوУкраїнаO'zbekગુજરાતીಕನ್ನಡkannaḍaதமிழ் மொழி繁体中文

Rapporter siger, at NVIDIA skal udvikle intern HBM-base: 3 nm proces, prøveproduktion allerede i 2027

HBM Base Die: 3 nm Process

Ifølge Taiwans industrielle og kommercielle tid har AI-chipgiganten Nvidia lanceret en plan for selvudvikling af den næste generations hukommelse af høj båndbredde (HBM).I fremtiden, uanset hvilken leverandørs HBM NVIDIA vedtager, vil dens basisniveau-logikchip bruge NVIDIAs interne design.Det første produkt forventes at bruge en 3 nm -proces og kunne gå ind i forsøgsproduktionen allerede i anden halvdel af 2027.

På nuværende tidspunkt bruger de førende leverandører som SK Hynix, Samsung og Micron på nuværende tidspunkt, at førende leverandører som SK Hynix, Samsung og Micron bruger på dramprocesser.Med HBM4, der skubber datahastigheder over 10 Gbps, skal basen matrice flytte til avancerede logiske processer og stole på støberier såsom TSMC, inklusive 12 nm eller mere avancerede knudepunkter.

Selvom ledelses-kæde-ledelse stadig hviler hos topdramproducenter som SK Hynix, har de afsløret planer om at introducere stødredskabslogikprocesbase dør i HBM for at forbedre ydeevnen og energieffektiviteten.

Markedsobservatører bemærker, at hukommelsesleverandører er relativt svage i kompleks logisk base-die IP og ASIC designfunktioner.Hvis HBM skal integrere UCIE -grænsefladen og oprette forbindelse til GPU'er/CPU'er, vil designbesværet ved den logiske base die stige markant.Derfor ses NVIDIAs plan om selvudvikling af den logiske base, der kræves for HBM4, som en strategi for at trykke på ASIC-markedet.Gennem NVLINK Fusion Open-Architecture Platform sigter NVIDIA også at tilbyde kunderne mere modulære muligheder og yderligere styrke kontrol over det samlede økosystem.

I mellemtiden, selv når Nvidia skubber frem, har SK Hynix allerede givet nøglekunderne næste generation af 12-høj-stack HBM4-prøver kombineret med avanceret MR-MUF-emballage.Kapaciteten når 36 GB, og båndbredde overstiger 2 TB pr. Sekund - over en stigning på 60% mod HBM3E - der yderligere konsoliderer sin ledelse på AI -hukommelsesmarkedet.

Markedskilder mener imidlertid, at mange kunder, der tidligere blev henvendt til AI-fokuserede ASIC-acceleratorer for at undgå at blive overdrevent begrænset af NVIDIAs høje GPU-omkostninger.Hvis NVIDIA-selvudviklinger HBM-basen dør, og kunderne vedtager NVIDIAs AI-løsninger, ville deres afhængighed af Nvidia uddybe, hvilket muligvis ikke vinder bredt fordel og kunne ændre banen til ASIC-udvikling.De samlede fremskridt bærer stadig at se på.

Samlet set, da NVIDIAs plan om at gøre sin egen HBM -base die -fremskridt, og SK Hynix fremskynder HBM4 -masseproduktionen, bevæger HBM4 sig mod højere hastigheder, højere stabler og mere kompleks emballageintegration.HBM -markedet er indstillet til en ny bølge af intens konkurrence og industriændring.Støberier med avancerede logiske processer, såsom TSMC og Samsung, står til at drage fordel af dette skift.