Chinese processorfabrikant Zhaoxin heeft losse gpu in ontwikkeling

De Chinese chipfabrikant Zhaoxin ontwerpt een eigen losse gpu, afgaande op een screenshot van een roadmap die bij Chinese media is verschenen. Het gaat om een instap-gpu die het bedrijf op 28nm laat produceren.

De roadmap maakt melding van een standalone gpu van 70W, die TSMC op 28nm gaat produceren. De roadmap kwam voorbij in een video op de website van Zhaoxin, volgens cnTechPost, maar die video is inmiddels verwijderd. De gpu staat op de roadmap voor ergens tussen 2020 en 2021.

Met een tdp van 70W en een productieprocedé van 28nm is duidelijk dat het om een instapvideochip met lage prestaties gaat. Specificaties van de gpu zijn verder niet bekend. Het is waarschijnlijk dat Zhaoxin in ieder geval deels gebruikmaakt van technieken die moederbedrijf VIA toepaste voor de architectuur van de S3-gpu.

Zhaoxin is bekend van zijn x86-64-processors in de KX-lijnen, waarmee het bedrijf in relatief korte tijd flinke prestatiewinst geboekt lijkt te hebben. De vraag is in hoeverre het bedrijf last gaat krijgen van de beperkingen voor het gebruik van Amerikaanse chiptechnologie, zoals de VS die aan met name Huawei heeft ingesteld.

Zhaoxin roadmap 2020

Door Olaf van Miltenburg

Nieuwscoördinator

10-07-2020 • 09:48

25

Reacties (25)

25
22
15
3
0
1
Wijzig sortering
Een interessant bedrijf dat processoren maakt die heel erg snel heel erg veel beter aan het worden zijn. Natuurlijk zijn het nog geen AMD of Intel killers maar als ze de prestatie verbeteringen kunnen volhouden dan zouden het me niets verbazen als ze binnen niet al te lange tijd met een iets makkelijkere naam ook naar de Europese en heel misschien zelfs de Amerikaanse markt komen omdat ze gewoon mee kunnen komen met de AMD en Intel processoren.

Het is dan ook interessant om te zien dat ze met een eigen GPU komen iets dat ze nog verder in de richting van een AMD doet bewegen. Natuurlijk zullen de eerste versies niet geweldig zijn wat snelheid en features betreft maar als ze een vergelijkbare verbetering kunnen laten zien als bij de CPU's dan is het echt geen 10 jaar meer voor we eindelijk weer eens een andere speler op de GPU markt kunnen verwelkomen.
Ik weet dat Intel ook drunk bezig is met een enorm veel geld verslindend product (Xe) en dat de eerste resultaten er soort van redelijk uitzien maar bij lange na niet in de buurt komen van wat de twee bestaande GPU makers op het moment doen. Nu zijn dat voor als nog kleine GPU's die in de zelfde package als de CPU zitten en dus relatief weinig energie kunnen verstoken en allerlei andere beperkingen hebben dus het zou nog kunnen dat ook zij met een goede GPU komen, dus misschien dat we tegen die tijd 3 GPU makers hebben in plaats van 2.

Ja ik weet dat er meer bedrijven GPU's bakken maar niet echt voor de consumenten markt en al helemaal niet voor de high end consumenten markt.

Nu zullen er vast mensen zijn die bang zijn want een Chinees bedrijf maar in mijn ogen is het alleen maar goed als er meer concurrentie komt op de markt want op dit moment is er erg weinig innovatie en lopen de twee (AMD/Intel voor CPU en AMD/Nvidia voor GPU) voornamelijk achter elkaar aan.
Een beetje concurrentie is alleen maar goed, ARM op de CPU markt begint eindelijk wat te worden en kan misschien zelfs zeker nu Apple een flink aantal ontwikkelaars dwingt om er voor te ontwikkelen ook echt wat gaan worden, Microsoft moet er nog wat meer aan werken ondanks dat ze al erg veel werk gedaan hebben met Qualcomm voor hun heterogeneous scheduler is er zeker nog veel ruimte voor verbetering.

Uiteindelijk zou het goed zijn om weer eens 5 of 6 verschillende CPU en GPU makers te zien die allemaal een ongeveer vergelijkbaar product leveren dat fundamenteel anders is. Daar door kunnen we er als consumenten zeker van zijn dat de producten die we kopen de beste zijn die de mens op dit moment kan maken op dat gebied, in plaats van producten die fundamenteel hetzelfde zijn en zeer weinig echt verschillen anders dan dat deze generatie bedrijf A net iets sneller is dan bedrijf B.
Het maakt niet uit voor de X86 Ben je al veel te laat. Amd en Intel gaan nog een paar gigantische stappen maken en dan is het over , dan draait alles op arm miljarden worden door apple Microsoft, en Google in gepompt. En de energie prestatie verhoudingen zijn prima dus dat wordt echt de volgende stap. Ook amd is een grote reden daar voor door meer en meer cores te leveren worden eindelijk de software steeds beter geschreven voor multicores IPV single/ dual of quad core.
x86 is al een hele lange tijd op een dood spoor, en er is weinig meer dat dat echt kan redden. Risc is een oplossing om met minder meer te doen door betere optimalisatie en ik denk dan ook dat zeker Apple hier echt de vruchten van zal plukken ook Google heeft zeker in hun DC's een groot voordeel te behalen als ze de chips zo ontwerpen dat ze extreem efficient hun werk doen (dat is een beetje het idee achter risc)

Het verschil tussen cisc (x86 is er een van) en risc (arm is een mooi voorbeeld) architectuur is dat cisc eigenlijk alles wil kunnen doen en dus hel erg veel instructies bevat die handig kunnen zijn voor heel erg veel verschillende soorten workloads. Waar risc een veel minder uitgebreide set instructies bied die veel meer geoptimaliseerd zijn voor een bepaalde workload.
Het grote probleem voor risc is als je er dingen mee wil doen die niet in het door de ontwerpers mee genomen workload profiel passen. Dan zal de processor de taak als nog wel kunnen uitvoeren maar heeft hier voor een heleboel meer instructies/clock cycles nodig dan een cisc processor. Aan de andere kant omdat cisc niet zo geoptimaliseerd is voor een bepaalde workload kan het heel goed zijn dat risc met veel minder instructies/clock cycles hetzelfde bereikt dit is waar de "veel zuinigere ARM" verhalen vandaan komen.
Ja je kunt veel zuiniger een voorspelbare workload afhandelen met een risc processor dan met een cisc processor maar op het moment dat de workload niet meer past binnen de voorspelde workload is cisc weer een stuk beter.

Om die reden won cisc het van risc toen we met de computer revolutie begonnen, er was simpelweg niet voldoende bekend over het uiteindelijk doel en gebruik van de computer om de workload juist te voorspellen. In middels weten we een stuk beter wat mensen zoal uitspoken met hun computer (of mobile telefoon) en dus kunnen we risc processoren bouwen die die workload erg efficient afhandelen.

Als je zo als Apple ook het OS en de rest van de hardware geheel onder controle hebt kun je nog veel efficienter werken en dus de batterij in een laptop of telefoon een stuk langer laten meegaan zonder dat het apparaat traag aanvoelt. Als je dat weet weet je ook waarom nieuwe versies van iOS vaak de oudere telefoons zo traag doen aanvoelen, de nieuwe chips hebben nieuwe optimalisaties die met het nieuwe OS goed tot hun recht komen maar de oudere telefoon smet oudere chips hebben die niet waardoor zij dus heel erg veel meer werk moeten verrichten om het zelfde te doen waardoor ze dus zo traag aan voelen dankzij een nieuw OS.
Voor Google zal een zelfde regel gelden ook zij hebben in hun geval veel proxy/web servers die een zeer voorspelbare workload hebben waarbij Google de gehele server zelf ontwikkeld en ook het OS zelf in handen heeft. Op die manier kunnen zij dus de hardware geheel afstemmen op de workload en met veel minder energie een zelfde of betere ervaring leveren.

Is risc de toekomst? Waarschijnlijk wel voor veel toepassingen maar cisc zal voorlopig nog een plekje houden omdat er simpel weg voldoende situaties zijn waar de workload niet goed te voorspellen is of waar deze zo divers is dat het niet de moeite loont om voor alle subdomeinen een specifieke chip te ontwikkelen.

Ik denk eerder dat heterogeneous computing de toekomst zal hebben de komende paar jaren waarbij men verschillende cores met verschillende snelheden en verschillende power envelops zal gaan gebruiken. Iets dat binnen de telefoon wereld al heel gewoon is maar dat nu pas binnen de PC wereld begint te komen. Microsoft heeft veel tijd en geld gestoken in het verbeteren van hun scheduler en het lijkt er op dat deze ook geschikt is voor lopsided heterogeneous computing waardoor we in tegen stelling tot de 4x4 (vier langzamere maar zuinige cores en vier snelle minder zuinige cores) zo als we in moderne telefoons veel zien op de PC ook dingen gaan zien zo als 4x1 en zelfs 2x6 en meer van dat soort rare fratsen gaan zien.
Het is heel erg een kip en ei verhaal want zonder chips hebben betere schedulers geen zin maar zonder betere schedulers kun je niets met dat soort chips.
Dat Apple hier hard aan gewerkt heeft en nog werkt mogen duidelijk zijn, met hun nieuwe ARM liefde moeten ze wel. Intel heeft duidelijk vele vertrouwen in de markt omdat zij ook met dit soort chips aan het leuren zijn (al tijden worden we er over verteld maar nu eindelijk gaan ze ook echt komen) het lijkt er op dat ze op Microsoft gewacht hebben tot zij hun werk met Qualcomm hadden afgerond en de scheduler met dit soort dingen om kon gaan.

Mijn gok is dan ook dat we x86 zeker voor consumenten PC, workstation en server nog lange tijd zullen blijven zien simpel weg omdat de workloads te veel uiteen lopen om echt zeker te zijn van het geen je daar tegen gaat komen.
Kijk naar het verschil tussen Apple en andere ARM telefoons, Apple draait trager verbruikt minder en voelt snel aan. Andere telefoons omdat er minder optimalisatie kan plaatsvinden want meer verschillende type workloads en hardware omgevingen draaien een stuk sneller minder efficient en voelen dan ongeveer het zelfde aan als de Apple telefoons.

Het probleem met een PC/workstatoin/server is dat je een zelfde wildgroei aan workloads en hardware omgevingen hebt en dat je dus waarschijnlijk niet een echt goede optimalisatie kunt bereiken waardoor je dus meer energie zult moeten verstoken want je moet sneller draaien om hier voor te compenseren.
Of ARM dus echt voor de consument de workstation en de server de x86 van de troon zal stoten? Ik ben daar nog niet zo zeker van. Het zal zeker een flink markt aandeel weten te grijpen maar ik denk dat het vooral voor gespecialiseerde systemen het geval zal zijn en dat de gewone gaming riggs, servers en workstations in de meeste gevallen voorlopig te weinig voordeel zullen hebben bij een overstap.
Het hele risc sisc verhaal is onzinnig op het moment. Want huidige Cisco is meer risk aan het worden ze kijken naar wat ze willen doen met de chip en daar worden instructies voor toegevoegd. Kijk naar Apple ze voegen instructies toe aan cores om specifieke taken te doen image handeling , of ze hebben een heel erg low powerd core voor andere specifieke taken. Dan noem ik arm geen cisc meer maar eigenlijk Risc. Instructies toe voegen. Dat is wel de toekomst natuurlijk .
Naar het valt of staat met software support. We hadden al heel lang deze kant op kunnen gaan maar software was veel al niet geschreven voor parallel computing... En niet alle workloads zijn daar voor geschikt ..het is wel amd die afgelopen jaren echt hard aan het pushen is tegen de limitaties van de software . Kijk naar linus met zijn vnme server software kon de snelheid gewoon niet aan ... En moet echt herschreven worden .... Windows kon threadripper ook niet aan later hebben ze de software aan gepast
Al vanaf de 486 gaat het er bij x86 intern risc aan toe. Ik meen te herinneren vanaf P-M mbv micro-ops verregaand.

Specifieke hardware voor specifieke software is natuurlijk volledig op elkaar ingeregeld, efficienter zal je de transistoren niet kunnen gebruiken. Maar een niet dichtgetimmerd platform moet generiek blijven om de verschillende wensen van gebruikers voldoende in te kunnen vullen, dan verlies je iets van de egficiency.
Ik weet dat Intel ook drunk bezig is met een enorm veel geld verslindend product
_/-\o_ Beste typo, ever
Zhaoxin is duidelijk van plan om de problemen van Huawei voor te zijn. Op de wat langere termijn is dit natuurlijk geen goed nieuws voor Silicon Valley: voor de grote Chinese markt gaan deze processor producenten zich niets aantrekken van amerikaanse IP rechten.
voor de grote Chinese markt gaan deze processor producenten zich niets aantrekken van amerikaanse IP rechten.
Aannames, de Mother of all...
Kijk eens dit filmpje: https://www.youtube.com/watch?v=Sj1auKJeSlw
AMD werkte samen met een Chinese fabrikant, allemaal netjes binnen het IP recht... Dus waarom opeens verwachten dat Zhaoxin dat opeens niet doet? Huawei doet dat toch ook netjes? Ik heb de afgelopen decennia meer berichten gezien over westerse bedrijven die elkaar aanklaagden omdat ze elkaars patenten overtraden...

Natuurlijk zal er in China zwaar reverse engineering plaatsvinden, maar dat doen een hoop mensen in het westen ook, zelfs als hobby! Inzicht in hoe iets werkt zorgt er vaak voor dat er mensen naar kunnen kijken die een betere oplossing hebben...
Aannames, de Mother of all...
Kijk eens dit filmpje: https://www.youtube.com/watch?v=Sj1auKJeSlw
AMD werkte samen met een Chinese fabrikant, allemaal netjes binnen het IP recht... Dus waarom opeens verwachten dat Zhaoxin dat opeens niet doet? Huawei doet dat toch ook netjes? Ik heb de afgelopen decennia meer berichten gezien over westerse bedrijven die elkaar aanklaagden omdat ze elkaars patenten overtraden...
Het was een joint venture en de Chinese contributie was nagenoeg alleen financieel. Dat bedrijf kocht niks van AMD en was alleen Chinees omdat je in China als buitenlands bedrijf geen wholly owned subsidiaries kunt hebben. Joint ventures moeten majority owned zijn door een Chinese staatsburger. Het doel was om AMD CPUs aan de Chinese overheid te verkopen. Van samenwerking is geen sprake. Het was gewoon een (in andere sectoren sowieso al vrij gebruikelijke) constructie om te zorgen dat AMD CPUs in gevoelige infrastructuur van den Chinezen terecht kon komen.
Plus dat ze wrs ook geen interesse hebben in de wereldmarkt. Als ze allerlei IP-rechten schenden en niet toegelaten worden in de belangrijkste gebieden, dan hebben ze nog altijd een markt met 1,5 miljard Chinezen te bedienen.
Volgens mij hebben ze netjes de licenties voor x86 via Via AMD. Een beetje voorbarig om te zeggen dat ze waarschijnlijk schijt gaan hebben aan IP.

@EMR77, thanks voor de correctie :)

@_Thanatos_, excuses, zo kwam het wel op mij over. Ik wilde vooral aangeven dat er nog geen indicatie is dat ze allerlei IP-rechten schenden.

[Reactie gewijzigd door svenk91 op 24 juli 2024 17:30]

Dat zeg ik ook niet.
Waarom de US erbij halen? Dit gaat over een Chinees product gemaakt in China voor de Chinese markt.
Als kapitalisme een spel is dan heeft China dat al een tijd geleden uitgespeeld. Maar hoe kom je erbij dat Amerika dat wil, Amerika wilde meer voor zichzelf doen (MAGA als ik mij niet vergis).

China werkt al vele jaren aan eigen CPU's en dergelijke alleen kwam het nooit echt verder dan bagger wat in staat was een OS te draaien. Dat is nu wel anders en als er ook nog eens een GPU bij komt die in de aankomende jaren doorontwikkeld kan worden heeft China wel een flinke troef in handen.

Ik denk niet zozeer dat dit om de middelvinger te doen is. De laatste tijd zijn er verschuivingen te zien waarbij China meer onafhankelijk wordt. Nu drijft de economie daar vooral op de export en we hebben in januari gezien wat dit kan betekenen.

Er zit alleen een klein foutje in jouw opvatting over kapitalisme. Ja, het doel is zoveel als mogelijk binnen te harken maar daarnaast moet er ook worden geïnvesteerd omdat er anders te snel een groeiplafond ontstaat. Dankzij de investeringen kunnen ook andere spelers opstaan en groeien.

Kapitalisme is meer dan alleen rijk worden ten koste van anderen. ;)
Vergeet landen zoals Iran niet waar ook handelsbeperkingen zijn opgelegd door Amerika. Rusland zal deze processors van China ook wel interessant vinden.
Eigenlijk iedereen waar handelsbeperkingen zijn opgelegd, dat is een markt voor deze processoren.
Handelsbeperkingen... Denk je nu echt dat er in Iran en Rusland bij de overheden/bedrijven waar dat echt nodig is geen top of the line Intel/AMD/Nvidia draait? Handelsbeperkingen zorgen voor enorme winsten in de zwarte handel, iets waar zeker Rusland geheel niet vies van is.
Het snelste wat nVidia heeft gebakken op 28nm en 70W is:
- GTX 650 (64W)
- GTX 750 Ti (60W)
- GTX 950 (90W)

Ik ben benieuwd of ze kwa prestaties daar in de buurt kunnen komen.
S3 was het altijd net-niet qua prestaties, hoewel ze wel interessante technieken hadden zoals S3metal.

Toch goede zaak dat er weer een andere partij bijkomt, en hopelijk hebben ze meer succes als XGI , PowerVR en Matrox.
Doen wat gewoon? Er is nog helemaal niks vrijgegeven. "In ontwikkeling" kan net zo goed zijn "we hebben een printplaat van 500 euro die performt als een AMD-kaart van 10 jaar geleden"
De Chinezen kennende doen ze het gewoon.
Ik heb nog steeds geen idee waar je het over hebt.

Op dit item kan niet meer gereageerd worden.