Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 92 reacties
Bron: The Inquirer UK

Volgens The Inquirer zou nVidia werken aan een cpu. Hiermee zou het bedrijf de concurrentie aangaan met AMD en Intel, volgens The Inquirer de enige mogelijkheid voor nVidia om op de lange termijn te overleven. De nieuwe cpu waar het bedrijf aan werkt zou de 'normale' rekentaken combineren met de functionaliteit van een gpu. De nieuwe chip van nVidia zou momenteel ontwikkeld worden in het nieuwe ontwerpcenter van het bedrijf in Portland waar onder andere voormalige werknemers van het bedrijf Stexar werken aan het project. Stexar was gespecialiseerd in x86-technologie en nVidia wist bij de ondergang van het bedrijf het grootste deel van het personeel in te lijven, De nVidia chip zou gebaseerd zijn op 45nm technologie en moet volgens de geruchten gereed zijn in 2008. Volgens nVidia zouden computerfabrikanten tegen die tijd zitten te wachten op geïntegreerde chips op 65nm of 45nm. Concurrenten Intel en AMD gaan dit soort chips tegen die tijd introduceren, waardoor er voor nVidia weinig keus overblijft, aldus The Inquirer.

Moderatie-faq Wijzig weergave

Reacties (92)

Een CPU ontwerp je tegenwoordig niet zomaar even. Nu heeft NVidia wel veel kennis, maar graphics zijn toch heel anders. Als een bedrijf met (veel) meer CPU ervaring als Via al moeilijk kan bijbenen qua performance, zie ik NVidia nog niet winnen.

Maar het kan natuurlijk ook zoiets worden als Intel met zijn integrated graphics die slecht presteren, maar wel veel gebruikt worden - maar dan andersom, dus een goede grafische core, met een middelmatige CPU 'onboard'. Wellicht vind zoiets zijn toepassing nog wel eens in consoles of multimediazuilen die meestal meer grafische kracht dan CPU kracht nodig hebben.

In ieder geval zouden Intel en NVidia elkaar goed aan kunnen vullen zoals AMD met ATi. Wellicht komt er nog wel een samenwerking waarbij NVidia en Intel technologie van elkaar in licentie nemen om zo zonder overname toch te kunnen concurreren met AMD-ATi.
Een CPU ontwerp je tegenwoordig niet zomaar even. Nu heeft NVidia wel veel kennis, maar graphics zijn toch heel anders. Als een bedrijf met (veel) meer CPU ervaring als Via al moeilijk kan bijbenen qua performance, zie ik NVidia nog niet winnen.
Vertel ons dan eens wat er zo verschillende is aan het ontwerpen van een GPU of een CPU ? Het is heel gelijkaardig en toch verschillend, maar aangezien nVidia de kennis en mogelijkheden heeft om effectief cores te bakken is het enkel kwestie van een "ander" design te maken.

nVidia die een x86 gaat produceren lijkt me heel aannemelijk.
Een standaard CPU en GPU zijn totaal, maar dan ook totaal verschillende dingen wat architectuur en design betreft.

- Een GPU heeft duizenden active threads tegelijkertijd die hetzelfde programma draaien, waardoor je performantie kan halen door efficient te schedulen. Hierdoor is de intrinsieke basissnelheid van de core niet allesbepalend. Waardoor de clock snelheid minder bepalend is voor de finale performantie. (Je kan de perf altijd verhogen door meedere cores toe te voegen, niet mogelijk voor een CPU voor een single thread.)
- Een GPU kan memory stalls vermijden met gigantische latency hiding FIFO's. Slechts in heel beperkte mate mogelijk voor een CPU en dan nog enkel met zeer gecompliceerde logica (register renaming, out-of-order execution etc.)
- Een CPU moet kost was kost compatible zijn met de concurrentie. Bugs zijn onaanvaardbaar. Een GPU kan instructie gewoon niet gebruiken als er een bug is (evt. ten koste van een beetje performantie.)
- Omwille van de belangrijkheid van snelheid, moet een CPU complexere design methodes gebruiken (dynamic logic ipv std cell design.) Dat is veel lastiger en tijdsrovender om te doen.
- Dat laatste maakt ook dat backend methodology helemaal anders is.
- Verificatie methodology van een CPU is radicaal verschillend dan voor een GPU, omdat de verificatie accenten helemaal anders liggen (instructie set vs. API compatibiliteit, verschillende perf eisen enz.)

Moet ik nog verder gaan?

Het feit is dat de chip architectuur van een GPU totaal verschillend is dan van een CPU en ze zijn allebei ongelooflijk complex.
Er lopen op deze wereld niet al te veel topspecialisten rond die het een of het ander kunnen. Er zijn er geen die allebei kunnen. En met een handvol ingenieurs (zoals Stexar) kom je niet toe.

Geen idee of het gerucht waar is of niet, maar het is geen kwestie van eenvoudigweg een ander design te maken... en het is weldegelijk heel verschillend.
"Wat er gemaakt wordt en hoe het gemaakt wordt zijn dezelfde procedes als voor GPU's. Op dat punt heeft nVidia alle know-how (en meer dan dat) in huis."

Dat is dus precies wat ik tegenspreek.

"Dat de werking van een CPU een heel ander design en technieken vereist dan een GPU heb ik ook nooit ontkend."

Wat is het verschil tussen 'procedes' en 'design en technieken' ? Ik mag hopen dat je niet hebt over het productie proces, want Nvidia heeft helemaal geen fabs.

- De design methode is significant verschillend. (std cell <> agressief full custom).
- De verificatie methode is verschillend.
- Het backend process is verschillend (std cell placement <> custom layout).
- DFT/DFY is verschillend (full custom kan veel minder geautomatiseerd worden.)
- De ene heeft eigen fabs, de andere niet, al is dat niet onoverkomelijk. (Zie AMD)
Wat blijft er dan nog over? Packaging, qualificatie, enz. Daar zijn beide redelijk goed is, al moet een CPU alweer veel rigoureuzer gevalideerd worden.

Nu zeg ik niet dat Nvidia dat niet *kan*, maar het vraagt gemakkelijk duizend ingenieurs om dat te realizeren. De aankoop van een kleine startup verandert dat niet.

Het maken van chips van deze complexiteit vraagt een enorme software support infrastructuur om het correct te doen. Beide bedrijven hebben dat, maar ze zijn gericht op verschillende doelen.

"En dat is IMHO dan ook het enige 'probleem' dat nVidia heeft, en net daarom lijkt het me helemaal niet ondenkbaar dat ze effectief (gecombineerde ?) GPU/CPU design willen ontwikkelen."

Ik beweer niet dat Nvidia daar niet aan bezig is. Ik zeg enkel dat de ervaring die ze hebben met het designen van GPU's niet volstaat voor het designen van CPU's.

"Het is voor nVidia slechts een kwestie van de juiste ingenieurs te vinden die weten waar ze mee bezig zijn."

Precies. En, pakweg, 500 miljoen dollar om het te financieren.
Check mijn profiel even: Ik woon en werk in Santa Clara, CA als chip designer bij een heel groot chip bedrijf.

En dat er in Intel en Nvidia geen bugs zouden zitten: daar zouden hun werknemers heel smakelijk om lachen. (Hint: zoek op de Intel website eens naar 'errata'.
@newinca: je hebt blijkbaar niet het hele artikel gelezen, want als je dat wel had gedaan had je gelezen dat nvidia de werknemers van Stellar heeft ingelijft, en dat stellar zich specialiseerde in x86-technologie..
Wat er gemaakt wordt en hoe het gemaakt wordt zijn dezelfde procedes als voor GPU's. Op dat punt heeft nVidia alle know-how (en meer dan dat) in huis.

Dat de werking van een CPU een heel ander design en technieken vereist dan een GPU heb ik ook nooit ontkend.

En dat is IMHO dan ook het enige 'probleem' dat nVidia heeft, en net daarom lijkt het me helemaal niet ondenkbaar dat ze effectief (gecombineerde ?) GPU/CPU design willen ontwikkelen. Het is voor nVidia slechts een kwestie van de juiste ingenieurs te vinden die weten waar ze mee bezig zijn. Het daadwerkelijk produceren is geen punt voor hen.
@newinca:
Performantie is geen Nederlands woord, hoewel het wel een beetje Nederlands klinkt. Als je gewoon Performance bedoelt, schrijf dat dan, of vertaal het iig correct naar prestatie ofzo...
:)
Precies. En, pakweg, 500 miljoen dollar om het te financieren.
En wie zegt er dat dat een probleem is voor nVidia ?

Wie weet er trouwens met zekerheid of nVidia al niet enkele jaren bezig is met zoiets ?

Bedrijven als nVidia komen vandaag niet met nieuws naar buiten over projecten waarover ze gisteren tussen 2 donuts door even beslist hebben...

Het lijkt me heel naief om te denken dat nVidia vandaag ff beslist heeft een CPU'tje te maken....
"En wie zegt er dat dat een probleem is voor nVidia ?"

Niemand.

"Wie weet er trouwens met zekerheid of nVidia al niet enkele jaren bezig is met zoiets ?"

Het management?

"Bedrijven als nVidia komen vandaag niet met nieuws naar buiten over projecten waarover ze gisteren tussen 2 donuts door even beslist hebben..."

Je meent het.

"Het lijkt me heel naief om te denken dat nVidia vandaag ff beslist heeft een CPU'tje te maken...."

Absoluut mee eens!

Hoe past dat precies in deze discussie?
Als een bedrijf met (veel) meer CPU ervaring als Via al moeilijk kan bijbenen qua performance, zie ik NVidia nog niet winnen.
VIA mikt ook volledig op een zo laag mogelijk stroomverbruik en hoopt daarme successen te behalen. Iets wat ook wel redelijk lukt gezien veel moderne thinclients een VIA CPU als basis hebben.
VIA is een mooi voorbeeld dat ze achteraan hobbelen met de nieuwste x86 technilogiën, daarom richten ze zich op de markt van lage consumptie waar veelal ook de beperkte technologiën prima voldoen. Een P-III instructieset op 1 GHz of meer is immers voldoende voor een goede (portable) office setup.

Als VIA pas in 2008 een processor op de markt kan zetten zal Intel en AMD weer generaties vooruit zijn maar kan Nvidia met hun combo-proc een compleet andere markt bezetten zoals bv. de home theater PC's
1 Ghz. voor een Office setup? (8>

Damn

Daar moet dan ook wel een superduper 3d CAD programma bij zitten, anders heb je aan 200Mhz. al genoeg. (Tenzij je er Windows als OS op draait dan)
Komt er dan ook gelijk een hele nieuwe socket? Of kan de CPU op bestaande (nieuwere) platformen gebruikt worden?

Vraag me ook af of deze echt competitief wordt, of wordt nVidia dalijk het derde wiel aan de wagen zoals Via met hun C3 etc.
Als Nvidia op een bestaande socket zou willen zullen ze daar licentie gelden over moeten gaan betalen, en veel ook nog!

Plus, zouden ze dan een Intel of AMD `socket` kiezen?
ALS ze het dus al zouden doen, dan zeer waarschijnlijk een eigne socket.
AMD-sockets zijn licentievrij.
Een geheugencontroller moeten ze ook in de northbridges voor intel procs zetten, dus dat lijkt me niet zo'n probleem.
Wat wel weer zou betekenen dat ze er óók nog een geheugencontroller in zullen moeten bouwen natuurlijk..
Slim!

Een CPU bevat steeds meer, dat er ook video in zou komen kon je op wachten, al dan niet door de overname van ATI door AMD. Vooral voor barebone systemen of laptops kan dit denk erg mooi uitpakken, CPU en GPU in 1 chip is vast zuiniger en compacter dan 2 losse.
Zeker slim. Dat ze daar nog niet eerder aan gedacht hadden.*kuch*Cyrix MediaGX *kuch*
Een CPU bevat steeds meer, dat er ook video in zou komen kon je op wachten, al dan niet door de overname van ATI door AMD.
Je kon wachten, maar je kon ook naar de winkel gaan om er een te komen. Het revolutionaire idee van 'integrated graphics' heeft zijn intrede al jaren geleden gemaakt. Het is inderdaad goedkoper en compacter, waardoor het populair is in het budget-segment van laptops.
Maar dan heb je het over een op het moederbord geïntegreerde videochip en in dit artikel heeft men het over een CPU met geïntegreerde videofuncties.
De bottleneck tussen de cpu en gpu, die verdwijnt hierdoor ook! GPGPU all the way!!
Welke bottleneck?
AGP en PCI-E zijn snel genoeg.
de Latency van die externe bussen wordt door cpus en gpus gezien als eeuwen.

Als er een keer data door komt komt het ook met goede snelheden, maar eer het zo ver is ?
Ik zou liever zien dat de traagste component van de PC nou eens aangepakt wordt: de HD! En dan bij voorkeur zo snel maken dat je een level load niet eens meer ziet, gewoon continu doorgamen. Alles, maar dan ook alles is een factor 10 sneller geworden - behalve de harde schijf. Wordt het niet eens tijd dat dáár wat nadruk op gelegd wordt?
Dan moeten ze games uitbrengen op DDR reepjes met continue geheugen ?! Slot voor in je pc en hoppa reepje met gamefiles erin en enigste wat iets laden kost van de hd is je savegame of patches die extern moeten blijven draaien
@LanVlam: Dan krijg je dus een soort cartridge, zoals oude nintendo's en sega's. Is lekker snel en ook meteen de reden dat cartridges zo lang gebruikt zijn geweest. Voor zover ik weet zijn ze op cd's overgestapt, omdat cartridges, zeker vanwege het formaat van de huidige games en de daarvoor benodigde opslagruimte, veel te duur zouden worden.
Dit verhaal lijkt mij erg onwaarschijnlijk. Als je nagaat hoe veel transistors de volgende generatie grafische chips heeft, en daar die van een dergelijk processor gedeelte bij optelt heb je een dus danig groot aantal dat het volgens mij zelfs in 45nm nog te moeilijk zou zijn. En zelfs al zou het mogelijk zijn wat voor vermogen zal dat ding dan vragen? Of koeling? Warmte?

Tenzijn nVidia met een radicaal ander ontwerp van grafische/cpu chip komt neem ik dit verhaal voor lekkere zoete koek.

Edit: Achteraf gezien zou een simpele chip wel mogelijk zijn, misschien. Een niet al te krachtige cpu en gpu combinatie.
Wanneer je spreekt over een geintegreerd geheel dan heb je het nooit over high-end oplossingen.Dat zou pas echt ridicuul zijn. Een GPU op de chipset word door zowat elke ware krachtgebruiker al uitgelachen.
Wie zegt dat de die dezelfde afmetingen moet hebben dan de huidige cpu's of gpu's ?

Man man... hoe eng denken sommige mensen hier toch...
als je een gpu intergreerd in de cpu heb je met een kwart van de gpu transistors hetzelfde vermogen:

http://www.theinquirer.net/default.aspx?article=33219

verder zou ik nvidia niet onderschatten, in het begin kwamen ze ook vanuit het niets met een 3d gpu waar ati die al jaren bezig was met grafische kaarten geen antwoordt op had
Het gros van de transistoren is cache geheugen. Dat kan je voor zowel cpu als gpu taken gebruiken. Je hoeft dus niet domweg het aantal transistoren bij elkaar op te tellen.
Onzin.

De cache access patterns voor een CPU zijn helemaal anders die van een GPU. Daarom hebben ze verschillende replacement, flush en fill policies.
Een shared cache zou zowel de performantie van de CPU als van de GPU meer dan proportioneel naar beneden halen.

Om dezelde reden heeft een GPU een heleboel verschilllende caches (texture, vertex, constant buffer etc etc): ze hebben elk verschillende karakteristieken. De bandbreedte van 10 kleine caches is ook veel groter dan die van 1 cache die 10 keer groter is.
wat is dan de bandbreedte van de cache in de cpu? die draait wel op dezelfde snelheid als de cpu
Bandbreedte is de hoeveelheid data die je doorheen een cache kan jagen per tijdseenheid.

Het is zeer inefficient om geheugens te maken met meerdere read/write poorten. In de praktijk worden die enkel gebruikt voor kleine registerfiles (e.g. de registerfiles in het binnenste van een CPU.) Voor caches worden bijna altijd single-port memories gebruikt.

Als je nu 1 cache geheugen hebt met een databus van 32-bit dan kan je dus een bandbreedte van 32-bits per klok. Heb je er 10 met een databus van 32-bit dan heb je een gezamenlijke bandbreedte van 320 bits per klok. Zo eenvoudig is dat. :)

Je zou natuurlijk ook 1 geheugen een bus kunnen geven van 320 bits om dezelfde bandbreedte te leveren, maar de access granularity wordt dan te groot: als je slechts 32 bits nodig hebt, ga je toch 320 bits bandbreedte verspelen en ben je dus slechts 10% efficient.

Natuurlijk is het mogelijk dat de hit-rate van een heleboel kleine caches lager is dan die van 1 grote cache. En het is qua oppervlakte minder efficient om veel kleine geheugens te hebben ipv 1 groot, maar dat is een ander verhaal.

Een single core CPU heeft meestal slecht 2 read/write poorten (data en instructie), dus het is een goeie oplossing om 2 grote cache te bruiken.

Een GPU heeft daarentegen massa's kleinere units die allemaal in parallel ongerelateerde data nodig hebben. Veel beter dan om dan een heel aantal kleinere caches te hebben.
en hoe groot is de databus bij een cpu?
De geruhtenmolen is daar weer mooie berichten aan het maken blijkbaar. Dit valt bij mij toh echt onder het motto : eerst zien en dan pas geloven.

Hoewel de mensen van Stexar in feite ex Intel medewerkers zijn betekend dit toch niet automatisch dat ze een CPU gaan ontwikelen. Hun ervaring kan evengoed van pas komen bij het voorkomen van problemen bij de nieuwe procédés zoals 45nm.
Lijkt mij inderdaad ook straf. Er zijn nogal veel obstakels die moeten overkomen worden, zoals - welke socket gaan ze gebruiken? Een eigen, of gaan ze eentje licentieren? Wilt AMD of Intel hun socket nog wel licentieren? Beide leveren hopen problemen op lijkt me zo...
ik geloof best dat NVidia aan een CPU werkt - maar niet een x86 CPU. Dat staat ook nergens in de bron, behalve hierboven in reacties van mensen die niet lezen... ;(

Nvidia heeft sinds de overname de expertise m.b.t. x86 architectuur. Jullie maken ervan dat Nvidia een x86 chip gaat bouwen.

voor mobiele toepassingen is een alles-in-een chip die stevige prestaties neerzet natuurlijk erg interessant. Dat zie ik NVidia nog wel eens doen. Daarvoor is enige ervaring op het gebied van CPU's bouwen (cue Stexar) natuurlijk zeer welkom.
Ik denk dat nVidia eerder werkt aan een co-GPU die op effciente wijze als rekenprocessor naast een x86 proc werkt.
Dat het lijkt alsof er met de inlijving van Stexar personeel gewerkt wordt aan een x86 CPU lijkt me misleidend. nVidia heeft de x86 knowhow nodig om haar product op de meest effectieve wijze met de cpu's te laten communiceren. Wellicht wordt deze co-GPU op het zelfde board als de GPU geplaatst maar ik kan me voorstellen dat een co-GPU board een SLI opstelling overbodig maakt.

Maar laten we vooral niet te snel naar conclusies springen, de bron van dit gerucht staat bekend op al te wilde verhalen.
Sowieso ... cpu's bakken is geen nVidia core buisiness, maar wel van alles erom heen zoals chipsets, gpu's en multimedia chips.
Een GPU werkt al samen met de CPU, dat is in feite dus een co-processor. En een tweede GPU op een bord is natuurlijk ook niets nieuws; dualcore grafische chips zijn er al lang..

Ik denk dat the_stickie best wel eens gelijk zou kunnen hebben. Mobieltjes, mp3-spelers, PDA's etc. zullen in de toekomst steeds vaker gebruikt worden om games op te spelen. Het is natuurlijk onzin om een videokaart in een telefoon te stoppen, daarom zal er waarschijnlijk een hogere vraag komen naar een CPU/GPU combinatie. Wellicht wil nVidia hier een graantje van meepikken.
Waarom werken ze niet gewoon rechtstreeks samen met Intel?
Misschien omdat nVidia bestaansrecht wil blijven houden. Bij een fusie met Intel zouden ze al snel worden opgelsokt door die gigant .........

Zelf aan CPU's beginnen is dan de meer logische stap, gezien de samenwerking van ATi met AMD zal ook nVidia hier met iets nieuws moeten komen. Een CPU is volgens de posts die hier in de afgelopen jaren voorbij zijn gekomen minder complex dan een GPU, en theoretisch zou dit dus best haalbaar moeten zijn.

Aan de andere kant kan het natuurlijk ook heel goed het geval zijn, dat nVidia helemaal niet met CPU's bezig gaat, maar door de GPU bv programmeerbare functies mee te geven een deel van de CPU taken kan laten overnemen, waarschijnlijk wel handig als je dan ook de nodige x86 knowhow in huis hebt.
"Een CPU is volgens de posts die hier in de afgelopen jaren voorbij zijn gekomen minder complex dan een GPU, en theoretisch zou dit dus best haalbaar moeten zijn."

Dat hangt er vanaf hoe je 'complexiteit' definieert. GPU's hebben veel meer non-memory transistoren dan CPU's. Volgens die maatstaf zijn ze dus complexer en dat wordt zeer handig gebruikt door de GPU marketingmensen en fanboy websites met editors die zich voornamelijk baseren op press kits die dat uitbazuinen.

De realiteit is anders: beiden zijn complex. Ze vragen beiden heel specialistische kennis om te designen. Maar de core unit van de CPU is zonder twijfel moeilijker om ontwikkelen dan die van een GPU. Ik denk dat weinig GPU designers daarover zouden argumenteren.
Maybe wil Intel hun geheimen rondom de Core 2 Duo microarchitectuur vrijgeven :) Dalijk gooien ze hun eigen ramen in en schopt nVidia hun uit hun eigen markt...
amd en intel kunnen quadcore cpu's maken, sony met de cell weet ik veel tig core cpu's, ibm netzo

waarom zou nvidia dan niet met een duo core cpu kunnen komen, met elk een duidelijke taak. namelijk video, en de ander cpu. en natuurlijk gericht tot de mobiele wereld, waar snelheid niet zo belangrijk is als vebruik
Klein detail, sony heeft de cell architectuur niet zelf bedacht. De cell processors zijn ontworpen door IBM, en deze heeft al redelijk wat ervaring met CPU's ( PowerPC is bv ook van IBM).
Vegeet niet dat het hier om "The Inquirer" gaat, volgens mij hebben die het al vaker mis gehad. Verder lijkt me dit erg onwaarschijnlijk omdat Nvidia en Intel toch ook aan een alliantie werken link
Dat maakt toch niet uit, wanneer nVidia zijn eigen cpu heeft hebben ze Intel lekker niet meer nodig. Hopen dat Intel dan dus een goeie gpu heeft.
intel is dus deels eigenaar van nVidia (tegen de 10% atm), intel heeft dus wel degelijk belangen in de koers die nVidia neemt.

ik kan me indenken dat we op een gegeven moment afstappen van een PCIe of AGP-achtige interface en gewoon een "intel" en een "nvidia" socket vinden op een mobo, daar mik je een CPU en een GPU in, beiden een eigen (of gedeelde) RAM channel en gaan met die banaan..

Als je een snellere CPU/GPU wil (= hogere TDP) kan je er altijd nog een zalman koeler op gooien....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True