Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: AnandTech

AnandTech bericht dat zowel nVidia als ATi plannen hebben om videochips te ontwerpen die door de gebruiker vervangen kunnen worden door een sneller exemplaar zonder daarvoor een compleet nieuwe videokaart te hoeven kopen. nVidia zou bezig zijn met het ontwikkelen van een moederbord waar niet alleen een socket voor de processor op te vinden is, maar ook voor de videochip. ATi zou in een iets andere richting aan het zoeken zijn en bezig zijn met een PCI Express-videokaart waar de videochip in een socket zit. Wanneer en of deze plannen realiteit worden is voorlopig nog onbekend, maar bijvoorbeeld het gegeven dat de nVidia G72 en G73 pin compatible zijn met de NV40 en NV43 laat wel zien dat er mogelijkheden zijn.

Moderatie-faq Wijzig weergave

Reacties (71)

blijft het geheugen dan niet achter ?
Niet als je een Uber HighEnd kaart hebt, zoals de X1800XT met zijn 750Mhz DDR en ze hebben het over slechts twee gpu versies, dit is wel goed nieuws.
En lollig een ref design NV kaart met een Ati GPU of andersom
Denk je niet dat ATi en nVidia beide hun eigen socket maken met hun eigen gewenst aantal pins? Ik zie nergens dat deze 2 samen werken namelijk. Stop jij maar lekker een ATi-chip in een nVidia-socket. Wil je er nog een hamer bij of pers je hem er zo in? :+

En wat geheugen betreft... als ik de CPU op mijn moederbord vervang laat ik het geheugen lekker zitten. Tot vorige week nog SDR ipv DDR gebruikt en dat werkte altijd nog prima ;) Een snellere GPU zal altijd voordeel hebben.
Ik denk dat ze wel degelijk gaan samenwerken. want wat iedereen hier denk ik over het hoofd ziet is 1 groot voordeel.

stel, ze werken samen en maken 1 compatible socket. dan kunnen bijvoorbeeld laptops makkelijker uitgerust worden met zo'n socket. zodat de klant nog kan kiezen wat voor een kaart erin moet. nu kan dat ook wel met mini-pci express maar in de toekomst is dit daardoor allemaal nog makkelijker te realiseren. Dan hoeven ATI en NVidia alleen nog maar een gpu aan te leveren. zelfde geld voor de desktop boards. in de zakelijke markt met alles onboard bordjes zou er nu ook makkelijk een keuze gemaakt kunnen worden.

echt zware upgrade mogelijkheden zal denk ik niet echt de opzet zijn achter het idee, maar meer het vergemakkelijken van het productie proces van laptop en standaard systemen. voor high-end zal er teveel probelemen zijn met koeling en geheugen e.d.
Ik ben bang dat je gelijk hebt. En ik voorzie dan ook gelijk dat de prijs van de nieuwste high end gpu even hoog is als de prijs voor de nieuwste high end gpu van tegenwoordig. Dus je betaald hetzelfde, alleen krijg je er dan minder voor terug (geen ram, geen kaart, etc.). Immers, ze weten al wat de gek ervoor geeft dus die prijs zullen ze echt niet laten zakken.

Door het op die manier te bekijken maakt het geen hol uit of ze nu alleen een gpu of de hele kaart leveren, dan heb ik liever dat ze het niet doen anders mag je dalijk naast 500 euro voor een nieuwe gpu ook meteen 200 euro extra dokken voor een nieuw moederbord, pci insteek kaart of vram of iets dergelijks.
Reactie op "henk jansen": Laten we dan gelijk ook ff Intel en AMD een convernant sluiten. Dan hoef je nooit weer een nieuw Mb. te kopen........... :Z :Z
En dan denkt een van de twee, hej, laat ik weer eens een gewone kaart maken, hoppa, hele markt voor mij want niemand is tevreden.

Onmogelijk desituatie die jij schetst. Dat is wat men noemt marktwerking. En laat dit nou het enige zijn waar het volk nog wel iets over te beslissen heeft.
@ henk jansen:
ATI en nVidia zijn er niet om ons leven makkelijker te maken maar om geld te verdienen.

En aangezien ze allebei geen risico willen lopen om meteen verschrikkelijk veel marktaandeel kwijt te raken als ze eens een wat mindere GPU hebben dan de concurrent lijkt het mij logisch dat ze hun best doen om alles lekker incompatibel te maken.
X1800XT maakt gebruik van GDDR3 geheugen als ik het goed heb. Ook zal de kans dat je een Nvidia GPU op een ATI kaart kan zetten en andersom natuurlijk minimaal zijn, ze zijn vast en zeker niet pincompitable (Mede doordat ze een compleet ander design hebben net zoals AMD en Intel CPU's ook niet pincompitable zijn). Wellicht is het ook mogelijk dat ze geheugen sockets maken op kaarten/moederborden voor je grafische chip zodat je die ook kan upgraden (als de geheugencontroller ermee overweg kan)

Edit: iets te laat
Het lijkt er op dit moment op dat men geen slots voor high-end geheugen kan maken. In het artikel staat het volgende:
However even with a dedicated socket, graphic card memory would still need to be soldered onto the board. The narrow tolerances of GPU memory would not allow for a DIMM-like solution.
Dat is dan weer een beetje jammer, gezien je het dus moet doen met het geheugen wat reeds op je graphics "printplaat" gesoldeerd zit, en dit niet kunt upgraden. Misschien dat men hier nog met een oplossing voor komt.
net zo min als dat je een AMD proc in een Intel socket kan proppen ;)
Nou dat is niet zo gek als je het doet voorkomen hoor.
Er zijn in het verleden pin-compatible sockets geweest voor AMD/Intel/Cyrix, etc. :7
Dat is een beetje een kromme vergelijking: die AMD, Cyrix etc. processors waren allemaal klonenen van het design van Intel (x86 CPUs dus).

Wat wel een feit is: GPUs hebben (in principe) maar twee soorten I/O kanalen: naar het RAM geheugen en naar PCI express. Het zou dus wel mogelijk moeten zijn om hierover overeenstemming te bereiken als beide partijen dat willen.
Wat wel een feit is: GPUs hebben (in principe) maar twee soorten I/O kanalen: naar het RAM geheugen en naar PCI express. Het zou dus wel mogelijk moeten zijn om hierover overeenstemming te bereiken als beide partijen dat willen.
Gaat dus niet gebeuren.
Dat probleem heb je bij cpu's toch ook?
tegen de tijd dat het écht zinvol is je cpu te upgraden, kan je mem niet meer mee dus heb je een nieuw mobo nodig...
Enige verschil hier is dta in het geval van grafische kaarten het geheugen nóg sneller moet zijn, en dus misschien technisch moeiljk op vervangbare latjes te plaatsen is.
Voor de on-board grafische chipsets die gebruik maken van het systeemgeheugen kan ik me hier wel een voorstelling van maken. Je kunt dan bijvoorbeeld een low-end grafische chip on-board upgraden naar (low-)midrange.
Ik denk dat het qua prijs niet zo heel veel verschil maakt of je een grafische chip op het mobo vastsoldeert - zoals bij alle huidige integrated graphics mobo's - of er een socket van maakt waar iemand zijn "eigen" GPU in kan plaatsen. Je zit in die klasse verder niet met vram problemen gezien de low-end en lower midrange dan bijv. met "turbocache" uitgerust worden en verder van het systeemgeheugen snoepen (wat een aparte geheugeninterface overbodig maakt).

Voor de wat snellere oplossingen ik vraag me inderdaad ook een beetje af wat effectief het verschil zou zijn tussen een slot (AGP/PCI-e) en een socket. Verder zou je ook naast de gewone dimm slots een speciale geheugeninterface moeten maken, waarbij de gebruiker dus zelf gaat bepalen hoeveel (en welk type) V-ram hij gebruikt...
Het maakt de situatie wel complexer... AMD/Intel, DDR/DDR2, ATi/nVidia, vDDR/GDDR3 mobo's... dat zijn al 4 combinaties met 8 variabelen :/

Het zou eventueel wel kunnen als het grafsiche geheugen "on chip" geleverd gaat worden, net als bij de mobile varianten van de GPU's, maar dan zit je met zo'n beetje dezelfde "inflexibiliteit" als een gewone grafische kaart. Aan de andere kant heb je wel besparingen op kosten voor graphics PCB, bijbehorende (power) componenten etc, gezien deze dan al op het mobo zitten.
Ik ben ook benieuwd hoe ze de boel pin-compatible gaan houden, want het hele idee hiervan is natuurlijk dat het aan een standaard voldoet waardoor je na een jaar of 2 jaar alsnog een sneller grafisch chippie op je mobo kan prikken. Anders kun je als consument beter 't AGP/PCI-e upgradepad aanhouden...

Ik snap het idee, maar ben benieuwd hoe ze dat flexibel uitgewerkt gaan krijgen :)
Het geheugen kan ook mee gaan als men een slot voor GDDR3 geheugen ontwikkeld, net als het RAM geheugen. Dit is ook sneller geworden dus er zijn opties :)
Mooi is dat. Nog meer verschillen tussen de moederborden. Straks zie je door de sockets je processor niet meer!

Ik hoop dat Nvidia zijn socket op een kaart implementeert, anders wordt de standaardisatie binnen een pc echt een puinhoop.

Aan de andere kant heeft een gpu op een socket op het mobo ook wel zo zijn voordelen, aangezien je zo makkelijk een nieuwe videokaart kan samenstellen door het vervangen van 1 onderdeel. Ik vraag me alleen af wat dat voor de winst van Nvidia betekent
Ik vraag me alleen af wat dat voor de winst van Nvidia betekent
NVidia maakt nu ook al alleen de GPU in plaats van de hele kaart dus voor de winst van NVidia zal het niets uitmaken. Wat ik me wel afvraag is of de kaartbouwers hier zo blij mee zullen zijn.
Maakt voor hun niet uit. De kaartbouwerd maken meestal ook moederborden (zoals MSI, Asus enz.) en daar maken ze toch ook aardig wat winst op. De vraag is eerder zal er wel genoeg concurrentie zijn op verkoop van gpu want dit kan dus inhouden dat ati en nvidia zelf hun gpu verkopen en dat er iets "speciaals" voor de gpu's door andere bedrijven wordt gemaakt. Net zoiets als Intel en AMD nu.

Edit: sorry komt door die nivea reclame ;) daardoor ga ik weleens de zooi door elkaar gooien
sorry, totaal OT, maar ik vraag me dit al enorm lang af (niet bij jou, gewoon bij 'mensen' )

waarom zeg jij in godsnaam nvidEa ipv nvidia? voor een typfout moet je al erg moeilijk doen en ik vind er ook niets in terug zoals bv in microsochoft ofzo...

iemand?

edit:
aha, zou het bij iedereen door nivea komen?
bedankt toch voor je reactie :)
Sorry, ik volg je even niet.
De kaartbouwerd maken meestal ook moederborden
Niet alle kaartbouwers maken moederborden he, (XFX?)
zal er wel genoeg concurrentie zijn op verkoop van gpu
Volgens mij hebben NVidia en ATi elk een marktaandeel van zo'n 50% (in de gamers-markt, intel even niet meegerekend dus), de beste concurrentie die je je maar wensen kunt dus.
want dit kan dus inhouden dat ati en nvidia zelf hun gpu verkopen en dat er iets "speciaals" voor de gpu's door andere bedrijven wordt gemaakt.
Wat voor speciaals mag dit dan wel zijn?
1:Ik bedoel dit alleen maar om aan te geven dat de teokomst van de gpu (of iets anders) neit verlorengaat voor de kaartenbouwers zoals je ook met mobo's hebt. Natuurlijk weet ik dat niet alle kaartenbouwers mobo's maken maar het was een voorbeeld.

2:Tuurlijk is er veel betere concurrentie mogelijk. Natuurlijk is het goed kwa gpu's maar nu is het zo dat al die verschillende kaartenbouwers ervoor zorgen dat er zelfs een betere prijs/kwaliteitsverhuding is.

3:Dat speciaals is niet zeker zoals je in het bericht kon lezen namelijk dat ati misschien een socket zou maken op de vga kaart inplaats er direct de gpu op te bakken en nvidia een socket zou maken voor op je mobo. Maar dit alles is niet zeker.
Dat is niet helemaal waar. De meeste high-end kaarten worden door Nvidia zelf geproduceerd. MSI, Asus en wie dan ook plakken er dan alleen een stikkertje op.

Bij ATI worden alle high-end kaarten volgens mij door Saphire gemaakt (weet niet helemaal zeker). Dus het is goed mogelijk dat jouw X1800 van MSI een Saphire kaart is...
Helemaal mee eens. De kans bestaat dat het inderdaad een puinhoop gaat worden met straks ook vele sockets voor gpu's zoals nu al met cpu's het geval is.

Verder als er geen pci-insteekkaart wordt gebruikt, zit je in plaats van alleen een cpu-merk ook nog eens aan een gpu-merk vast. MAW de fabrikanten lijken wel een oorlog te beginnen om klanten aan hun merk te binden (is al gaande btw).

Ik zie dit niet als een gunstige ontwikkeling voor de compatibiliteit, maar wel voor de prijzen als nvidia en ati straks ieder hun eigen oplossing promoten.
. nVidia zou bezig zijn met het ontwikkelen van een moederbord waar niet alleen een socket voor de processor op te vinden is, maar ook voor de videochip.
nou om eerlijk te zijn las ik ergens dat tot voor kort de vga kaarten niet eens de volle capaciteit van een AGP8x slot gebruikten (vandaar ook dat het bijna geen vershil maakt of je je vga kaart om 4x of 8x agp laat lopen) en ik denk niet dat ze gauw aan de PCI-e 16x gaam komen.
wat het voordeel is aan de GPU op het MOBO is dat je geen bottleneck hebt van de PCI-e of AGP slot.
Voor een kleine upgrade interresant, maar ik koop meestal om de 2 jaar een nieuwe videokaart. En dan is volgens mij de kans erg klein dat de pin lay-out hetzelfde is. En moet ik dus alsnog een nieuwe kaart kopen.
of een compleet nieuw MoBo als het aan nVidia licht
Mischien dat het video geheugen wel in de GPU zelf gegoten is... ?
Het heeft ook een ander voordeel. Wat gaat er namelijk bij de meeste kaarten als eerst kapot? De GPU.
Bij standaard kaart: kaart terug naar de fabriek en nieuwe kaart terug. Oude wordt weggeknikkerd.
Bij Socket: kaart terug naar de fabriek. Klipje los, nieuwe GPU erop en terug naar klant. Tel uit de winst.

1:0 voor fabrikant:consument

Het heeft ook andere voordelen. ATI brengt namelijk een nieuwe GPU serie uit. Model A, B en C. Allemaal gebruik makend van de zelfde socket. Kaart fabrikant hoeft maar 1 kaart te maken en prikt daar model A, B of C op. Eveneens gunstig voor de fabrikant van de kaart. En wij worden voor de gek gehouden want als ze met een nieuwe serie modellen komen hebben die weer een andere socket nodig net zoals AMD en Intel dat doen met processoren. En tel uit je winst.

2:0 voor fabrikant:consument

Daarnaast kunnen ze ook werken met modellen op verschillende snelheden. Slechte GPU's worden model A, ze branden even een fuse door en verkopen dat als model A, model B heeft betere performance, andere fuse doorbranden en hup model B, etc.

3:0 voor fabrikant:consument

De kaarten welke ze ontwikkelen bevatten allemaal de zelfde electronica en geheugen componenten. Geheugen voor een bepaalde reeks loopt op snelheid x voor alle modellen. Performance is dus afhankelijk van GPU en prijs GPU en niet van de kaart zelf.

3:1 voor fabrikant:consument

Consument kan kaart "upgraden" en blijft wel met oude "gpu" zitten. 2 keer geld voor GPU maker 1 keer geld voor kaartmaker. Consument kan relatief goedkoper upgraden.

4:2 voor fabrikant:consument

Conclusie:
Hogere winstmarges voor fabrikanten en klein beetje extra flexibiliteit voor consumenten. Dit kan zich terugvertalen in lagere prijzen maar dat is natuurlijk maar de vraag.

1) Lagere kosten bij defecte kaarten
2) Lagere ontwikkelkosten PCB's
3) Lagere kosten bij slechtere productie modellen
4) Performance afhankelijk van model
5) Lagere upgrade kosten, hogere omzet per serie GPU's.
@ H!GHGuY: Op het mobo kan er natuurlijk gebruik van het gewone geheugen gemaakt worden.
Krijg je dus ook MoBo's met 2 GPU-sockets voor SLI/ crossfire.
Kan ook meer zoals je acht AMD Opterons in sommige mobo's kan prikken. Alleen ik zou dan niet meer spreken over SLI of Crossfire maar eerder Dual GPU of Dualcore GPU :P
Even mijn 9800PRO upgraden naar een X1800XL :7
Tsja, dan blijf je dus met dikke shit geheugen zitten he... ;(
Maar wat doen wij tegenwordig voor je geheugen op je mobo......we zetten er nog een stikkie (of zelfs dualchannelkitje) erbij en tegen de tijd dat je dat neit meer kan doen ben je toch wel weer eve verder. Daardoor kan je eigenlijk ook weer besparen en als ze nou voor elkaar konden krijgen door hetzelfde geheugen als je op je mobo kan gebruiken bij je gpu te stoppen wordt dat helemaal lekker :Y)
Dit zou best potentie kunnen hebben, máár, een videokaart word heet, heel heet, en vraagt veel stroom. Dan zou je dus bijv. een tweede cooler (denk aan processor coolers, CM, Zalman etc.) moeten aanschaffen op de boel te koelen. En is er dan ook niet nog een extra power-input op je mobo.

Dat is over de versie van nVidea. ATI klinkt al reëler, maar ook dat lijkt me niet ideaal. Een gemiddeld mens kan geen processor inpluggen, laat staan zo'n GPU, en het is een extra onderdeel, wat het voor beginners alleen maar extra ingewikkeld is. Plus extra kans op beschadigingen.

Goed idee voor (semi-)experts, maar dit moet geen vervanging worden voor "gewone" videokaart. Je hebt het geheugen dat hetzelfde, misschien zelfs achterblijft, al zou je dat weer kunnen verbeteren door dimmetjes te kunnen gebruiken. Het geklooi dat je krijgt met koelers etc. is gewoon te groot.
Denk je niet dat die extra Power door nVidia meteen wordt meegenomen?? Die jongens ontwerpen ook niet pas sinds gisteren!

Ze hebben het niet alleen over de chips maar ook over de kaart/mobo waar die chip op moet komen! Lijkt me dat ze daar wel rekening mee houden!
Zulke mensen die kopen geen losse onderdelen, maar kopen hun computer bij Dell, HP, PB enz. Oftewel dit is juist een goeie vervanging denk ik.

En hoezo extra geld aan koeling....Stel je voor je zou een X800pro op een mobo zetten zou hij dan meer koeling nodig hebben/heter worden? Nee, want het blijft het zelfde alleen je gpu zit ergens anders (alleen over de plek moet wel goed nagedacht worden want de enige echte openplek waar je boel nog een beetje gekoeld kan worden is eigenlijk op de plek van je cpu).
Zulke mensen hebben nix te zoeken in een PC.

Begint al met aarding tegen statische electriciteit enzo. 'Oh dat vervang ik wel ff ... nou hij doet het niet meer'

Nee laat het bouwen van pc's over aan mensen die het snappen.
Och ja pc's gaan ook zo vaak kapot door statische electriciteit :Z
Ja dat gaan ze idd.

Hoe vaak lees je op GOT wel niet over geheugen wat stuk is.
Dit heeft vaak als oorzaak dat het geheugen niet ESD verantwoord is behandeld.

Daarnaast kan je door ESD achtige zaken ook schade aanrichten die pas vele maanden later merkbaar worden. Alleen denkt dan niemand meer terug aan de tijd dat de PC werd ge-assembleerd.

Ik denk dat het beter is dat jij ook je handjes maar uit een PC houd als je er zo over denkt.
Jij kan uit een topic of GOT niet bepalen waardoor een stuk geheugen kapot is gegaan. En zelfs als je z'n stuk geheugen in je handen krijgt is het bijna onmogelijk te bepalen of het door ESD kapot is gegaan.
Je gokt er maar op dat door ESD komt.

Maar daarbij ga je er even aan voorbij dat er gewoon heel veel brak geheugen verkocht word.
ja dacht aan enkel de Gpu in een pci-expres slot.
Maar je wil je geheugen zo kort mogelijk er op.
Dan krijg die shared mem gedacht dat is ook niet alles.

maar mss wel extra GPU via PCI-exp erbij zetten ???
modulair opbouwen.
Denk dat dat een slechte zet zal zijn. Aangezien eigenlijk alleen het pcb waar je kosten mee bespaart, en naar verhouding met het geheugen en gpu kosten die niets. Als je er een stuk betere gpu ingooit, moet je ook beter geheugen hebben, anders knijp je de gpu ontzettend af.

Zelfde als vroeger al die videokaarten met 128mb sd-ram

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True