Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 81 reacties

Uit een uitgelekte presentatie van Nvidia blijkt dat de komende generatie gpu's van de fabrikant ondersteuning voor Directx 10.1 krijgt en dat nieuwe videokaarten voorzien zullen worden van gddr5-geheugen.

Zowel ATI als budget-fabrikant S3 hebben de overstap naar Directx 10.1 al gemaakt, maar Nvidia heeft de technologie recent nog terzijde geschoven als 'niet belangrijk'. Eerder sprak de fabrikant van een 'kleine uitbreiding' van functionaliteit die bij Directx 10 optioneel was en in versie 10.1 verplicht werd. Ook de nieuwe GTX260- en GTX280-kaarten ondersteunen versie 10.1 van Directx niet. Nvidia heeft verklaard dat de Geforce 8-, 9- en 200-gpu's de functionaliteit grotendeels al op andere manieren bieden, zoals multisample readback.

DirectX-logoOver toekomstige ondersteuning heeft Nvidia altijd gezwegen maar TG Daily claimt een presentatie in handen te hebben waaruit afgeleid kan worden dat de mobiele gpu's van Nvidia die in de lente van 2009 gaan verschijnen, wel overweg kunnen met Directx 10.1. Daarmee wordt het aannemelijk dat ook de desktop-gpu's die eind 2008 of begin 2009 arriveren hier ondersteuning voor gaan krijgen. Volgens TG Daily gaat Nvidia daarnaast - hoogstwaarschijnlijk nog dit jaar - videokaarten uitrusten met gddr5-geheugen. De site verwacht dat de eerste modellen in het laatste kwartaal van dit jaar op de markt komen, als gddr5-chips beter beschikbaar zijn. ATI's Radeon HD4870 is al voorzien van dit type geheugen, maar die kaart zou met leveringsproblemen kampen omdat de productie van gddr5 nog op stoom moet komen.

Moderatie-faq Wijzig weergave

Reacties (81)

De concurrentie is eigenlijk niet met de gt200 kaarten, maar met de g92 kaarten, de gt200 hebben hun eigen segment waar ati atm nog geen antwoord op heeft (30")
natuurlijk is die markt erg klein in vergelijking met de markt waar ati met hun prijsvechters opereert, maar nvidia heeft nog een goed aanbod in de mid-end, in de gedaante van diverse g92 kaarten, mijn oom heeft bijv. een nieuwe pc met een 9600gt gehaald, ook prima bang for buck :9
Het wachten is nu op de performance van de hd4870x2, in mijn ogen wel een kandidaat voor de "vip-ruimte" van de absurde resoluties waar de gt200 nu zit :Y)
Denk nu wel dat ik aan die kaart niks heb... net zoals de gt200, gewoon zonde als je ze niet op zon bakbeest van een scherm gebruikt, daar de ati's gewoon erg goede alternatieven zijn voor <24" schermen.

[Reactie gewijzigd door Frietjemet op 6 juli 2008 03:25]

Altijd mooi om te horen, maar persoonlijk ben ik best benieuwd (als iemand me het kan uitleggen graag). Waarom iets als Direct-x niet op firmware gebasseerd is ipv afhankelijk is van de chip.

Dx lijkt in mijn ogen een Framework voor grafische effecten die uiteindelijk op zo een gpu gewoon berekend worden.... Dat optimalisatie een feit is vind ik logisch, maar dx10 kan ook "software matig" opgelost worden enzo...
Altijd mooi om te horen, maar persoonlijk ben ik best benieuwd (als iemand me het kan uitleggen graag). Waarom iets als Direct-x niet op firmware gebasseerd is ipv afhankelijk is van de chip.

Dx lijkt in mijn ogen een Framework voor grafische effecten die uiteindelijk op zo een gpu gewoon berekend worden.... Dat optimalisatie een feit is vind ik logisch, maar dx10 kan ook "software matig" opgelost worden enzo...
In theorie kan je op een 6502 een Cray computer in software simuleren, maar dat betekent niet dat het nuttig is...

DXx heeft in se niets te maken met grafische effecten: het is een API die toelaat om bepaalde effecten op te bouwen met grafische operaties. Dit soort grafische operaties zijn echt wel heel low level: het uitlezen van individuele kleuren waarden van pixel samples, het werken met Z waarden per pixel, het berekenen van texture waarden in een cube mapped texture configuratie enz.

Dit soort dingen is zo goed als nooit met firmware opgebouwd. In theorie zou dat best wel kunnen, maar in de praktijk zou het gewoon veel te traag zijn. Een van de belangrijkste eigenschappen van de GPU industrie is dat er eigenlijk maar twee (high-end) spelers zijn en dat kopers op basis van een prestatieverschil van slechts 10% bereid zijn om over te stappen van de ene fabrikant naar de andere. Met zo'n situatie kan je je het echt niet permiteren om een hardware shortcut te nemen en een firmware oplossing te gebruiken die gemakkelijk 10x trager is dan een puur HW implementatie.
Waarom brengt NV dit niet direct uit net als ATI ?
Kunnen ze niet ? willen heeft er niks mee te maken, als je dit niet doet ben je niet vooruitstrevend en ga je af.

Waarom ?
Waarom brengt NV dit niet direct uit net als ATI ?
Kunnen ze niet ?
Dat moet het zijn, he: ze zijn allemaal achterlijk. (Integenstelling tot jou natuurlijk...not)

De specificaties van DX10.1 zijn al jaren bekend. Eender wel bedrijf kan in principe zo'n chip maken. (Zelfs S3 is daar in geslaagd.) De vraag is wat je er voor terugkrijgt op korte en lange termijn.
willen heeft er niks mee te maken, als je dit niet doet ben je niet vooruitstrevend en ga je af.
Willen heeft er alles mee te maken: elk bedrijf, klein EN groot, heeft slechts een beperkt aantal middelen. Het is aan het management om te bepalen hoe die aangewend worden. Laat je iedereen werken op een evolutie van een huidige generatie chip of zet je je geld op de volgende generatie architectuur. Of doe je beiden en, zo ja, hoeveel procent op de huidige en hoeveel op de volgende generatie?
Dit soort beslissingen bepaalt automatisch ook de introductiedatum van het volgende product: wat is het beste? Een 8800GT introduceren met DX10.1, maar dan wel pas 6 maanden later en miljoenen dollar laten voorbijgaan of kiezen voor een kostreductie van een bestaand product en de kerstperiode halen.

enz enz.
je zou ook kunnen stellen dat nvidia met oude technologie ati nog het nakijken geeft (nu even niet over prijs beginnen aub), er is dus geen reden om dat nieuwe, dure geheugen te kopen, waar ati ook al verlies op maakt, en dan heb je een aardig antwoord ;)
Ze zullen niet meteen afgaan als een gieter hoor ;) , het is gewoon appels met peren vergelijken, nvidia acht het zeker niet nodig, of hun architectuur heeft niets aan de bandbreedte, het kunnen zoveel redenen zijn...

het vooruitstreven is de laatste tijd trouwens aardig ver te zoeken, zowel bij ati als nvidia :)
grappig hoe direct x 10 niet belangrijk gevonden wordt door de industrie, zou dit er mee te maken kunnen hebben dat de drager van dx10, windows vista, een acceptatie probleem in de markt heeft?

en daaraan gerelateerd, zou de vertraagde uptake van vista en dus dx10 niet een van de oorzaken zijn van het teruglopen van de markt voor discrete videokaarten waardoor bedrijven als ati en nvidia het momenteel lastig hebben in de concurrentie met de onboard graphics oplossingen van intel? een intel dat zelf ook aangegeven heeft vista over te slaan omdat er te weinig added-value in dit os zit tov xp?

vragen, vragen...
Denk ik een beetje vraag en aanbod verhaal en wat voor doelgroepen men bediend. Dat Intel er over heen stapt komt puur omdat ze geen DX10 gebruikers onder hun klanten rekenen, maar ze willen zich wel gaan profileren straks als gamesysteem leveraar. Anderzijds kun je zeggen, veel Vista gebruikers gebruiken wel hun CPU's uds wat dat aangaat is het een beetje dubbel.

Tevens zal Intel zich straks 3 keer moeten bewijzen dat ze mee kunnen doen met ATi en Nvidia als ze hun lijnen gaan "uitbrengen". Hebben ATI en Nvidia het al steeds lastiger met drivers, uit het verleden is dat Intel ook weinig nazorg leverd op driver gebied, daar waar onboard chipjes niet eens een Sims spel konden draaien.

En Nvidia heeft het moeilijk op het moment, als er daadwerkelijk notebook gpu's in grote getallen gaan uitvallen en OEM's gaan een recall eisen dan zal dat een zware druk leggen op Nvidia's omzet maar ook het vertrouwen. Nu ATi met de 4870x2 komt en de 280 van Nvidia slechts een marginale update is van de 8800 ligt de markt weer helemaal open :)

Goed qua prijs voor de consument maar afwachten wie nu werkelijk bang voor je buck gaat leveren en Nvidia komt dan laat met een 10.1 onderteuning en gddr5.
Intel is met hun onboard video wel marktleider wat betreft totaal aan vidoe kaarten.
Intel is met hun onboard video wel marktleider wat betreft totaal aan vidoe kaarten videochips
zo zou je ook kunnen stellen dat de hele ati 4xxx serie een marginale update is van de vorige serie... precies hetzelfde principe als bij nvidia: gewoon meer shaders, alleen heeft ati het wat groter aangepakt, zijn natuurlijk heel verschillende gpus.

en die typo's aanpassen is ook altijd zo doelloos...

daarnaast maakt nvidia winst en zit amd toch nog steeds met verliezen, dus leuk dat ze alles zo goedkoop maken maar het is eerder een strijd om het hoofd boven water te houden, nv heeft eigenlijk niet zon groot probleem atm.

De 9800gtx+ blijft een goede keuze in de prijsklasse van de 4850:
-koeling (stock, geen 3rd party!)
-warmteproductie (warmte ook nog direct de kast uit)
-overklokbaarheid (door betere koeling/warmte afvoer)

En dan vergelijk je ook nog in feite een g80 van dik 2 jaar met een "gloednieuwe" architectuur (tussen " omdat het eigenlijk gewoon hetzelfde is wat nv doet, uitbouwen op hetzelfde)

ik wacht nu af, de keuze gaat vallen tussen de 4870 en 9800gtx, de prijs zal t uitmaken :)

allemaal onzin en geblaat ofc...

[Reactie gewijzigd door Frietjemet op 6 juli 2008 00:54]

Beetje kortzichtig. Intel zet Vista waarschijnlijk niet op hun bedrijfssystemen. Kijk, de meeste programmeurs en chipontwerpers hebben niet allemaal Vista functionaliteit strict nodig. Dit is bijvoorbeeld wel anders bij afdelingen die hardware maken voor DX10.
Kortom, jij suggereert dat Intel niets doet met Vista, geen drivers, geen hardware, het tegendeel is echter waar.

Zie: nieuws: 'Intel slaat Windows Vista over'
Beetje onnozel hoor.... Ten eerste zegt Nvidia niet dat DX10 niet belangrijk is, maar dat DX10.1 niet belangrijk is. Dus die hele Vista bash kun je bij voorbaat al vergeten.

En natuurlijk zegt Nvidia dat DX10.1 niet belangrijk is... Zou wel ongelooflijk stom zijn te zeggen dat DX10.1 wel belangrijk is, wetende dat jouw GPU's het niet ondersteunen, maar die van je concurrent wel! Dus uit zo'n uitspraak moet je niet eens proberen iets af te leiden...
Beetje onzin hoor, Vista is een zeer goed OS zeker als je gewoon nieuwe Hardware hebt, en laten we niet vergeten dat MS al heeft aangekondigd dat Windows 7 dezelfde driverarchitectuur zal hebben als Vista.. Dat bedrijven een compleet OS overslaan is helemaal niet bijzonder, dat gebeurd heeel vaak..
game developers eisen het schijnbaar.
Niet alle game developers: Gabe Newell zei vorig jaar nog:
He said this decision affected the whole industry as so far only a very small percentage of players can use DirectX 10.

When developing cross-platform games which are also released fo Xbox 360 and Playstation 3, developers look for the smallest common denominator. And since neither Microsoft's nor Sony's new consoles support Shader Model 4.0 for DirectX 10, only few games use it, he said.
maar je weet ook dat DX11 kaarten automatich DX10.1 ondersteunt?
het voordeel is dat je de hardware tessellation op 2xxx+/3xxx/4xxx kaarten nu eindelijk kan gebruiken.


nvidia's volgende kaart kan dus ook gewoon DX11 zijn.

*edit woordje*

[Reactie gewijzigd door stewie op 6 juli 2008 15:43]

Sowieso heeft dan de huidige RV670/R600 en de RV770/R700 dan extra voordelen die de G80/G92/G200 niet heeft.

Ik zie hetzelfde scenario weer opdoemen ten tijde van de 9800Pro en FX5900/50Ultra.
De Radeons bleken beter op de toekomst voorbereid te zijn en waren in de games die een paar jaar later uitkwamen structureel sneller dan de FX5900/50Ultra.

Het zou in mijn ogen geen slimme aankoop meer zijn als je nu nog een GTX260 of 9800GTX(+) koopt. De ATi hardware is op dit moment net zo snel.......maar belangrijker: in de toekomst veel sneller met de komende DX10.1 titels.
En net zo belangrijk: de prijs ;) Ati's kaartjes zijn namelijk ook stkken goedkoper dan die GTX260/280
De R600 heeft ook geen dx10.1

Maar ATI zit al op de 2e generatie DX10.1 kaarten, en nvidia wordt net wakker.
Zo zou je het kunnen stellen, maar nv houdt ati prima bij atm, ik denk dat 2009 een mooi jaar wordt voor nv, eens kijken wat ati dan klaar heeft liggen, beiden werken al op gebruikte (uitgebouwde) ontwerpen.

daarbij zijn er nog veel mensen nog op xp zitten, en dat ondersteunt nu eenmaal geen dx10(.1) maar daar is microsoft schuldig aan :)

[Reactie gewijzigd door Frietjemet op 5 juli 2008 08:34]

van NV weten we nog niks, maar ze hebben al wel weer prestatie beloftes laten glippen van 1,5 tot 2x zo snel. Ik weet niet, maar ik zou het wel raar, opzienbarend, vinden als ze dat opnieuw met een single chip willen klaarspelen. Hoewel het natuurlijk wel mogelijk is, aangezien overgeklokte RV770 chips een GTX280 kunnen bijhouden, maar ze zijn veel en veel kleiner.

Radeon R800, verwacht ik de stabiele doorbraak van multi chip oplossing voor. RV770, en R700 straks. Hoewel ik toch wel verwacht dat met het oog op nVidia de R800 voor een groot deel gewoon op prestaties gericht zal zijn.

[Reactie gewijzigd door JohnAD op 5 juli 2008 12:02]

De prijs is heel concurrerend, echter is er altijd een markt voor high-end kaarten, in het nvidia forum kun je lezen dat iemand 3 gtx280 in tri sli heeft.

Maar dat van die prijs is al heel lang bekend en al genoeg ingewreven, dat is oud nieuws :)
je hebt helemaal gelijk met de fx serie en de 9800 serie van ati, echter hadden deze veel problemen met de koeling, welke gewoon te weinig was voor enkele jaren gebruik, de nvidia had daarentegen maat houwtjetouwtje dx9 ondersteuning, waardoor ati in die generatie als winnaar aangewezen mag worden, en ofc zetten slimme tweakers er een aftermarket koelers op, nu heb je his iceq koelers in combinatie met ati kaarten, ik hoop dat deze ook voor de hd 4xxx serie komen, aardige oc en goede koeling voor een modale prijs ;)

Op dit moment is het in toekomstopzicht niet slecht omeen gtx260 of 9800gtx+ te nemen, het blijven goede kaarten, alleen een beetje duur maar de prijs is zakkende. daarbij komt wel het feit dat de gameontwikkelaars meestal niet verder gaan als dx10.0, waardoor dit een beetje te snel gesteld is, en dx11 zit in de pijplijn, tegen die tijd hebben ati n nvidia beide kaarten gereed die dat ondersteunen :)

btw noem dan eens wat dx 10.1 titels, in deze link staat zelfs dat ze de ondersteuning juist eruit halen :? http://www.pconly.nl/nieu...10.1_uit_Assassins_Creed/
ik ben wel een aankondiging tegengekomen van een dx10.1 game, dit bericht was echter al aardig oud.

de kaarten zijn door de nieuwe implementatie niet sneller, de beeldkwaliteit gaat er enorm op vooruit, op dit gebied is ati altijd al een sterke speler geweest :)
nVidia voelt de hete adem van AMD ;)

Door zo'n bericht de wereld in te helpen hoopt nVidia denk ik dat er weer mensen gaan twijfelen om toch maar even te wachten met het kopen van een goede grafische kaart, en in de toekomst toch maar een nVidia kaart te kopen. Bovendien zijn de aandeelhouders ook weer even gerust gesteld.

Dat is waarschijnlijk ook alles wat nVidia momenteel kan doen, want een goed concurrerende kaart hebben ze blijkbaar dus niet!
idd, de hete adem die achter uit de pc-cases komt met 4870 en 4870x2 kaarten :)

en het bericht is niet door nvidia in de wereld gebracht, lezen blijft ook een kunst, en al weer komen er geruchten over nv die er niet zijn.

En nv heeft genoeg concurrerende kaarten:
8800gt
8800gs
8800gts
9600gt
9800gtx
9800gx2
gtx260
gtx280

ati heeft dan:
3850
3870
3870x2
4850
4870

lijkt me aardig genoeg concurrende producten, het is in mijn ogen het overflooden van de videokaartenmarkt door nvidia (speciale versies en nog niet uitgebrachte kaarten daargelaten).

en de meeste mensen kijken op het doosje van een spel: een 8600gt/hd2600 >>> vraagt verkoper om info >>> deze geeft de koper gelijk en die gaat vervolgens met een mid-range ati/nv kaart naar huis, onwetend van een goedkopere ati 4850 kaart op azerty bijvoorbeeld

[Reactie gewijzigd door Frietjemet op 6 juli 2008 00:18]

@Frietjemet,
echt... het enige dat ik je hier heb zien zeggen is dat XP geen DX10(.1) ondersteund :O

voor de rest is het aleen maar fanyboy praat!
(ik houw ook erg veel van NV maar de praktijk wijst op dit moment uit dat ATI een erg sterke postie heefd)
-als ik jou was zou ik de GTX nemen en niet de GTX+ warom? omdat de GTX+ meer stroom verbuit en dus warmer word als die 'Koelle' GTX van jou...http://www.anandtech.com/video/showdoc.aspx?i=3340&p=2
-de g92 is ook een heethoofd als je de koeler langzaamer laat draaien ;)

tegenwoordig kan iemand met een beetje verstand van PC's de drivers zelf verwijderen en nieuwe instaleeren zonder ook maar n confliktje...

-de GX2 280 kan aleen uit komen met water koeling, okal word ide 55nm, aleen de GX2 260 heb ik nog hoop voor op lucht...
-de 4870x2 heeft n 6pin en n 8pin stoom aansluiting. netzoals de GTX280, en waarschijnlijk verbuikt hij dus ongeveer evenveel stroom als de GTX280 ;)

-de 4870 presteert al bijna evengoed als een GTX280 dus als er een game is die geen 2GPU's ondersteund (wat aleen maar oudere games zijn met minder extreeme eisen aan de GPU, en wat door de drivers natuurlijk gecorigeerd moet worden) dan zal zoon 4870 chipje in zn uppie het ook wel redden.

en wil je AUB de clock speed van een ATI GPU niet vergelijken met die van een NV GPU?! dat is hetzelfde als appels met peeren vergelijken!

de volgende slag durf ik niet veel over tezeggen, NV heeft namelijk al een 512bit-bus en zal daar behoorlijk wat voordeel meet uithaalen als ze overstappen naar GDDR5... maarja we kunne niet in de toekomst kijken hea :P

owja om jouw OC dom verhaaltje/gelul tegemoet te komen wou ik je deze link natuurlijk niet bespaaren: http://www.hardware.info/...deon_HD_4870_van_Diamond/
("Radeon HD 4870 XOC Black Edition en zal werken op 800 MHz voor de GPU en op GDDR5-4400 voor het geheugen" & "De Diamond-kaart zal daarnaast voorzien zijn van speciale firmware, waarmee de kaart verder overklokt kan worden tot 950 MHz GPU-frequentie en GDDR5-4800 geheugenfrequentie." _/-\o_ )
De enige game waar ik tot nu toe echt een voorsprong zag voor de gtx280 is call of duty 4. Bij de rest is verschil soms minimaal of erger, de hd4870 is sneller.
wederom geen onderbouwing, ik zal de moeite maar nemen en eens wat linkjes plaatsen :*)

http://www.hardwarecanuck...phics-card-review-11.html 3dmark vantage/ut3

http://www.hardwarecanuck...phics-card-review-12.html devil may cry 4/verschil.resos

http://www.hardwarecanuck...phics-card-review-13.html crysis /verschil.resos

http://www.hardwarecanuck...phics-card-review-14.html crysis dx10

http://www.hardwarecanuck...phics-card-review-15.html prey/enemy territory

http://www.hardwarecanuck...phics-card-review-16.html cod 4

(de rest klik je zelf maar even door)

Opvallend is dat de hd4870 de gtx 280 een keer te kijken zet, en daarna op een haardikte achterblijft, in de rest van de games is, zoals je ziet, het gat wat groter, al is de prijs van (atm) 400 euro voor de gtx280 nog steeds niet te rechtvaardigen, echter heeft de gtx280 de overhand op de hoogste (in mijn ogen) absurde resoluties, waardoor blijkt dat er twee verschillende doelgroepen voor ogen zijn gehouden, ati richt op de minder gefortuneerd lees: jeugdige/zuinige tweakers, en nvidia richt zich op de mensen met een 30"scherm

Ook valt te zien dat er vaak tussen de hd48xx en 9800gtx niet absurd veel verschil zit, de prijs gaat het hem doen, en daarbij hou ik de stock koeler in mijn achterhoofd, al heb ik de 4870 al voor 200 euro gezien, wat me toch aan het denken zet :P hijs ook nog korter als de 9800gtx, al zitten de stekkers een beetje lastig aan de achterzijde, maar als tweakers lossen we dat wel op hea :9

ps:

eens kijken hoe groot die x2 van ati wordt, ik heb mijn kast iets gemod voor een grotere kaart, en net een nieuwe voeding met pci-e 2.0 stekkers gekregen, waardoor kaarten met 8 pins stekkers voor mij nu een optie zijn.
Aangezien DX11 backwards compatible moet zijn, is het niet meer dan logisch dat nVidia in de toekomst DX10.1 gaat ondersteunen. De vraag is alleen, wordt de volgende GPU een DX11 ontwerp, of DX10.1?

[Reactie gewijzigd door XWB op 4 juli 2008 14:00]

Waarschijnlijk nog 1x een DX10.1 ontwerp en dan DX11. DX11 kan gevaarlijk worden voor Nvidia als ik dit lees: http://www.techarp.com/showarticle.aspx?artno=526&pgno=0 . DX11 lijkt in ieder geval meer de moeite waard dan DX10 was!

Maar wat is er van waar en hoe betrouwbaar is die website?
Als je de "reacties" leest van de bedrijven die er mee te maken hebben dan kun je heel het artikel toch niet meer serieus nemen... En de datum van het artikel is misschien ook iets om rekening mee te houden: 01-04-2008
1 APRIL! :*)
Leuk artikeltje ... op techarp. Of het wel of niet waar is ... kijk vooral even naar de post datum ervan: 01-04-2008... Voorlopig neem ik het nog met heeeeel veel grote korrels zout, dat DirectX 11 ray-trace based zou zijn. Alhoewel... als het waar zou zijn... Met real-time ray-tracing zouden wel heel veel mooie dingen te doen zijn... Als je ziet wat bijvoorbeeld die jongens van Saarcor met hun welhaast minimalistisch (ten opzichte van de bak transistors die ATi en nVidia gebruiken) te noemen hardware doen... (gallery met mooie RTRT screenies)
kijk even naar deze site.
photonstudios.nl
is een game draait op een realtime raytracing engine. (arauna)
op een quadcore draait het best goed.

de bedoeling is om de lichtgevende sphere tussen de palen te duwen,
om stroom te herstellen.

game is gemaakt door studenten van IGAD
in 14 weken tijd

[Reactie gewijzigd door freaq op 4 juli 2008 16:01]

multicore cpu is al aardig in opkomst, zodra multi-gpu in opkomst is zul je steeds meer kaarten zien met meerdere gpu's net zoals dat met de processors ging, maar nu is er nog geen reden om meteen naar de winkel te rennen voor 2 kaarten, het is alleen leuk als een game dat ondersteunt, en mensen zoals ikzelf hebben dan meer aan een enkele snelle gpu.

Ik heb die gts van mijzelf toen ook aardig duur betaald en daar heb ik nu geen zin meer in, en die nv's hebben bij een overclock een heel aardige performance boost :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True