'Nvidia werkt aan videokaart met twee GF110-gpu's'

Nvidia zou werken aan een videokaart op basis van twee GF110-chips, de gpu's die momenteel worden toegepast op de GeForce GTX 580. De highend videokaart moet het volgend jaar gaan opnemen tegen de Radeon HD 6990.

Op de Chinese website enet.com.cn is een foto geplaatst van mogelijk Nvidia's nieuwe dual-gpu-kaart. De videokaart bevat twee GF110-gpu's met elk zes geheugenchips. In totaal zou de kaart over 3GB gddr5-geheugen beschikken, maar doordat de gpu's onderling via een sli-chip communiceren, blijft daar in de praktijk 1,5GB van over.

De pcb lijkt over drie dvi-aansluitpunten te beschikken, waardoor mogelijk via drie monitoren 3D Vision Surround gebruikt kan worden. Verder zijn op de kaart twee achtpins pci-e-voedingsaansluitingen te vinden, evenals een sli-connector. Over de kloksnelheden van gpu en geheugen van Nvidia's nieuwe dual-gpu-ontwerp is nog niets bekend. Ook blijft de vraag of Nvidia alle streamprocessors - op papier 1024 in totaal - ingeschakeld zal laten.

De nieuwe videokaart van Nvidia zou mogelijk door het leven gaan als GeForce GTX 595. De gpu-fabrikant zou de dual-gpu-kaart willen uitbrengen als tegenhanger van de Radeon HD 6990, een dual-gpu-videokaart van concurrent AMD. De Radeon HD 6990 moet in het eerste kwartaal van 2011 beschikbaar komen.

dual-gpu-kaart van Nvidia met twee GF110-gpu's

Door Dimitri Reijerman

Redacteur

21-11-2010 • 17:08

138 Linkedin

Submitter: Jism

Lees meer

Nvidia brengt GT 540M voor laptops uit Nieuws van 6 december 2010
Specificaties GTX 580 lekken uit Nieuws van 4 november 2010

Reacties (138)

138
129
72
2
0
12
Wijzig sortering
Is dit nu de eerste graphics-card van nVidia die twee GPU's heeft?

Wel mooi, maar ik vraag me altijd af of het ook echt die 100% extra winst geeft ten opzichte van de kaart met de enkele gpu.
Zeker niet, in het verleden zijn er meer geweest, bijvoorbeeld de GTX 295.
Dit is (bij mijn weten) wel de eerste nVidia kaart in de GTX5xx serie met twee GPU's aan boord.

De volle 100% winst zal het niet geven, vooral ook omdat dit soort kaarten vaak een lager geklokte GPU gebruiken, of zoals in het artikel al aangegeven minder streamprocessors per kern geactiveerd hebben. Daarnaast verschilt het schalen van SLI nogal eens per applicatie (hetzelfde geldt trouwens voor crossfire). Ik denk dat je in de praktijk niet mag klagen als de kaart zo'n 50% hogere performance dan een enkele GTX580 haalt.

Ben persoonlijk eerst vooral geïnteresseerd in de AMD 69xx serie, die gaat toch een beetje de limiet neerzetten deze nVidia kaart zich aan moet meten. (Al is het maar omdat ze eerder uitkomen).

[Reactie gewijzigd door Marijn_ op 21 november 2010 17:31]

Anoniem: 263922
@Marijn_21 november 2010 17:54
De gtx580 is al uit? Maar nvidia is wel gek als ze de kaart nu al uitbrengen en daarmee ati onderschatten. Het ziet er wel naar uit dat ze koste wat kost de snelste kaart willen hebben, getuige die dual peg 8pins connectors zullen die twee gf110 chips niet enorm veel gekort worden in performance, zelfs al hebben ze een behoorlijk verbruik per stuk.
De dual GPU oplossingen zijn traditioneel heethoofden die enkel interessant zijn als je echt de beste prestaties wil hebben. Als nVidia er dan in slaagt 2 GF110s te combineren en betere prestaties neer te zetten dan AMD is het succesvol. Zelfs al heb je daar krachtstroom voor nodig.

OT: Was de AMD 6990 trouwens niet uitgesteld?
En daartussenin de 9800gx2 :) Lijstje compleet.
Vergeet de 7950GX2 niet...NU is het lijstje compleet :P

Daarnaast zijn er ook hier en daar fabrikanten die zelf aan het knutselen zijn geweest, zoals de Asus met zijn 'Mars' kaart en Gigabyte met een dubbele 6600GT.

Ik vind dat altijd erg leuk om te zien, zulke kaarten :)
Ook niet de 7800GT-Dual (van asus) was eerder :)

@singular1ty de 7950GX2 zat er ook nog tussen :)

[Reactie gewijzigd door watercoolertje op 21 november 2010 22:37]

Blijkbaar was het de 7800GT ook niet. Asus had daarvoor ook al een 6800GT X2 en vlak daarna een 6600GT X2

http://www.xbitlabs.com/n...splay/20050512150331.html
Zeker niet, kijk bijvoorbeeld hier maar eens voor de GTX 296 dual. En vergeet ook bijvoorbeeld de 9800 GX2 niet, dit wordt al langer gedaan hoor (ook door Ati). :)

[Reactie gewijzigd door S0epkip op 21 november 2010 17:26]

En vergeet dan ook niet de uitvinders van SLI te noemen: Voodoo.
En de uitvinders van dual-gpu kaarten: ATI :)
je bedoelt 3DFx

en die zijn later opgekocht door nVidia
Het geeft nooit 100% winst, er is altijd overhead.
Maar als het goed gaat kun je wel hoog komen, 90% bijvoorbeeld.

De efficiëntie van SLi en CrossFire opstellingen zijn door de tijd heen veel gebenchmarked in verschillende applicaties. En dat wordt nog steeds gedaan bij nieuwe kaarten. Met wat zoeken zijn die benchmarks en reviews waarin multi-GPU test gedaan worden prima te vinden, ook binnen tweakers.net.
Zoek dus even, dan heb je zo een aardig beeld van hoe goed het schaalt.
Probeer wel recent materiaal te scoren, door de tijd heen is het in veel gevallen beter geworden.
Is dit nu de eerste graphics-card van nVidia die twee GPU's heeft?
Volgende keer moet je toch echt ff wat meer research doen..

Nvidia had de 7900 GTX X2 dat was al 4 jaar geleden.
Later kwam er de GTX 295 bij.

Wat ik mij afvraag is wat het verbruik is..
Ook daar kun je met minimaal onderzoek wel uit komen :P De 580 gaat voor 250 W, dit ding gaat daar overheen, en het maximum dat ze mogen gebruiken is 300W... Laat een beperkt powerbudget over voor deze opstelling, lijkt me. De interessantere vraag is : welke kloksnelheden krijgen de chips?
Die 300W moet niet. Ze mogen dan enkel niet zeggen dat ze aan enkele standaarden voldoen.
Wat natuurlijk wel lastig is wanneer je moet zeggen dat je niet compatibel bent met pci-express.
Beetje halfslachtig als dat geheugen zo wordt gedeeld. En hoe zou het dan met de prijs gaan? +75 tot +100% van een single GTX580? Het zal een monster worden in alle opzichten.
True, maar is dit nu ook mogelijk? de ATX standaard gaat toch niet verder dan 2x 8p + 1x 6p prik? als 1 GPU al 250W verstookt, dus samen THEORETISCH gezien 500W, gaat dat toch al ver over de limieten heen? (300W + 150W = 450W)

Ik ben geen verbruiksfreak, maar aangezien hij minstens 3x 8p connectors nodig heeft, lijkt dit mij onhaalbaar.

En jongens, het is een Chinese site eh...

op het plaatje staat 2x 8 pins, dus 375W. dat KAN toch niet genoeg zijn? dan is er in principe 125W over voor de 2e GPU?
En al helemaal als de 480 al 416W gebruikt op full-load, zal de 595 wel rond de 800W hangen. ook je CPU nog eens overklokken en ze kunnen een nieuwe voeding gaan maken.

LOL! hij heeft nog een SLI aansluiting ook! dan heb je een 2e PSU nodig voor alleen de graka's al. ;) (2x 800W + 150W = heel veel W)

[Reactie gewijzigd door naarden 4ever op 21 november 2010 17:36]

nee de 580 is zuiniger dan de 480, een duo core videokaart gebruikt in verhouding minder stroom omdat de core meestal wat lager zijn geclockt om de boel binnen de perken te houden. De 595 is dus in verhouding ook wat minder stroomslurpend.
Dat komt dus niet zozeer doordat een een dual-GPU-kaart is, maar omdat hij inderdaad fors lager geklokt zou moeten zijn. Ik vraag me af of de winst t.o.v. een enkele GPU dan niet veel te klein gaat zijn, want deze dual-GPU-kaart moet per GPU toch mooi even 40% minder verbruiken per GPU en dat doe je niet zo gemakkelijk zonder veel performance in te leveren. Bij de HD5970 was het al duidelijk te merken dat die lang niet zo snel was als twee HD5870's, en die hoefte maar 20% minder te verbruiken per GPU.

Even heel erg hypothetisch: 40% minder verbruiken is toch minstens (als ze niet met bijzondere trucjes komen) 20% lagere kloksnelheden, als dit lineair schaalt met performance kom je dan uit op 160% performance t.o.v. een enkele GPU. Dan nog performanceverlies door SLI-schaling en dan kom je uit op dat de performancewinst t.o.v. een GTX580 niet erg groot gaat zijn. Ik zie niet in waar ze die grote performancewinst moeten pakken, tenzij ze gewoon keihard over de PCIe-specs heengaan. Ik vond het de performanceverlies per GPU bij de HD5970 al tegenvallen.

[Reactie gewijzigd door bwerg op 21 november 2010 22:47]

Bij de gtx295 werden ook 2 240sp 448 gt200b chips gebruikt, welke ook kort tegen de 200 watt op de enkel-gpu gtx275 verbruikten, waar de gtx295 een TDP van 289 watt had.

Ik denk dat 350 watt - 375 watt wel haalbaar is.
Tja, dan kunnen ze PCI-E-certificering (nodig om eventuele leuke claims van gebruikerts af te wimpelen) wel vergeten, die zeggen namelijk dat je maximaal 300W mag slurpen. Zodra een kaart daaroverheen gaat, mag ie niet zomaar in een PCI-E-slot gebruikt worden... Oftewel, dan is je kaart onverkoopbaar, tenzij NVidia persoonlijk garandeert dat ie in _elk_ moederbord gaat werken... en dat kunnen ze niet.
LOL! hij heeft nog een SLI aansluiting ook! dan heb je een 2e PSU nodig voor alleen de graka's al. (2x 800W + 150W = heel veel W)
Genoeg voorbeelden te vinden van mensen die nu al zo werken hoor - 1 PSU voor de grafische kaarten en 1 PSU voor de rest.
Het zou in ieder geval niet de eerste videokaart zijn met een tdp hoger als 375w, de asus ares die al ruime tijd op de markt is heeft zelfs een tdp van 450 watt (dat is een stevig overklokte hd 5970):

http://tweakers.net/nieuw...3dmark-vantage-score.html

Daarnaast kan er uit het pci-e slot ook nog eens 75 watt gehaald worden. In combinatie met 2 8-pin connectors levert dat inderdaad 375 watt op. Mocht dat niet genoeg zijn, dan kan er ook beroep gedaan worden op de 6-pin connector voor nog eens 75 watt extra om zo in totaal uit te komen op 450 watt. Overigens kan een pci-e 6 pin connector meestal meer dan 75 watt leveren:

http://www.playtool.com/pages/psuconnectors/connectors.html

Dat moet wel haalbaar zijn, het is ze immers ook gelukt met de gtx2xx serie zoals hieronder door frietjemet wordt opgemerkt.
Op de afbeelding zie ik rechts bovenin platforms voor 2x8 Pins, lijkt me niet echt helemaal realistisch of dr moet behoorlijk gesneden worden in cores en clocks.....
En jongens, het is een Chinese site eh...
Laat alle hardware boeren nu net hun productie in China hebben. Als men ergens informatie heeft is het dus daar....
Nou nee het zou veel omslachtiger te onwikkelen zijn om twee GPU het geheugen op dezelfde kaart te laten delen. Met dezelfde bandbreedte en latency performance.
Gezien dat dat blijkbaar een moeilijke opgave is. Of onrendable economisch gezien.
Kan iemand misschien even verduidelijken waarom "er in praktijk slechts 1,5GB geheugen overblijft"?
omdat ze beide 1.5gb krijge per chip en als je dat in sli zet kan alleen de main chip zijn geheugen gebruiken.
Als dat het geval zou zijn, dan zou de secondaire chip toch geen geheugen nodig hebben?

Beide chips hebben hun eigen geheugen, met grofweg dezelfde data. Op basis van diezelfde data, bouwen ze het beeld voor hun eigen deel van het scherm.
De andere kaart heeft wel eigen geheugen nodig, bij sli kun je bijvoorbeeld kiezen voor alternate frame rendering. Dan berekenen ze dus beiden evenveel echter om en om een ander frame. Als de andere kaart dan geen geheugen heeft dan is het natuurlijk hierop niet mogelijk om de benodigde berekeningen uit te voeren.

De reden dat het telt als 1.5 gb totaal is omdat het geen gecombineerd geheugen is, iets van 1900 mb gaat dus niet voor 400mb naar de andere kaart. Het pas dan gewoon niet, vandaar maximaal 1.5 gb.
Om het even simpel uit te leggen:

Beide kaarten het zelfde data in het geheugen alleen de GPU doet er andere berekeningen op en voegen daarna het beeld samen :)
Zoals ik het zie:
Per GPU is er 1,5GB geheugen beschikbaar, de 3GB wordt immers verdeeld.
Een scene mag dus maximaal 1,5GB aan geheugen gebruiken.
Anders verwoord betekend dat dat er in de praktijk dus 1,5GB aan geheugen beschikbaar is.

Kan me niet voorstellen dat er 3GB aan geheugen op zit en dit echt maar voor de helft bruikbaar zou zijn. Daarom denk ik dat er 'per-GPU' wordt uitgedrukt, wat technisch te rechtvaardigen is.

[Reactie gewijzigd door Ultraman op 21 november 2010 17:19]

Het is inderdaad 1,5GB per GPU, aangezien de 2 chips hetzelfde beeld renderen moeten er dezelfde gegevens in steken om de chip van de juiste data te voorzien.
Wat Fab192 zegt klopt niet, anders hadden ze inderdaad wel het geheugen van de 2e GPU weggelaten.
2 chips hetzelfde beeld renderen...
Want is dan het nut van sli in the first place?
Was dit niet dat de 1ne chip het onderste deel rendert, en de 2de chip het bovenste deel ofzo?
Zodat je beeld eigenlijk over de 3 gb verdeeld wordt?
Dat is een techniek (alhoewel alternate frame rendering tegenwoordig populairder is geloof ik). Maar dat geheugen word grotendeels gebruikt voor de textures en de modellen en die hebben ze beide nodig.

[Reactie gewijzigd door martijnve op 21 november 2010 17:43]

maar doordat de gpu's onderling via een sli-chip communiceren, blijft daar in de praktijk 1,5GB van over
Voor zover ik het begrepen heb is dat wat ongelukkig verwoord, beter zou zijn:
maar doordat de gpu's allebei een volledige kopie van alle data nodig hebben kan "netto" maximaal 1,5 GB aan data opgeslagen worden
offtopic:
Ik ben geen SLI-expert, als iemand een nog duidelijkere verwoording heeft / ik het ook niet exact goed uitleg: laat maar weten.
Wie heeft het over slechts 1.5 GB? Ik vind het nogal wat ;)
NIet als het 3GB in de eerste instantie is.
Eigenlijk heel simpel.
De GPU rendert de game frame en elke GPU heefd alleen fast exces tot zijn eigen locale memory. Waar veel GFX stuf gebufferd wordt.
Dit houd in dat de gebufferde game data dubbel dus per GPU uitgevoerd wordt vanuit zijn eigen locale buffer
Omdat elke GPU multicore is. De 512 stream proccesors van de gf 110 zijn de cores van de gpu.
Anoniem: 355840
@densoN22 november 2010 09:44
Het lijkt mij dat de GPU's dan ook goed teruggeclocked zullen worden. Veel meer dan 400 watt zal deze kaart toch niet trekken, daarboven is het niet goed meer te koelen lijkt mij. :P
"...wat hij bedoeld." :X
Als je bijles wil hoor ik t wel ;)

Is het verder teveel gevraagd om gewoon even na te lezen wat je getypt hebt?
Dit zijn overigens geen "tiepvauten". Dit zijn spelfouten.
Ik vind dat een of ander bedrijf/studio zich nu al moet bezighouden(beginnen met een game) met de kracht van een 10-core en een gtx880 (als die er beiden over bijvoorbeeld 3 jaar zijn).
Want tegen die tijd zijn er echt wel 10(of12)-cores op de markt en is een 880 ook op de markt.
Dat ze maar eens een echte, harde game maken die over 10cores te spreiden is.
En niet dat we nu pas enkele spellen hebben die 4 cores gebruiken.
De enigste echte cpu-bottleneckende game is tot nu toe dirt2(op een quad-core, dus met een i7-980xkunnen ze nog verder komen }> ), volgens guru3d.
en volgens mij is er nog geen enkele game die gebruikt maakt van alle performance van 2 gtx580 kaarten, zodat je op 60 fps uitkomt, wat een speelbare fps is.
want als je 2 x gtx580 doet heb je meestal iets van 130+ frames, wat totaal belachelijk is als je geen monitor hebt die 120 hertz heeft.
dus dat ze maar aan een deftige game werken die wel dit gebruikt, want heel veel hard-ware freaks zitten hier wel op te wachten }> .
desondanks, mooie kaart!
Tjonge, tien cores enzo? Ja, Jij weet t... Heb je wel eens ARMA 2 alles op max gespeeld. Of metro 2033? Dat zijn games waar je wel 2x een gtx580 kan gebruiken. Ik pleit ook voor mooier en vetter, maar het moet met een medium kaartje ook nog te spelen zijn. Nou heb ik daar met gtx470 sli geen last van, maar ben natuurlijk niet in mn uppie. Wel moeten we zo snel mogelijk weer van consoleports af... Daar wordt ik wel een beetje gek van, dramatische gameplay, controller gezeik en games die niet mooier worden dan een xbox 720p...

Geef mij maar weer echte pc only games.. en het liefst nog een beetje orgineel, Deus ex 3 iemand?
Ik kan metro 2033 op max spelen met alleen maar een Club3d HD5770 overclocked edition, en een AMD x4 955! Dus het is mogelijk! _/-\o_
Sorry, dat is onmogeljk hoor, Als je je DX11 opties "Tesselation en Depth Of Field" aanzet, 4x AA en 16x anisotropische filtering, loopt ie op een 5970 net aan...40-50 fps. Dus wat jij daar beweerd is BS! Pics or it didn't happen...
Ik kan ook Metro 2033 op max spelen met alles aan etcetc op een 5770, kan alleen wel de fps op 1 hand tellen :)
komt doordat die games gewoon niet erg geweldig zijn geprogrammeerd. Arma en Metro zijn echt niet mooier dan crysis maar vreten wel veel meer resources.
Hedendaagse videokaarten zijn al multi-cores, het probleem bij meerdere videokaarten is ze onderling te laten samenwerken, bij processors gebeurt dit al heel lang, neem bijvoorbeeld de pentium pro, toen waren er al dual-cpu moederborden.

Multi-videokaart setups hebben zeker wel nut op monitoren met hoge resoluties, al is de winst er na 2 kaarten wel uit, een derde kaart voegt zo weinig toe dat het eigenlijk niet verantwoord is, laat staan 4.

Multi-gpu videokaarten hebben zeker toekomst, maar dan moet de techniek om die recources te gebruiken stukken beter worden, de software kan er nog niet echt mee uit de voeten.
Is dan een hele grote chip niet handigger?
Nee bedenk ik mezelf nu, die mislukken natuurlijk veel te vaak :( .
hmm dan is het beter om 4 kleine samen te laten werken die 99% zeker lukken, ipv een grote die maar voor 30% kans lukt.
In dat geval ben je overhead aan het vergroten, en moet er veel meer gesynched worden, waardoor je een gruwelijke bus nodig hebt... Trade-off everywhere... Ik ken maar 1 kaart die ooit 4 GPUs had, en dat was zo'n Voodoo3D (6000) kaartje, en dat was geen doorslaand succes ;)
Leuk dat jij dat vindt, maar games moeten verkocht worden, en consoles verkopen goed, en consoles hebben geen 10cores.
toch heeft mijn xbox al 5 jaar 4 cores, toch?
3 maar, en meer cores wil niet zeggen dat het ook automatisch sneller wordt. Een auto met 10 cylinders in zijn motorblok is ook niet per definitie sneller dan eentje met 6.
kijk maar eens naar de ps3, het zijn dan wel niet echt "cores" maar toch een variatie van (en daarvan zijn er 8, 7 in gebruik)
Is dat groene chipje, tussen de twee grote GF110 chips, de NF200 SLi controller?
Hopelijk wordt de PCB niet al te lang, langer dan 230mm is het echt te lang.
Waarom is dat te lang? Mogelijk voor jouw gekozen behuizing, maar het voldoet gewoon aan de standaarden. Wanneer een behuizing voldoet aan de ATX standaard, dan moet er een kaart inpassen die van de achterzijde geheel naar de voorzijde van de behuizing loopt. :) Dat is dan gewoon een full-length PCI kaart.

Linkje: http://www.formfactors.org/developer%5Cspecs%5Catx2_2.pdf

[Reactie gewijzigd door _Dune_ op 21 november 2010 20:11]

Ja dat is de NF200 bridge.
Is dit dan de eerste Nvidia die 3 monitoren aan kan sturen?
Heb een tijdje geleden een ati radeon HD 5970 aangeschaft of mijn 3 monitoren met 1 kaart aan te kunnen sturen (1x 2560x1200 en 2x 1600x1200 in portrait mode aan beide kanten ernaast)
Nou blijkt die Eyefinity -app die er 1 bureaublad van moet maken voor games (nog) niet te werken met gekantelde schermen. Bovendien is mijn 3d software (SideFX Houdini) overduidelijk blijer met nvidia dan ati, want scherm-updates bij navigeren in 3dspace zijn waardeloos met deze kaart terwijl dat met de 8800gtx die ik hiervoor had prima ging. (krijg zelfs regelmatig gewoon geheel zwarte viewport)

Als Nvidia eindelijk komt met een graka die mijn 3 schermen kan aansturen (en ook voor een 1st person shooter zo af en toe goede resultaten levert) dan sta ik als eerste in de rij om er 1 te kopen.
Niet te werken met 90c gekantelde schermen ? Spreek voor jezelf, want het internet staat er vol mee: http://benchmarkreviews.c...d=47&limit=1&limitstart=5

Het werkt wellicht niet met een mix van wel en niet gekantelde schermen, zoals jij wil(de). Dat pivot werkt, staat vast.

En nee, ook deze GTX580 X2 gaat geen triplescreen aansturen.

[Reactie gewijzigd door Madrox op 22 november 2010 10:25]

ik geef toch duidelijk mijn setup aan? 1x landscape 2x portrait? Die MIX werkt niet met eyefinity:
http://devforums.amd.com/game/messageview.cfm?catid=405&threadid=138258&enterthread=y
http://forums.overclockers.co.uk/showthread.php?p=15464453
Blijkbaar is het met SoftTH wel mogelijk, maar dat heb ik nog niet geprobeerd.

En waar lees jij dat deze kaart geen triple screen kan gaan aansturen? Ik lees dit:
"De pcb lijkt over drie dvi-aansluitpunten te beschikken, waardoor mogelijk via drie monitoren 3D Vision Surround gebruikt kan worden."
en dan denk ik 3x dvi = drie schermen. Of zou het net als met de quadro serie zo zijn dat er slechts 2 van de 3 tegelijkertijd actief kunnen zijn?

[Reactie gewijzigd door rudinie op 22 november 2010 14:03]

Nou blijkt die Eyefinity -app die er 1 bureaublad van moet maken voor games (nog) niet te werken met gekantelde schermen
Dit waren je eigen woorden. Zo gezegd komt het over alsof het helemaal niet kan met eyefinity.
met sli kan je gewoon 3 monitoren aansturen, dus waarom zou het met deze kaart dan niet kunnen?
Ik denk niet dat ze AMD/ATI nog bij kunnen houden. Ze moeten dan wel met een hele goeden kaart op de markt komen want de GTX580 wint ook nog maar net van de HD5970 O-)
ATI maakt gebruik van trucjes om in benchmarks sneller over te komen, in de praktijk presteert NVidia in veel gevallen stukken beter. Ik ben geen fanboy want ik heb heel veel ATI en NVidia kaarten versleten en dit is wat mij op viel.
bronnen ?, anders ben je een fanboy
Gelukkig word er ook alleen maar gebenchmarkt met 3dmark...
"FP16 Demotion: A Trick Used by ATI to Boost Benchmark Score Says NVIDIA". Ik vind NVidia niet zo'n objectieve bron eerlijk gezegd. :p

Het enige nuttige wat hierover te zeggen is: Het gaat uiteindelijk enkel om games (of in sommige gevallen GPGPU of zo), dus enkel daarop moet je je baseren. Synthetische benchmarks zijn vrij nutteloos. En trucjes om een game sneller te laten gaan zijn juist de bedoeling natuurlijk. Als dat daadwerkelijk slechtere beeldkwaliteit oplevert zie je dat wel in de review terug als het een goede review is.

Tevens implementeert NVidia net zo goed trucjes om AMD-kaarten te dwarsbomen. Dat gebeurt altijd aangezien beide merken natuurlijk beter uit de bus willen komen dan de ander.

[Reactie gewijzigd door bwerg op 21 november 2010 22:49]

hahaha.... ik weet niet of je het door hebt, maar er staat toch duidelijk in die bron
"Says Nvidia" dat is dus echt geen bron, het is gewoon een beschuldiging.

Verder heeft Nvidia ook vaker deze truckjes uitgehaald, check de link van laurents91
Er zijn nog talloze andere voorbeelden.
En ik heb hier nog 4 kapotte 4850X2 kaarten liggen, geen enkele kapotte NVidia, hmm...
Het blijft vecht tussen beide. :) Ieder heeft zijn voors en tegens, maar: Het doodgaan van GeForce 8000 serie kaarten en dat door een produktiefout reeds ontdekt in November 2006, pas toegegeven in Juni/Juli 2008 en tot op dat moment nooit voor een oplossing gezorgd. :/

Linkje: http://www.formfactors.org/developer%5Cspecs%5Catx2_2.pdf

[Reactie gewijzigd door _Dune_ op 21 november 2010 20:12]

maar realalcatraz heeft 4 kapotte kaarten liggen
En wat zegt dat? n=1, er is 1 persoon met een stel dooie kaarten, wellicht heeft ie iets uitgehaald dat Ati-kaarten niet leuk vinden, misschien had z'n leverancier een rotte batch, misschien heeft ie gewoon pech (ja ook dat kan gebeuren)... Daarnaast weet ik niet hoeveel NV-kaarten hij gehad heeft ;) Ik kan ook wel zeggen dat de enige kaart die bij mij de geest gegeven heeft een 6600 was... maar dan moet ik er ook bij vermelden dat ik dat ding flink geOC-ed had, en dat het ding een beroerd leventje gehad heeft achter een brakke voeding... Kijk, dat verandert het plaatje, niet?
en yep dat is ook mijn ervaring, mijn beide atikaarten zijn kapot gegaan, maar nog geen van mijn nvidia kaarten.. maaaaar ik zal wel weer bij de aanschaf van een nieuwe beide merken bekijken, maar als er marginale winst is, dan zal deze jongen toch de nvidia versie kopen..
moet iemand meteen een fanboy zijn als hij/zij een opmerking maakt?

OT: jammer dat ik net een nieuwe PC heb anders zou dit toch wel een kandidaat zijn.
Dit was juist omgekeerd dacht ik. Al jaren.
Sorry, maar volgens mij is nu juist het omgekeerde het geval. Zo is er al eens een Nvidia/3Dmark rel geweest. Nvidia paste de drivers aan zodat deze betere prestaties neerzetten wanneer 3Dmark gedetecteerd werd. :)
maarja, de nvidia drivers werken tenminste goed in tegenstelling tot de ati-drivers van de videokaarten die ik heb gehad..
Wow, ben benieuwd wat dit schatje gaat slurpen! Ik ben benieuwd of je een verschil in de huidige games merkt met de GTX 580, ik bedoel het zijn zware kaarten maar niet een beetje overkill?
alsof je met de huidige games verschil merkt met eeen 580 ten opzichte van de vorige generatie kaarten
zolang de vorige generatie boven de 60 fps komt maakt het toch ook geen zak uit of deze 80 of 100 haalt |:(
tja, overkill? persoonlijk vindt ik het ook overkill voor de huidige generatie games (ofwel games t/m begin 2012), maargoed als we dat altijd gezegd hadden dan zaten we nu nog steeds met een voodoofx kaartje te spelen..
Je koopt nu geen kaart voor 2012. dan is er weer een nieuwe DX uit, dus dan is je investering voor niks geweest. ik koop alleen voor nu, later komt later wel.
Niet iedereen heeft zin om elk jaar een nieuwe kaart te kopen.
dus koop je alvast kaarten voor volgend jaar? Ik hoef toch niet uit te leggen waarom dit onzin is? 8)7
Nee, je koopt nu een kaart waarvan je verwacht dat je er wat extra langer mee kunt doen (ofwel je geeft iets meer uit), en dat is dus een hele logische redenatie bij het aanschaffen van een nieuwe pc.. In verhouding ben je dan nog minder kwijt vaak als nu een wat mindere kopen, en dan later weer een nieuwere 'mindere' te kopen..
Ik zal ook wanneer ik in de lente een nieuwe pc ga aanschaffen een 'highend' kaart aanschaffen om er dan een paar jaar mee te doen en dan zien we wel verder.. Ik heb geen zin om elke keer weer hier en daar een beetje te upgraden, ik koop 1 keer een goeie pc, en dan komt er hooguit na een paar jaar 1 extra upgrade ronde (bv extra mem/nieuwe videokaart) en dan kopen we gewoon weer een nieuwe..
Was Zotac niet bezig met een Dual GTX460 bordje?
mmm, the plot thickens...had een beetje het idee dat Nvidia en Ati langs elkaar heen aan het concurreren waren. Nu lijkt het erop dat de echte head to head er toch komt.....Ik hou wel van duo kaarten, misschien tijd voor de vervanging van mn 4870x2.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee