Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 106 reacties

Chinese overklokkers zijn erin geslaagd meer dan 32.000 3dMarks te scoren met twee GTX295-kaarten in sli-configuratie. Uit previews vorige week bleek al dat de dual-gpu-kaart de vloer aanveegt met de Radeon HD 4870 X2.

Enkele Chinese leden van het Xfastest-forum bouwden een systeem met twee Geforce GTX 295-kaarten en een Core i7 965 EE-processor. De kloksnelheid van de vier op 55nm gebakken GT200-gpu's verhoogden ze van 576MHz naar 705MHz en de 480 streamprocessors werden van 1242MHz naar 1400MHz opgevoerd. De 1792MB gddr3-geheugen draaide niet op de standaardsnelheid van 1998MHz maar op 2500MHz en de Core i7 werd overgeklokt tot 4,19GHz. Dit resulteerde in een score van 32.573 punten in 3dMark Vantage. Hoewel dit niet het record verbreekt van 36.598 punten, dat op naam staat van drie GTX 280-kaarten, is het een imposante score, vindt ook Tweaktown.

GTX 295 sli 1 GTX 295 sli 2

Vorige week toonden diverse previews van de GTX295 al aan dat Nvidia's nieuwste kaart de prestatiekroon weer terugpakt van AMD. Nvidia stond reviewers slechts toe om, naast vijf voorgeselecteerde games, één zelfgekozen game te testen, waarbij bovendien bèta-drivers beschikbaar waren - maar toch is al duidelijk dat de prestaties en het energieverbruik van Radeon 4870 X2 achterblijven. Nvidia geeft bovendien een adviesprijs van 500 dollar en dat ligt ongeveer op dezelfde hoogte als de prijs van AMD's vlaggenschip. De kaart scoort daarnaast gemiddeld 5 procent beter dan twee GTX260-kaarten in sli-opstelling. Overigens zal de GTX295 pas op 8 januari tijdens de CES-beurs geïntroduceerd worden.

Nvidia Geforce GTX 295
Moderatie-faq Wijzig weergave

Reacties (106)

Ik zeg op voorhand ik ben absoluut geen fanboy van beiden, gewoon neutraal en dit is hoe ik er over denk.

Deze kaart is denk ik zelf puur om te laten zien kijk eens wat wij kunnen.
EN om weer te kunnen zeggen wij zijn de snelste, want daar gaat dit om puur om Marketing.
Of deze kaart op elk front ATI's 4870X2 weg blaast valt nog te bezien, zeker als je de prijs verhouding er bij gaat halen.

Dat deze kaart duurder zal worden dan de ATI 4870X2 op dit moment dat is iets waar we allen wel zeker van kunnen zijn op dit moment.
Hoeveel rek ATI nog heeft in de prijs van de 4870X2 dat durf ik niet exact te zeggen maar ik denk heel wat meer rek dan Nvidia heeft met deze kaart
Ik verwacht dan dus ook zoals ATI al een tijdje hanteert als het nodig is dat men de prijzen verlaagt, al zijn de prijzen laatste tijd gestegen maar ook van nvidia

Of ATI dit nodig gaat vinden weet ik niet aangezien ze ondanks dat mocht blijken dat ze niet de beste kaart meer op dat high end gebied hebben waar amper procentueel in te verdienen valt dat ze de prijzen erg moeten verlagen.


ATI zit nu in een goede positie, de 4000 serie verkoopt extreem goed en dat zal niet veranderen door deze kaart van Nvidia.
Men gaat denk ik liever verder met prijs/performance ipv nu snel een kaart op de markt gooien om maar wederom de Beste kaart in huis te hebben op high end gebied.

[Reactie gewijzigd door pino85 op 23 december 2008 18:28]

ATI heeft net een eerste kaart op 40nm-procédé laten zien. Indien ze de prestatiekroon snel willen afpakken is hun beste zet mijns inziens een HD4870X2 op 40nm uit te brengen. Zeker aangezien de HD58xx-reeks pas voor het eind van 2009 op de kalender staat. Bovendien duurde het niet zo heel erg lang eer Nvidia van een GTX280 naar een GTX280+ kon gaan, dus zie ik niet in waarom dit bij ATI het geval niet kan zijn, en wie weet zijn ze er al een tijdje mee bezig, who knows?
65 naar 55nm is makkelijker dan 55 naar 40nm. Bovendien heeft het geen voordeel in het geval van RV770. De chip is namelijk beperkt door de 256bit geheugenbus, die er voor zorgt dat de chip niet kleiner dan 260mm2 kan worden. Nu zal dit ook bij 40nm misschien wel beter zijn, maar dan nog is er veel lege ruimte over, en dat is zonde van het silicium en het geld.

Wel komt ATI met de RV800 serie chips, die inderdaad afgeleid zijn van de RV700 chips. Deze zijn in ergens in het komende half jaar te verwachten (al wordt dat wss wel Q2), maar zijn wel ontworpen om gebruik te maken van de mogelijkheden van 40nm.
Maar 1 4870x2 is wel goedkoper dan 2 gtx295's!

//edit niet goed gelezen, 1 gtx295 is dus al gelijk of sneller dan een 4870x2. Dan ligt het prijs niveau wel gelijk.

[Reactie gewijzigd door Giant87 op 23 december 2008 16:53]

waar doel je op, 1 GTX295 steekt ook al boven de 4870X2 uit hoor.
Over een poosje zijn de drivers voor dit kaartje ook weer ververst en kan je met dezelfde settings mss wel >34K halen met vantage
Vantage vertelt echter helaas heel weinig over werkelijke prestaties in games. De GTX295 is beter in sommige games, maar, als de nieuwste Catalyst drivers ook gebruikt worden, is de HD4870X2 weer beter in andere games.

De 'betere' drivers voor de GTX260 zijn ook een beetje een toverwoord. Het is niet veel anders dan een GTX260 in SLI, met 240 ipv 216 shader units. Net zoals de HD4870X2 zal ook de GTX295 als kaart niet veel sneller werken dan de enkele variant in SLI, al was het alleen al omdat alle data over 1 PCI-E poort moet. Prestaties kunnen wellicht nog wat omhoog in sommige games, maar ik verwacht geen wonderen, na de 'Big Bang II' drivers waarop deze al zijn getest.

Als laatste, AMD heeft nog steeds de Sideport op de HD4870X2 zitten. Ze hebben hem drivertechnisch uitgeschakeld omdat 'er niet genoeg prestatiewinst' gewonnen werd tegenover een hoger verbruik. Dit kan ten eerste al een slecht excuus zijn geweest, puur omdat de Sideport al niet nodig was om de onbetwiste nummer 1 te zijn. Ten tweede kan men ondertussen al goede driversupport hebben om het iets bruikbaarder te maken, al zou het maar een paar procentpunten winst opleveren. Ten derde, met de ook niet zuinige GTX295, kunnen ze het extra vermogen dat Sideport zou verbruiken 'goedpraten' door te wijzen op het verbruik van de GTX295.

De tijd zal natuurlijk leren hoe alles uit zal pakken, maar de monster-kaart en ATI killer zoals de titel zou doen vermoeden, is deze GTX295 zeker niet.

Edit: Overigens, wanneer het over het formaat gaat, zijn deze X2 oplossingen inderdaad vaak erg lomp. Maar een kaart als de 9800GTX hoeft niet zo groot te zijn. Van ATI zijn er wel oplossingen van bv de HD4850 (zelfde performance) die een stukje korter zijn dan de standaard lengte voor die kaarten. Het is maar net hoeveel moeite een fabrikant wil doen.

[Reactie gewijzigd door dahakon op 23 december 2008 17:55]

@mrbigfield

De GTX295 is beetje sneller dan de 4870X2.
Ten zij je 10 á15% extreem vind.
is dit voor identieke game settings op 30fps 'n 3fps.
Voor benches duidelijk zichtbaar voor daadwerkelijk gamen nauwelijks of amper merkbaar.

Gezien ATI en nV weer hun prijzen aan gaan passen aan zo'n nieuwe lichting verwacht ik dat GTX295 voor ¤25 á 50 prijs/performance sneller zal zijn. En dus kwa prijs performace mekaar niet ontlopen.

Tja dan is het wat wil je er maximaal aan uitgeven. heb je 475 de GTX295 425 de 4870x2. Je can de huidige prijzen nu niet nemen. Pas als ze beide leverbaar zijn en de aangepaste straatprijzen bekent zijn.
Dan doet de ATI het beter in zware games op 30" native resolutie bij sommige games.
Maar uitzondelrijke nV optimise games halen soms 30%.

Dan zit je met het probleem hoe de driver status per game gesteld is, kwa CF en SLI schaling. Dit kan dus veranderen en omslaan, meestal in voordeel ATI omdat hun (CF) optimalisatie vaker later komt.
Uit previews vorige week bleek al dat de dual-gpu-kaart de vloer aanveegt met de Radeon HD 4870 X2.
Dit klink so overdreven.
In de [H]ardOCP Preview was het vaker. Dat de gameplay feel identiek was.
Bij 60+ fps games merk je sowieso ook niks.

[Reactie gewijzigd door SG op 23 december 2008 19:22]

Eigenlijk gaat het bij 60 en 63 FPS ook niet om de vloer aanvegen. Maar het verschil in toekomstige games zal waarschijnlijk hoger liggen.

Echter is de 4870X2 sneller omdat het twee GPU's waren en de GTX280 maar een. Dit wil dus wel zeggen dat in principe de GTX280 gewoon de beste GPU was (op single GPU gebied). Nu hij net als ATI's X2 kaart ook gecombineerd wordt met een tweede is hij wel sneller.

Als je bijvoorbeeld kijkt naar de 8800GTX gaat die nog steeds relatief goed mee, terwijl alle andere (ATI) kaarten uit die tijd figuurlijk op de schroot liggen.

Maar dit zijn topline kaarten allemaal, daarom kunnen ze eigenlijk nooit de vloer met elkaar aanvegen in die zin. Als je nu zou zeggen de GTX295 veegt de vloer aan met de 4870, dan zou je gelijk hebben. En dit is dus exact hetzelfde als zeggen de 4870X2 veegt de vloer aan met de GTX280.
Niet moeilijk indien ze 2 PCB's tegen elkaar plakken en als 1 kaart verkopen. plak 2 4870x2's tegeneen en dan wint AMD weer. Ik vraag me werkelijk af of veel mensen zo'n kaart kopen. Ze doen het enkel voor de performantiekroon denk ik zo.
Waar denk je dat die X2 in de naam van de AMD kaart voor staat? Hij heeft ook twee GPU's. Of dat nou op 2 PCB's zit of op 1 maakt geen verschil. Ze hebben hetzelfde aantal GPU's en de GTX295 is kennelijk beter. Leuk voor nVidia.

Verder zal ik nooit zo'n energieverslindend, bloedheet wordend ding kopen, geef mij maar een GPU die redelijke graphics kan produceren én maximaal 100W verbruikt en idle iets van 10W. Een opvolger van de 9600GT en HD4850 dus, veel interessanter.
Hangt er vanaf wat je onder redelijke graphics verstaat, maar een 4670 voldoet wellicht al aan jouw eisen dan...
Onder de 10W idle, zo'n 50W load en qua prestaties net een tikkie onder een 9600GT.
Misschien is Dubbel PCB zo slecht nog niet. Mogelijk ook makkelijker te koelen.
De GTX295 previews meld dat ie stiller is dan de 4870x2 en de temperatuur goed zijn.
Of nV heeft er gewoon meer werkt van gemaakt.
er is toch aangekondigd dat deze kaart zo`n beetje dezelfde rol heeft als de 9800GX2....
performantiekroon... wattemedinges? :X

prestatie bedoel je denk ik? En wat is dr mis mee? Het is toch een single PCI Express slot kaart? Moeten ze de 4870 X2 dan ook maar niet verkopen? Zelfde verhaal toch? (M.u.v. het feit dat het bij Nvidia 2 PCBs zijn en Ati 1 PCB, blijven 2 GPU's)

Edit: veeeelste sloom natuurlijk ;)

[Reactie gewijzigd door wasted247 op 23 december 2008 17:09]

Beetje nutteloze opmerking, het zijn allebei oplossingen met 2 GPU's, alleen kiest AMD ervoor om ze samen op 1 kaart te plakken en kiest nVidia ervoor om twee kaarten met elkaar te verbinden. Qua formaat, kostprijs en verbruik zit er maar minimaal verschil tussen de twee.

Als je twee X2's tegen elkaar plakt krijg je dit waarschijnlijk niet meer goed gekoeld, of moet je naar een 3 PCI slot formaat gaan. Daarnaast zal de kostprijs en verbruik 2x zo hoog liggen als dat van een X2 of GTX295.
kostprijs zou inderdaad zo ongeveer 2x zo hoog zijn als voor een normale HD4870X2. De GTX295 is echter behoorlijk duurder om te maken door verschillende oorzaken. Niet in de minste plaats omdat de chip waarvan er 2 op de GTX295 elk bijna 2 keer zo groot zijn als de HD4870X2. Een andere kostenpost is de 2 PCB's die gebruikt moeten worden, tegenover de enkele (iets gecompliceerdere) van de HD4870X2. Op het gebied van geheugen zal Nvidia wel weer een klein beetje in het voordeel zijn, maar in totaal zal de oplossing van AMD toch wel iets goedkoper zijn om te produceren. Ze kunnen dan ook simpelweg gaan concureren door het verlagen tot een winkelprijs die Nvidia niet kan volgen zonder zichzelf erg veel pijn te gaan doen.

Maar goed, het zou een monsterkaart worden, die geen enkel ander nut zou hebben dan kunnen zeggen dat ze de snelste single-slot oplossing hebben. Zo lang de GTX295 niet overtuigend elke benchmark wint op elke resolutie met verschillende settings, is dat marketing-technisch dus niet echt nodig.
Haha, je spreekt je zelf grandioos tegen... Dit is juist het antwoord op de 4870X2 die ook een dubbel pcb heeft

[Reactie gewijzigd door C-Gate op 23 december 2008 19:57]

Als je de reacties had gelezen had je ten eerste gezien dat al menig persoon dit gemeld had en los daarvan AMD gebruikt maar een PCB waar ze twee cores op stoppen.
Over 5 jaar zijn die dingen net zo groot als een complete pc. Of ze moeten dan op 22nm zitten ofzo...
Inderdaad, ik zit met een 9800gtx en die vind ik (zeker voor een single GPU) al belachelijk groot.
Komt mijn airflow niet echt ten goede (zit een fan onderin) en ik heb maar 1 plek van al mijn PCI-express sloten (4) waar hij in kan ivm connectoren etc.
10 jaar geleden hoorden we hetzelfde gezever over voodoo2 kaarten, die waren ook super lang voor die tijd...
Je moet gewoon kiezen wat je wil, als jij per se het beste van het beste aan videokaart geweld wil dan moet je ook maar een groot genoege kast en een zwaar genoege PSU kopen en niet zeuren. Wil je dat niet, simpel, niet zo'n kaart kopen maar bv een 4670. Als genoeg mensen dat doen dan merken de fabrikanten vanzelf wel dat de markt niet van die grote kaarten wil. Ik denk echter dat de fabrikanten er bijzonder weinig van zullen merken omdat de meeste mensen alleen maar zeuren maar ondertussen wel de dikke power willen waar de afmeting/powerdraw voor nodig is.
hoezo zou je alles moet accepteren?

ik vind het goed als de kaarten niet te groot worden gemaakt, en erg zuinig zijn.

Of ben jij zo iemand die alles maar accepteerd wat bedrijven doen en produceren?
Ik zeg toch, als je dat niet wil dan moet je niet zo'n kaart kopen? Daarmee accepteer je juist niet waar fabrikanten mee aankomen. Als je alleen een beetje loopt te klagen op een forum maar ondertussen die kaarten wel steeds blijft kopen dan zullen de fabrikanten echt niks veranderen hoor...
Omdat het een bij het ander hoort? Je moet ergens compromissen maken, en je kan niet performance en laag stroomverbruik en kleine kaarten combineren. ATI en NVIDIA kunnen niet anders dan grote borden, grote chips en veel energieverbruik hebben. De consumenten willen echter steeds meer performance, en dus geven ATI en NVIDIA hier gehoor aan. Als je daar een probleem mee hebt moet je zoals finraziel al zegt gewoon een budgetkaart kopen, of gewoon een IGP gebruiken, kost stukken minder en geeft veel minder hitte af.
De mensen willen steeds meer performance, omdat de nieuwe spellen ook steeds meer eisen van het systeem. Misschien willen ze het geeneens, maar worden ze er door de ontwikkelingen op game-development erdoor gedwongen. Verschil met de console is dat het tempo van de ontwikkelingen bij de pc veel sneller gaat; het is amper bij te benen.
onzin, in elk spel is het grafische detail terug te schroeven terwijl het spel gewoon speelbaar blijft. Eye candy lovers willen gewoon een machtige kaart zodat ze grafisch alles op max kunnen zetten.
Niks geen onzin; hoevaak hoor je niet: ik wil dit spel spelen, op max settings; wat heb ik nodig ?

Hou nou niemand voor de gek, als jij veel geld hebt neergelegt voor je systeem/gpu(s) ben je echt niet blij als je de settings op medium of low moet zetten |:(
Wat voor Pietje veel geld is is voor Jantje een koopje. Op een pc kan je meer dan een spelletje spelen. Als je enkel een pc nodig hebt om te gamen kan je kwantitatief gezien beter een console kopen als buget niet al te hoog is.

Wil je op de eerste rij zitten dan betaal je daarvoor. Een echte nederlander dat ben je dus wel ;) . Daarnaast kan je al met een kaart van zeg 100 euro al 99% van de spellen op high spelen als je geen vista draait. Ik heb zelf een 8800gt kaart en kan "Far cry 2 (minstens 30fps) en NF Undercover" heel goed spelen op 1680x1050.

De eerste aanschaf van een pc is een investering maar bij een update of aankoop van een nieuwe pc hoeft niet alles nieuw te worden aangeschaft . Dit mits je ervoor goed onderzoek hebt gedaan en niet +5 jaar wacht voordat je gaat updaten(een console gaat ook niet (veel) langer mee). Daarnaast is bij de meeste mensen met als hobby auto's , de eerste auto ook niet direct een Lancer Evo of een Nissan Skyline.
Daarnaast kan je al met een kaart van zeg 100 euro al 99% van de spellen op high spelen als je geen vista draait. Ik heb zelf een 8800gt kaart en kan "Far cry 2 (minstens 30fps) en NF Undercover" heel goed spelen op 1680x1050.

ja, zonder 8x FAA en zonder 16x ATF en zonder V-sync en zonder Supersampling!
inderdaad, prima te spelen zonder al die overbodige dingen dus !
Of bedoelde je dat niet ?
@Emiel1984: Vista is eigenlijk alleen een groot belang voor CPU en RAM, dus daar heeft die videokaart weinig mee te maken. Bovendien is een DX10 game voor die videokaart makkelijker te renderen waardoor het juist een hoger aantal frames zou moeten hebben met de nieuwste drivers. ;)
Maar je hebt wel helemaal gelijk dat mensen met een dure PC hoge eisen stellen en de gamedevelopers de vraag stillen. Immers, ze willen verkopen en dat lukt nu kennelijk alleen als het grafisch er supermooi uitziet.
Hee Games op Vista Gaat tegenwordig net zo snel of sneller dan op XP.

Tus praat niet zo St*m dat het niet snel draait op Vista.

Jij bent zekker iemand die geen vista heeft he.
hoezo zou je alles moet accepteren?

ik vind het goed als de kaarten niet te groot worden gemaakt, en erg zuinig zijn.

Of ben jij zo iemand die alles maar accepteerd wat bedrijven doen en produceren?
Er zijn toch kleine en zuinige kaarten op de markt dus ik snap je punt niet.
Ik begrijp het niet hoor... Die videokaart zit gewoon in je PC en daar heb je totaal geen last van. Het is even proppen om hem goed aan te sluiten. Maar het defies is koop een fatsoenlijke kast en ga daar juist niet op besparen.

Ik zou ieder gelijk geven als de videokaart even groot is al je huidige computerkast en er naast neergezet moet worden. Maar mijn kast voorziet in de ruimte, mijn moederbord voorziet in de ruimte, dus wat is nou het probleem?
Als je het een oud forum leest over de 8800GTX dan komt hier regelmatig naar voren dat deze niet altijd in de kast past (zonder dat de gebruiker de kast moet modificeren).

Daarnaast gebruikt een kaart van dat formaat ook aardig wat energie tov van zijn kleinere voorganers en tegenwoordig ook wel is opvolgers. Jouw kast is wellicht groot genoeg maar sommige mensen willen niet zo een grote kast in de kamer hebben staan. Die zien enkel een gameconsole die veel kleiner is maar lijken niet altijd te beseffen dat een pc uit meer losse onderdelen bestaat.
precies grote boeid geen drol. als hij maar koelblijft en lekker stil en snel is voor een niet altehoge prijs. zo vind ik dat de 4850x2 van sapphire een zeer fijn prijspunt berijkt. ongeveer de zelfde prijs als een 4850 crossfire opstelling kost en toch sneller een dikke 2 gb en 95 watt minder stroom verbruik dan de 4870x2. alhoewel ik de gemodde stock intel fan achtige heatsinks en koeling nogal lelijk vind en verwacht dat dat ding een hoop herrie maakt. Ik zou liever een asus variant zien met kopere heat sinks die is dan wel 20 euro meer waard :D. maar deze GTX295 is zeer snel man en zijn geld tegenover ati zeker waard. hopelijk gaat de 4870x2 flink in prijs naar beneden en komt ati tegen die tijd ook met een refresh. zeker de moeite waard om rond maart ofzo een keer te gaan kijken voor een nieuwe videokaart voor me zelf. maar het is wel zonde van het geld als je een te dure koopt imho want dan heb je een kachel met een hoog energie verbruik terwijl je de zelfde prestatie winst hebt als je eens in de 2 a 3 generaties een andere koopt voor minder geld nog ook.
Yo scherpmes, ik snap je met uitroeptekens beladen reactie niet.

Als ik het zo lees vind je het een kromme combinatie als je net een kast hebt van 250 euro en "grote kut kaarten".
Ik denk dat de "luxe kast" (bigtower beginnend vanaf 100 euro) prima is voor wel 3 van deze grote kaarten, mits je een goede airflow maakt dedicated voor de kaarten.

Wat ik niet snap aan de overclock is dat ze niet ergens een stapje verder zijn gegaan om het minimale 3Dmark verschil nét te verbreken.
Zal wel meevallen denk, de lengte van deze kaarten zijn niet veel groter dan voorheen. ATI zowel als Nvidia (Radeon 9800 bijv.) hadden van deze lengtes ook als je kijkt naar de P1 of 486 computers, alleen daar waren de geluidskaarten bijv super lang, maar ook andere kaarten als videokaarten.
Wat betreft de dikte wel ja, vroeger was het normaal als ze 1 slot in namen met uitzondering van een paar dure kaarten, deze namen dan 2 slots in. Maar sindsdien de dual revolutie, worden ze alsmaar dikker en dikker.... Maar dat zal van loop ter tijd wel weer minder worden, dankzij nieuwe technieken...
vraag me eigenlijk af... is de Voodoo 5 niet net zo groot als de high end videokaarten van tegenwoordig? Die V5 was echt een bakbeest voor z'n tijd :p
fff gemeten voor je en mijn oude voodoo5 5500 is precies even lang als mijn hd4870.
Ik snap dat probleem van de grootte van de kaart ook niet.... koop je kaart voor 500euro, cpu, geheugen en moederbord samen ook voor zoiets, om dan vervolgens te besparen op de kast? |:(
Bakbeest maakt niet uit als de competitie ook bakbeesten zijn. Maar daar zit juist het problee.

De GTX295 is marginal meer vermogen slurpend maar net meer performance leverd dat het gemiddeld toch overwegend de 4870X2 verslaat. Het is dus meer 'n GTX260+x2. 'n Grotere chip op 55nm onderklokken helpt ook om een lichtere 55nm chip op full speed te kloppen. Alleen de aantal chips uit en wafer is minder en dubbele 448bit PCB. Maken de kosten hoger maar kan deels gecompenceerd worden door ATI GDDR5 duurder men. Dus voor IHV verschild het minder maar ATI heeft lager kosten puur alleen de GPU kosten.
Ze zijn nog steeds even groot als de 8800GTX hoor. Qua printplaat is er niets veranderd. Alleen loopt nu de koeler over de gehele kaart ipv 2/3 zoals of de 8800GTX.

Ik denk dat ze straks weer kleiner worden door een nieuwe technologie, net als voorheen is gebeurd ;)
En dan vraag ik me nu af of je 1 core dedicated PhysX kan laten draaien?
Beetje overkill, ok heel veel voor alleen PhysX maar het lijkt me een ideale feature.

[Reactie gewijzigd door Double-X-L op 23 december 2008 16:51]

Ik vraag me dan af of het geen overkill is om een core alleen de physX te laten draaien, dat zou zonde zijn van de snelheid als hij uit zijn neus staat te eten terwijl de andere core staat te zwoegen over de rest van de game xD

Als je bedoelt dat je een goedkoop kaartje kan omvormen tot PhysX only berekenningen en de zware kaart de game laat renderen, dan ben ik helemaal voor! :9
Wanneer SLI en PhysX beide tegelijk enabled zijn is dat errug veel sneller. Waarom zou je 1 core dedicated PhysX willen laten draaien?
Ik gok dat je 'n CPU core bedoeld.
Dev's kunnen Physics in een apparte tread afhandelen. Maar als in de game compute flow andere delen hier op zitten te wachten zijn nog steeds 2 á 3 cores idle.
Game engine flow is deel serieel en onafhankelijk.

Game tread manager.
IO sound en helper treads
Dan depending stages moeten even pieken door de task te verdelen in beschikbare core. Op 'n CI7 zijn dat er dan 6.

Maar dan blazen mogelijk de high-end gPU nogb steeds harder met Physics en ook dedicated midrange.
.
Nee, hij bedoelt GPU, anders is zijn opmerking totaal niet relevant voor het artikel..

Physics zijn tegenwoordig dusdanig complex, en een GPU kan het allemaal een stuk sneller uitrekenen. Gezien de trend van multi-gpu opstellingen, en de trend van nog steeds te weinig multi-threading in games, zouden we weleens tegen een CPU bottleneck aan kunnen gaan lopen.

Er was eens een benchmark ik geloof op Tweakers van een synthetische tool en er werd substantieel meer FPS behaald door een GPU de physics te laten berekenen. Er toen gesuggereerd dat een lowend of midrange kaart als de 9600GT voldoende zou kunnen zijn voor de physics. Je zou dan 2x GTX280 of een GTX295 samen kunnen laten werken met een 9600GT.
Deze kan je dan naast een 8600gt zetten of zo. De gtx295 voor de graphics en de 8600gt voor de physix. Klinkt geweldig als je het mij vraagt!
ik altijd maar denken wat is die 9800GX2 lang en voor die kaart de 8800 ULTRA maar dit is toch wel echt madness... :O

wel mooie prestaties ben erg benieuwd naar de GTX 285 om eerlijk te zijn een 55nm GTX280 is dat eigenlijk dus kan je nagaan wat daarmee gescoord gaat worden :D
wanneer komt er een 4870X3 ? ;)
Maar mooi, dat NVIDIA weer de snelste is. Ik ben geen fanboy van NVIDIA of ATI, maar zo gaat we tenminste wel vooruit. Want nu moet ATi weer met een tegenzet komen om de snelste weer te zijn. En daar kijk ik ook naar uit.

[Reactie gewijzigd door Zenix op 23 december 2008 17:27]

Vind het wel mooi. Is eigenlijk dus een 9800GX2 kaart?(maar dan beter) 2gpus op 1 pci-e. 500e is dan wel goed prijsje. Alhoewel het niets voor mij is, het hoogste waar ik op dit moment voor ga is een gtx260 (core 216). Dat is opzich goed genoeg, en ook goed qua prijs.

Net als zenix ben ik ook benieuwd wat ATIs antwoord hierop is.

Dovan007, of je nu 2xgtx280 erin gooit, of één zon kaart, het is altijd raak met verbruik, laat staan 2 van deze bakbeesten (of 3 gtx280s)

[Reactie gewijzigd door rCk op 23 december 2008 17:44]

De vloer aanveegt met de 4870X2?

Gemiddeld 10-15% sneller (en op superhoge resolutie met AA vaak langzamer) is 'de vloer aanvegen'? Baseert de nieuwsposter zijn uitspraken op marketingslides van nVidia? Of is niet de moeite genomen om meerdere reviews te bekijken?

Jammer, ik verwacht wel van een objectieve site als Tweakers.net dat dit gecorrigeerd wordt. Temeer omdat deze kaarten nog niet eens te krijgen zijn.
Wat bij mij de grootste vraag blijft:

Hoe presteert SLI tegenover Crossfire, in verschillende games en hoe goed schaalt het? Hoe gaan games met beide dual-GPU-technieken om?

(SLI is de dual-GPU-techniek van NVIDIA,)
(Crossfire is de dual-GPU-techniek van ATI.)
zo ver ik weet (zonder bewijs), schijnt crossfire beter op te schalen...
Dat was eerst zo, maar nvidia had zijn sli ook weer flink verbeterd.
je moet ook eigenlijk gewoon kijken naar de totale prijs/prestatie verhouding dan hoe ze het beste met zijn 2'en werken.
Dat is heel verschillend per game en in welke periode met laaste driver.

CF schaald beter maar SLI benut al veel eerder geoptimaliseerde drivers. Soms is het anders om maar dit licht aan TWIMTB en GitG ge lobby van beide.
Bij Tri en Quad is het nog extremer.

Zelf zou ik nooit verder willen gaan dan twee GPU ivm de grillige schaling.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True