Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: The Inquirer, submitter: Bravebart

The Inquirer bericht dat de eerste samples van nVidia’s nieuwe generatie videokaart al over een week de fabriek zullen verlaten. De G71-chip zal de concurrentie aan moeten gaan met de ATi R580 en zal waarschijnlijk begin februari officieel geïntroduceerd worden. De introductie van de R580 staat voor eind januari op de agenda, maar wellicht zal nVidia de introductie een stukje naar voren opschuiven om zo de G71 ruwweg tegelijkertijd met de R580 ten tonele te laten verschijnen.

Verwacht wordt dat de kloksnelheden van beide chips ongeveer gelijk zullen zijn. ATi mikt op een kloksnelheid van 650MHz voor het topmodel terwijl de nVidia G71 zijn werk rond de 700MHz zal doen. Het grote verschil tussen de chips moet niet gezocht worden bij de kloksnelheid, maar bij de configuratie van de pipelines. ATi heeft gekozen voor 16 texture mapping units in combinatie met 48 pixel shaders, terwijl nVidia de chip heeft uitgerust met 24 texture mapping units in combinatie met 32 pixel shaders. Het zal waarschijnlijk sterk afhangen van de gebruikte applicatie welke configuratie de beste prestaties neerzet.

Moderatie-faq Wijzig weergave

Reacties (57)

@multipasser.

Ik vraag het me af of ze harder als ATi werken aan software. Bij ATi ben je verzekerd van een maandelijkse update..bij nVidia is het altijd maar afwachten wanneer er weer een nieuwe WHQL-certified driver uitkomt. nVidia ligt btw wel voor op het gebied van linux-ondersteuning.
Ik heb eerder het idee dat de maandelijkse release van ATI (te) veel druk zet op het software-team. Iedere keer heb je een snelheidsverhoging/daling en/of een nieuwe feature/bug. Nooit eens een versie die op alle vlakken beter is dan de voorgaande (over vele maanden). Dat maakt het voor de consument ook lastiger om een geschikte driver te vinden.

Bij NVIDIA is de laatste WHQL driver voor zover ik weet altijd de beste. De meest recente spellen draaien misschien niet altijd aan optimale snelheid, maar grote bugs ben ik al voor lange tijd niet meer tegengekomen. En zoals Gaming zegt komt er voor de enthousiastelingen altijd wel een paar tussentijdse releases. Dat ze niet WHQL zijn wil niet zeggen dat ze niet stabiel of conform zijn, ze zijn gewoon niet door Microsoft zelf gecertifieerd (wat veel tijd en geld kost).
Bij ATI mag de laatste driver niet altijd perfect zijn, maar dat bij Nvidia de laatste WHQL altijd de beste is, is al helemaaaal niet waar.

Maar bij beide bedrijven is de driver situatie gewoon heel acceptabel. Totaal niet vergelijkbaar met de situatie van een drie jaar terug.
Bij ATI mag de laatste driver niet altijd perfect zijn, maar dat bij Nvidia de laatste WHQL altijd de beste is, is al helemaaaal niet waar.
Wil je dan ook ff uitleggen waarom dit dan zo is? Je zegt namelijk zomaar iets, zonder argumenten te geven.

Overigens ben ik het wél met je eens dat bij beide bedrijven de software development heel acceptabel is. Van beide kaarten gehad, beide tevreden geweest over de drivers al vind ik persoonlijk de nVidia drivers fijner werken, professioneler overkomen, maar dat is puur persoonlijk.
Omdat het bij Nvidia eigenaars als de normaalste zaak van de wereld wordt beschouwd dat je meerdere drivers gebruikt.
omdat de ene driver beter werkt met het ene spel en de andere met het andere spel.

Bij ATI zie je dat niet gebeuren. Als het al een keer voorkomt dat een andere driver wordt aangeraden dan de meest recente, dan is het één versie waar iedereen het dan over eens is dat die voor alles het beste is. En niet drie verschillende.

Maar dat hoef je niet van mij te geloven. Dat kun je gewoon zelf constateren op bv nvnews.net.

Overigens heb ik blijkbaar altijd geluk met drivers, want ik kom al die problemen maar zelden tegen.
Soms lijken mensen drivers alleen maar te beoordelen op wat andere mensen in fora claimen, ipv zelf te kijken hoe ze het doen op hun eigen systeem. Ik zie in fora vaak mensen zitten klagen over drivers, terwijl het overduidelijk is dat ze gewoon brakke hardware hebben, of zelf hun systeem om zeep hebben geholpen.
ik heb een AGP ATi x800xtpe (ja idd een zeldzame kaart :)) en daar draaien de laatste drivers niet op (bsod bij advanced display properties). Toen ik naar ATi mailde over dit probleem kreeg ik een mailtje terug dat het een known issue was en dat ze eraan werkten. Iets later kreeg ik van dezelfde kerel een mail maar dan van zen gmail adres waar bijstond dat de omega modded drivers dit probleem niet haddden omdat ze een oudere inf gebruikten.
Men 7800GT pci-e daarentegen heb ik nog nooit probs gehad, elke driver release gaat een beetje sneller/stabieler enkel de vivo op ati kaarten werkt beter (beter zelf dan sommige standalone kaarten) en men vader doet er nogal wat analoge video bewerking op.
En o, breek me de bek niet open over win64 support van ati, die drivers beginnen nu pas wat stabiel te draaien terwijl men nvidia'tje al lekker een half jaar draait.
WHQL maakt voor mij niet zoveel uit, en als je daar niet oplet dan komt er elke week zowat een driver voorbij van Nvidia, soms verbeterd het amper iets maar je hoeft in iedergeval geen maand te wachten.

*Vanuit een andere invalshoek. :)
@ inn87
Nou de 8xxx niet want dat zou een geforce 8 zijn,de 71 ook niet want dan zou hij langzamer zijn dan de 7800 zou zeggen iets van 7850 of 7900 of ........
Of plotseling toch een ultra? :7
nee, want dat was eigenlijk al de 7800 gtx 512. Die 256 extra mb voegde volgens mij niet al teveel toe, maar wel die wreed overgeclockte core en memory. Deze kaart is gewoon een hele nieuwe gpu, maar niet een nieuwe serie (8000) aangezien de low end en volgens mij ook de mid end kaarten (resp. 7200 en 7600) nog niet eens uit zijn. ik denk dus dat deze kaarten gewoon 7900 zullen gaan heten, met dan nog de toevoeging (LE, GT, GTX en wie weet ultra, maar ik denk het niet want ze hebben niet voor niets die naam laten varen bij de gtx 512, die naam stond gelijk aan slechte verkrijgbaarheid. Eigenlijk hadden ze hem dus wel ultra moeten noemen :P). Nvidia zit de laatste tijd alleen maar in het high end segment (6800gs daargelaten). Ati heeft in de x1000 serie wel al een low end en mid end reeks volgens mij.
Ik heb nog haast niks over dit ding gehoord, hoe gaat deze heten? 7100??? 7900? 8800?

Van ati weten we iig dat het een x1900 wordt. Wat ik me ook afvraag is waarom Ati kiest voor een meer op pixelshaders gerichte kaart en Nvidia niet?
7900
Wat ik me ook afvraag is waarom Ati kiest voor een meer op pixelshaders gerichte kaart en Nvidia niet?
Nvidia is meer op pixel shaders gericht dan ATI. Nvidia heeft immers 32 pixel pipes, ATi maar 16. Nvidia kan dus 2x zoveel pixels verwerken dan ATI. ATi kan dan weer meer pixel operaties per clock uitvoeren want het heeft 48 pixel processors.
Om jouw eigen woorden te gebruiken:
Mooie voorspelling, maar je weet duidelijk niet waarover je praat. Misschien eerst eens informeren?
ATI heeft 16 pixel pipelines waarmee per clock dan 16 pixels verwerkt kunnen worden.
Echter heb je per pipeline 3 shader units waardoor je op elk van die 16 pixels 3 shader operaties per clock kunt uitvoeren.
In totaal dus 48 pixel shader operaties.
Nvidia heeft 32 pixel pipelines en verwerkt dus 32pixels tegelijkertijd, maar heeft 1 shader unit per pipeline.
In totaal dus 32 pixel shader operaties.

Bij ATI behandel je dus het plaatje in kleinere brokjes, maar doe je meer handelingen per klok. Bij Nvidia gebruik je grotere brokken, maar doe je minder handelingen per klok. Uiteindelijk is het gewoon lood om oud ijzer waar je voor kiest.
Wat telt is het aantal handelingen wat je uiteindelijk uitvoert.

Nou is de situatie nog weer wat complexer dan dat omdat de ALU's bij Nvidia niet dezelfde mogelijkheden hebben waardoor de uitkomst iets gunstiger kan uitvallen.
Maar één ding staat in ieder geval als een paal boven water, en dat is dat je absoluut niet kunt stellen dat Nvidia meer op pixel shaders gericht is dan ATI.
andersom

ATI richt zich op pixel shaders
nvidia richt zich vooral op pixel processors.
je weet echt niet waarover je het hebt. ATi heeft meer pixel processores dan nvidia.
just wait till next week ;)
ik vraag me ook af hoe ze heten.. duss...

ATI en nVidia zullen nu goed met elkaar concureren, aangezien ATI maar met 16 TMU's komt, en nVidia met 24, maar dit compenseerd waarschijnlijk weer met het aantal shaders... aangezien ATI er 48 gebruikt, en nVidia maar (of maar.. :9 ) 32...
het zal een hele strijd worden...


k ben benieuwd........ }>
Laten we ruwweg zeggen dat ATI en NVIDIA evensnel zijn!
Maar niemand spreekt over de driver support.

Heeft ATI nu al zijn problemen al opgelost?
Zoals hun AVIVO encoding wat nog in een betastadium zit enzo.

Over de drivers van nvidia kan je niet echt klagen. Ze werken duidelijk harder op software gebied dan ATI. imo
Welke problemen? De laatste tijd komt ATi regelmatig met drivers aan wapperen. Dat de driver support achterloopt is allang achterhaald.
Heeft ATI nu al zijn problemen al opgelost?
ik durf zelfs te beweren dat de ATI drivers beter zijn als die van nvidia. zeker een tijdje terug, en al helemaal als het als het op nieuwe kaarten aan kwam.
inmiddels lijkt nvidia weer op de goede weg maar ten tijden van de 6xxx serie geloof ik was het echt een zooitje met al die beta's die je moest proberen voor je er eentje vond die werkte voor het spel dat je wilde spelen.

ok linux gebeid lopen ze nog wat achter, maar zeker de laaste driver is echt stukken beter als de vorige. (je pc kan nu zelfs op standbij zonder vast te lopen ;) )
dus het lijkt erop dat ze ook daar flink aan het verbeteren zijn.
Ik durf zelf zeggen dat dit niet zo is. Crossfire support is nog steeds brak (reviews genoeg), Avivo werkte pas in de laatste drivers (22 dec) maar H.264 decode/ transcode werkt nog steeds niet dit terwijl de kaarten met Avivo al 3 maanden gereleased zijn, FEAR performance was ondermaats door een driverbug, enz ...

Ja ze zijn op de goede weg zullen we maar zeggen, maar zeggen we dit al niet 3 jaar?
De troll is gestart door countess maar wat losse flutbeweringen zonder concrete argumenten. Mijn reactie is daar een antwoord op en ik kan elk argument staven met linkjes. Je mag altijd proberen van het tegendeel te bewijzen.
nvidia fanboys lijken een erg kort geheugen te hebben als het op nvidia aan komt en er een erg lang geheugen als het op ATI aan op komt.

ik weet van meerdere mensen dat ze gewoon 6 a 7 verschillende nvidia beta drivers moesten proberen voor het spel dat ze wilde spelen werkte. (non-beta was oud en werkte zowizo niet)
dat is gewoon een feit. niks troll dus.
en over H.264 moet een nvidia gebruiker al helemaal niet beginnen, nvidia ondersteuned het nog niet eens.
ze zeggen alleen dat ze het wel kunnen hebben het tot nu toe nog nooit laten zien.

bij ATI heb ik dat nog nooit gehad. (heb ATI since 9700PRO een van de eerste die er een had en ik heb all drivers wel gebruikt en het overgrote deel van alle spelen wel gespeeld)

dat avivo nog niet 100% werkt. tja schijt. ik wil mijn games kunnen spelen.
en avivo werkte trouwens wel prima in de vorige drivers, alleen de kwaliteid was toen nog niet zo super. met de 5.13 release is dat verbeterd en zijn ze nu beter als nvidia.

en een driver bug in fear? daarom zuigen het hele ATI driver team ineens? sorry hoor maar dat is gewoon echt een dommen en kortzichtige opmerking.
zullen we de change logs van nvidia er eens bij pakken en alle driver bugs gaan bekijken?
driverbugs gebeuren gewoon, bij zowel nvidia als ATI.
Don't feed the troll...
Je opmerking riekt naar flamen.

Met de laatste Driver-Update is AVIVO sterk verbetert. Zo goed zelfs, dat ze de mooiste beelden neerzetten.

Beter dan Nvidia }>
Ah ze zijn er nog niet klaar mee! Laat ik gelijk mijn wensen even invullen dan kunnen ze dat nog even implementeren:

- Passief gekoeld
- GPU kan automatisch verspringen tussen verschillende kloksnelheden
- Minder stroom trekken als zijn laatste voorgangers

Zo, dat waren ze.
klinkt alsof je de 7800GTX zoekt , is alleen niet passief gekoeld, maasr hij heeft wel 3 standen qua clocksnelheid afhankelijk van hoe druk ie t heeft en trekt minder stroom dan een 6800 ultra.
AHEM...

Van SAMPLE naar RELEASE en beschikbaarheid in winkels in 3 weken?

En als ze tegelijk willen zijn met ATI (24 jan.) dan zelfs in 2 weken?

Als ze over 2 weken willen lanceren dan moeten de AIBs nu al massaproductie draaien. En dat kan dus niet als nu pas de eerste samples bij Nvidia de fabriek verlaten.
Maar wellicht is de woordkeuze van The Inq gewoon erg onhandig en hebben ze het over de AIBs?
samples in de zin van, dit word de chip maak er maar een printplaat voor.
de chip is dus klaar voor productie. en de eerste samples gaan richting kaarten bouwers.
Maar dat is dus precies het probleem.

De chip moet nu niet alleen maar klaar zijn voor productie, hij moet nu al in massaproductie ZIJN, anders haal je 24 jan niet.

Van chip naar retail box in de winkel gaat namelijk heel wat tijd overheen. De gpu's moeten namelijk eerst in massaproductie bij Nvidia binnenkomen, vervolgens verstuurd worden naar de partners. Die moeten ze installeren op PCBs, verpakken etc etc, die moeten ze distribueren naar de groothandels wereldwijd en die moeten ze distribueren naar de winkels.

Iedereen zal begrijpen dat dat traject tijd kost.
Met maar 18 dagen tot 24 jan zou het misschien net mogelijk zijn. Maar dan alleen maar als de chip OP DIT MOMENT daadwerkelijk in productie IS.

Als de eerste samples nu binnen gekomen zijn, dan gaat er normaal gesproken al een week overheen voordat ze goedgekeurd zijn voor massaproductie.
Maar dan alleen maar als de chip OP DIT MOMENT daadwerkelijk in productie IS.
dat probeer ik dus te zeggen. dat zijn ze.
deze samples zijn de eerste die van de massa productie band af rollen.
Heb je daar dan nog een andere bron voor?
Want zoals het nu bij The Inq staat, komen volgende week de eerste samples beschikbaar, maar dus niet de eerste massaproductie batch.

De eerste daadwerkelijke massaproductiebatch betitel je niet als samples.
Aan de andere kant is Fudo geen native english speaker, dus wellicht heeft ie gewoon de verkeerde term gebruikt?

Aan de andere kant heeft ie wellicht wel gelijk en komt mijn voorspelling uit dat het over is met de "mass availability on product launch" zodra Nvidia weer serieuze concurentie heeft van ATI.
(Niet dat ik dat hoop overigens. Het liefst zie ik van beiden een launch op 24 jan, met de volgende dag kaarten in de winkels.)
Echte AIB modellen komen pas later, in het begin zijn er enkel reference modellen. Anders is een volume launch niet mogelijk.
En wat is het aantal ROPs en schrijven die wel of niet aan dubbele snelheid naar de z-buffer en stencil buffer? Dit is een van de sterkste punten van de huidige NVIDIA chips. Als ATI daar niet aan gewerkt heeft zie ik niet hoe ze met een lagere kloksnelheid de G71 zullen kunnen bijhouden. Shader-intensieve benchmarks zullen wel nog lukken, maar echte spellen...
Het aantal ROPs is totaal niet van belang voor de performance in huidige games. Daar zit de bottleneck niet.
Sommige sites denken daar anders over:
The only weak spots of the NVIDIA GeForce 7800 GTX seem to be the 16 ROP units and the relatively low memory frequency. In some cases the graphics processor may become limited by the number of raster operation units or by the memory bandwidth.
http://www.xbitlabs.com/a...splay/g70-indepth_18.html
Omdat sommige sites niet echt weten wat ROPs doen, en hoeveel je er van nodig hebt.

Dat is helaas gewoon de realiteit. En op zich is die kennis ook totaal niet nodig om een goede review te maken. En dat laatste is xbitlabs wel degelijk goed in. Daarom kom ik er ook regelmatig.

Maar om mijn standpunt wat duidelijker te maken. Om het simpel uit te leggen doet een ROP het volgende: Het pakt een pixel die helemaal "klaar" is van de GPU en stopt 'm in de framebuffer.
Dus pas als alle pixel shader operaties voor de pixel uitgevoerd zijn komt de ROP in actie.

Als je meer ROPs hebt, dan kun je meer pixels per clockcycle naar je buffer schrijven. En daarmee maak je de tijd die nodig is om een frame af te maken kleiner. Maar die tijd is nu al zo klein dat we met gemak 200fps halen. Is dat niet voldoende?
Een ander voordeel van meer ROPs is dat je hogere resoluties kunt gebruiken. Maar is er iemand die de huidige resoluties onvoldoende vind?

De huidige trend is dat spellen weer zo zwaar worden dat je 1600*1200 4xAA en alle eye-candy niet eens haalbaar is, maar dat je één van drie terug moet schalen.

Overigens gaan de experts bij Beyond3D er vanuit dat G71 gewoon 16 ROPs.

Mensen die er meer van willen lezen kunnen eens met deze thread beginnen:
http://www.beyond3d.com/f...thread.php?t=26829&page=2
Ook ATi heeft inmiddels sinds de X1K serie de mogelijkheid om ROPs op dubbele snelheid naar de z/stencil buffer te schrijven. Dit is al toegepast op de X1600 serie die maar 4 ROPs heeft, maar wel een verdubbelde Z/Stencil schrijfsnelheid heeft van 8.

ATi heeft nu TMUs, ROPs, Fragment Pipes van elkaar losgekoppeld en daar kunnen ze mee spelen met andere nieuwe kaarten.
ATi heeft gekozen voor 16 texture mapping units in combinatie met 48 pixel shaders, terwijl nVidia de chip heeft uitgerust met 24 texture mapping units in combinatie met 32 pixel shaders.
komt dat er niet een beetje op neer dat nvidia er meer FPS door kan raggen in oudere games in hoge resoluties en dat ATI daar minder hoge scores zal halen (maar waarschijnlijk nogsteeds ruim genoeg om fatsoenlijk te kunnen spelen) maar in de nieuwere games waar veel met pixelshaders word gewerkt ook in hogere resoluties toch nog een goede FPS kan neerzetten, waar nvidia het dan weer wat zal laten afweten?

kan moeilijk kiezen worden, en dat word zeker reviews aandachtig lezen. zowizo kan 1 enklen game nooit meer het hele beeld geven.
het nieuwe 3dmark 2001 record (non-oc) zal zeker naar nvidia gaan denk ik.
en de 2005 naar ATI denk ik.
2003 zou ik niet weten.
Ik denk dat ook veel zal afhangen van wat de marketingafdelingen presteren bij de verschillende spelontwikkelaars. Die van nvidia zullen natuurlijk het aantal pixel shader operaties willen beperken en het aantal pixels shaders willen verhogen.
En wat moet dat dan volgens jou bewerkstelligen?
Als ik het aantal pixel shader operaties beperk dan leg je minder werklast op de pixel shader units. En als je het aantal pixel shaders verhoogt dan leg je meer werklast op de pixel shader units.
Wat moet daar dan het positieve resultaat van zijn?
Simpel gezegd: Ati maakt goed geteste drivers, maar erg weinig op jaarbasis. Nvidia doet hetzelfde maar geeft erg veel beta's uit tussendoor en ook officiele tussenversies. Beide hebben hun voordelen, niet nadelen zoals alle "fanboys" nu wel gebruiken. Kwaliteit is uiteindelijk op een gelijk niveau. Wees blij dat die support er tenminste redelijkerwijs is, schijnt bij S3 wel anders te zijn.
@XLeration

Dat nieuwe drivers geen ondersteuning voor oudere kaarten bieden is onzin. Catalyst 3.5 bied exact dezelfde ondersteuning voor een 9800 als nu de 5.13 (voorbeelden). Alleen is het wel zo dat er bij het schrijven van de drivers niet meer specifiek op de oudere chips wordt gericht. Na een anderhalf jaar maandelijks nieuwe drivers mag toch ook wel worden verondersteld dat de software voor een chip goed geoptimaliseerd is.
Voorbeeld: de verbeterde OpenGL support van Catalyst 5.12 heeft voor mijn 9800Pro ook tot een aanzienlijke verbetering in bjiv. Doom3 geleid.

@inn87

Is de naam X1900 echt al officieel? Voor zover ik weet heeft er nog niemand van ATI iets uitgelekt over de naam van de R520. (overigens lijkt X1900 me idd wel het meest waarschijnlijk)
X1900 is officieel. Ik heb hier een "Product Advisory - X1900 Series" voor me liggen van ATi.
Ik bedoel natuurlijk R580
je hebt een edit knop als je wil verbeteren (dat kleine icoontje voor "gepost door timaniac" bovenaan je post.
ik kon met de nieuwste drivers van nvidia geeneens drirect3d spellen spelen met mijn ti4200 terwijl ik hem 2 x opnieuw heb geinstalleerd

heb gewoon 44.03 gedownload die perfect werkt

ATI vind ik kwa software toch veel fijner, ten eerst werkt die catalyst control center erg fijn en ten 2de is er elke maand een update dus leven bugs niet erg lang
ATi software fijner? Geef mij maar de detonator van nVidia.

Had altijd nVidia. Ben bij m'n laatste graka vreemd gegaan met ATi (x800 pro), maar dat is ook de laatste keer geweest. Ik vind het control center van ATi juist bagger. :r

Maarja, ieder z'n smaak...
Dus dat control center dat je wellicht 1x per maand nodig hebt, is de reden dat je liever nVidia hebt?

(terwijl er ook nog een heleboel alternatieven zijn voor ccc, waar ook Nvidia eigenaren gebruik van maken)
Of komen er juist bugs bij..
De ondersteuning voor oude kaarten is ook weggehaald in de nieuwere drivers

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True