Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: The Inquirer, submitter: timdeh

nVidia is begonnen met het versturen van de GeForce 6200 op basis van de NV44-chip, zo schrijft The Inquirer. Met deze stap zal nVidia de nodige besparingen kunnen realiseren; op dit moment wordt de 6200 namelijk uitgerust met een variant van de snellere, maar ook duurdere, NV43. De nieuwe variant is beschikbaar in versies met een 64 of 128-bits geheugeninterface. Volgens The Register zou de langzamere wel eens zijn plaats kunnen vinden in de 6200-SE. Om de overzichtelijkheid te behouden, zullen de videokaarten die worden uitgerust met de NV44 als naam 6200xx, met een nog onbekend achtervoegsel, krijgen. Nu de 6200 in grote aantallen beschikbaar wordt, ondersteunen alle huidige videokaarten van nVidia het Shader Model 3.0, terwijl ATi na eerdere scepcis waarschijnlijk pas in 2005 met S.M. 3.0 zal komen.

nVidia Geforce 6200-kaart
Moderatie-faq Wijzig weergave

Reacties (50)

Je ziet zo langzamerhand door de bomen het bos niet meer...De namen en ratings van videokaarten veranderen met de dag lijkt het wel...
Het is nu tenminste duidelijk dat een een hoger nummer bij een uitgebreidere kaart hoort (6200-6600-6800), maar Nvidia gebruikt voor de langzame modellen het XT-achtervoegsel, en voor haar snelste kaarten Ultra.
ATI daarentegen gebruikt het XT-achtervoegsel juist voor snelle kaarten, en gebruikt SE voor langzame kaarten.
In dit stuk lees ik dat de langzame kaart van Nvidia 6200SE gaat heten, dus ze stappen nu van XT af en gebruiken opeens SE? En voor hun huidige langzame modellen gebruiken ze LE, Ún ze hebben ook nog eens een GT-serie
Verder worden kaarten met groot geheugen als lokkertje gebruikt, maar een kaart met 256 MB geheugen en een 64-bits geheugeninterface zal toch echt minder presteren dan een 128 MB kaart met 128-bit... Hier speelt ook nog eens mee dat er tegenwoordig verschillende soorten geheugen op kaarten zitten: DDR en GDDR3.
De consument weet dit echt niet, dus het schept alleen maar verwarring en kan teleurstellend werken voor een leek die een goede kaart wil, maar dan met een mindere versie wordt opgescheept, omdat er flink in de geheugeninterface gesnoeid is.
Een beetje meer transparantie van de heren videokaartbakkers mag van mij wel...
Dat er heel veel verschillende soorten en types aan geheugen zijn en dat je door de bomen het bos niet meer ziet klopt idd. Maar al die verschillende technieken kan je niet zomaar in een typenummer verwerken, daar moet de consument zichzelf maar in verdiepen.
Een belangrijker punt vind ik echter dat er duidelijkheid ontstaat in de prestaties van de kaart. Niet per fabrikant, maar in zijn totaliteit. Want zoals je al zegt hanteren ATi en nVidia soortgelijke "codes" met tegengestelde bedoelingen.
Zou het niet goed zijn om een 3e onafhankelijke instantie in te schakelen om videokaarten te 'raten' of te 'bestempelen' met een typenummer?
Of dat er gewoon bepaalde (ISO?) normen worden opgesteld voor al die rare achtervoegsels ed.

[edit]

Het is een lange tijd een stuk duidelijker geweest, momenteel gaat het echt de verkeerde kant op.
Ik wist niet beter dan dat je de 'normale' variant had, zeg maar TNT2 32MB, en 1 met extra achtervoegsel "Ultra" genaamd. Maar ook toen al kwamen ze plots met gestripte M64 uitvoeringen, maar dat was alsnog een stuk duidelijker. Persoonlijk vind ik nogsteeds de 'Ultra' benaming voor de extra power variant de beste. Maar houd het dan bij een kaart met 'geen achtervoegsel' en een kaart met 'ultra achtervoegsel', en dan van mijn part nog wat andere langzamere varianten met een achtervoegsel die betrekking heeft op de 'lage' bitwaarde, of iets wat toepasselijk is voor deze tijd, zoals bitwaarde en pipelines.

Ik snapte het tot nu toe allemaal nog wel, maar dat het onduidelijk is begrijp ik volkomen. En er komt een tijd dat ik het ook niet meer bij kan houden. Ik zal niet altijd achter die pc blijven zitten :D
gewoon elke jaar een test systeem vaststellen en dan de kaart {jaartal}-{3Dmark score} noemen, maar ja dat zou te simpel zijn :(
En iedereen zou gaan brullen dat 3dmark geen eerlijke benchmark is. Sowiezo is ratings geven altijd heel erg moeilijk. Alle processors presteren anders ten opzichte van elkaar in bapaalde situaties. Je kunt dus nooit een enkele rating aan iets geven. Maar toch zou een rating al wel een stuk duidelijker zijn, je zal dan tenslotte nooit meer per ongeluk een videokaart kopen die 'net nieuw is, zoals deze uit dit topic', terwijl hij bij thuiskomst trager blijkt te zijn dan je huidige videokaart :D

Maarjah, misschien is het allemaal wel een strategisch spelletje, ze lokken je gewoon in de val. Zolang de consument niet op de hoogte wil zijn van wat hij/zij aanschaft zal je er maar in moeten geloven. Veel consumenten zullen toch werkelijk denken dat ze weer helemaal bij de tijd zijn hoor met zo'n 6200 met 64bits interface. Ik zie ze er ook altijd weer intrappen, steeds weer diezelfde low-budget uitvoeringen aanschaffen, ze gaan er in al die jaren nog geen 10% op vooruit kwa prestaties :) Toch denken ze dat het geweldig is. Uiteraard zal je dan ook niet echt veel oog voor detail hebben, maar daar hebben ook weer bovengemiddeld veel mensen last van. Tenslotte komt deze onkunde van mensen in alles wat techniek bevat terug. Zolang ze zich er niet in verdiepen zal het ze ook niet veel opleveren, maar het gebrek aan intresse en detail zorgt er voor dat dit gecompenseerd wordt. Vaak zijn die mensen dubbel zo blij met hun aanschaf. Ik ben vaak veel te critisch, maar dat vind ik geen slechte eigenschap van mezelf. Voor veel mensen spelen deze zaken gewoonweg geen belangrijke rol en laten een keus over aan, juist... de verkoper
En dan hebben we het nog niet over ASUS, die maakt er weer allerlei exotische varianten van waar je een vergelijkingstabel nodig hebt wil je weten over welke kaart je het nu eigenlijk hebt. En het zweeft meestal allemaal net tussen de echte reference kaarten in. Om niet goed van te worden, net geen GT maar wel lekker snel geheugen waardoor die tussen NU en GT inhangt, weer eentje die tussen GT en Ultra inhangt en je ziet bij ASUS door de bomen helemaal het bos niet meer. Ik heb asus dan ook compleet links laten liggen qua 6800 serie.
Ze mogen wat "snelheidprogressie" maken met die budget kaartjes. Volgens mij is mijn Ge4Ti4200 nog steeds sneller dan die gare bakjes
maar jouw 4200 wordt ook al lang niet meer gemaakt...
die ti4200 was ook op een andere markt gericht dan deze 6200, dit is meer de opvolger van de fx5200, oftewel budget markt
maar jouw 4200 wordt ook al lang niet meer gemaakt...
Maar als je naar processors kijkt van een jaar terug dan zijn de budget processors van nu wel sneller dan de high-end processors van toen.
Het is toch jammer dat dat bij videokaarten niet ook zo is.
Dat heeft volgens mij veel te maken met het feit dat een videokaart veel complexer is dan een CPU:

- Een CPU bestaat om te beginnen al voor het grootste deel uit cache, en voor de rest zit de complexiteit dan nog in bv een ge´ntegreerde geheugencontroller.

- Daartegenover staat dan een videokaart die bestaat uit een GPU, geheugen en andere componenten. Daar komen dus pixelpipelines bij kijken die mislukt kunnen zijn bij het productieproces, pixel shaders, vertex shaders, noem maar op. Bij een videokaart zijn er dus veel meer factoren die meespelen in het al dan niet "gelukt" zijn van een kaart, terwijl bij CPUs meestal de belangrijkste factor de cache is (qua "gelukt zijn" van een CPU).

De yields van een CPUproducent kunnen dus wel zodanig verbeteren dat ze dus idd topmodellen van de jaren ervoor gewoon voor een appel en een ei kunnen aan de man brengen :Y), maar voor videokaartproducenten is hoge yields halen een veel moeilijkere opdracht, en zal het dus ook niet zo ver gedreven worden dan de topmodellen van de jaren ervoor door het budgetkaartje met de vloer aangeveegd worden.
Ik weet het niet. Een CPU moet een duizendpoot zijn en van alles heel snel kunnen. De GPU hoeft maar 1 ding te doen: Snel pixels naar het scherm pompen. Je zou zeggen dat zoiets eenvoudiger is dan een general purpose CPU.

Daarnaast ben ik het ook niet helemaal eens met het yield verhaal. Een GPU kun je nog verkopen als een flink aantal componenten (pixel pipelines of vertex shaders) totaal mislukt is. Bij een CPU met een mislukte FPU of geheugencontroller kun je de hele CPU weggooien. Wel is het zo dat een cpu soms nog wel wil werken bij een lagere snelheid maar hetzelfde gaat waarschijnlijk op voor GPUs.

Eigenlijk is het dus wel opvallend hoe traag de performance verbetering gaat van GPUs gaat..
Niet helemaal op dit moment is er geen cpu die snel genoeg is voor de snelste gpu. In veel benchmarks kan de score niet omhoog omdat de cpu nekt. Verder gaan gpu's een stuk sneller kwa verhoging als cpu's de laatste 2 jaar en dit zal volgens mij alleen maar erger worden.
Het is niet voor niets dat gpu's steeds meer taken op zich krijgen dan pixels op het scherm toveren. In windows longhorn zijn er een aantal functies die de gpu kan overenemen om de cpu te ontlasten, lijkt me dus al vrij duidelijk.
Dit idd de directe opvolger van de FX5200. Dat zie je duidelijk aan het nummer *200 en de prijs.
Dit idd de directe opvolger van de FX5200. Dat zie je duidelijk aan het nummer *200 en de prijs.
Echt duidelijk vind ik 't niet. een ti4200 heeft toch ook *200?
Voor de GeForce 4 series gold: MX is de budgetreeks en Ti is de mid en high range reeks.

Een Ti4200 is dus een model uit de vroegere mid range van de GeForce 4 series en een 440MX een budgetkaart.

Overigens presteert die kaart inderdaad nog best wel goed in moderne games qua FPS maar qua beeldkwaliteit laat hij wel wat te wensen over in vergelijking met modernere kaarten. Ook logisch want de GeForce 4 series is al wat oud.
Dat zou ik niet zo snel zeggen. Als je kijkt naar de reviews van de gewone 6200 (dus de NV43 versie) bij HardOCP (www.hardocp.com/article.html?art=Njc0LDE= ) dan zie je dat hij ongeveer gelijkwaardig is aan een X600Pro.

Wetende dat de X600Pro feitelijk een 9600 Pro is met een PCIe interface, ga je naar Tomshardware (http://graphics.tomshardware.com/graphic/20041004/index.html) waar je de VGA Charts 4 erbij pakt. En dan blijkt dat de 9600Pro het over het algemeen een stuk beter doet dan een Ti4200. Ergo: de 6200 is dus ook beter dan een Ti4200.

Vooral bij het gebruik van AF en FSAA zal er een aanzienlijk verschil zijn. Zaken die je op lagere resoluties wellicht nog wel eens zult gebruiken.

Een echte vergelijking zal er natuurlijk nooit komen (omdat ze allebei een andere interface gebruiken) maar het geeft naar mijn idee wel een redelijk betrouwbare indicatie..
Redelijk kort door de bocht om aan de nemen dat een FX6200 allover net zo snel is als een X600Pro omdat ie ergens in een lijst evengoed presteerd als een 9600Pro.

Overigens heb ik ook ( nog ) een Ti4200 en die doet in 3D Mark ongeveer 15% meer dan een 9600Pro. En mijn score is op een XP2500+ gedraaid tegen een 15% lagere score met de 9600Pro op een XP2800+. Er even vanuitgaande dat het gros van de games nog lang niet volledig DX9 is, zal de Ti4200 in veel games toch sneller blijken, zeker als het spellen van een dik jaar oud betreft.

Het grootste gemis bij een Ti4200 is domweg eyecandy en de mogelijkheid om met een acceptabel verlies in performance AF of AA te gebruiken.
Klopt, maar dat komt vooral omdat directx 9 een hoop transistors kost. En dan hou je (vooral bij een budgetkaart) in verhouding weinig transistors over "het echte werk".
64 of 128-bits geheugeninterface...
64 bits geheugen interface. Is alsof je terug in de tijd gaat. Zo komt PCIe zeker niet tot zijn recht Deze kaart kan nog optimaal functioneren in een normaal PCI slot :+

En dat voor 100 dollar.....
Ach, valt wel mee hoor, een Ati Radeon 9200 PCI is 1 frame sneller dan een Ati Radeon 9200 AGP8x in Quake 3 benchmark, dus voor de meeste zaken, HL2 en FarCry daargelaten, kom je een heel eind. Voor de meeste mensen is een geluidskaart via de ISA bus nog prima. Het wordt alleen niet veel meer geleverd aan consumenten, alsof je met je Sweex blieb blieb kaartje van 4 Euro een PCI Express slot nodig hebt.
Maar om op het onderwerp terug te komen, wie kopen dit soort kaartjes? Niet de spellenfreaks over het algemeen.
alsof je met je Sweex blieb blieb kaartje van 4 Euro een PCI Express slot nodig hebt.
Toch zie ik liever wel NICs in PCI-E variant.
Des te eerder de PCI-E kaarten er zijn, des te goedkoper zijn ze als ik ze nodig heb. :)
iets wat bliept is toch geen netwerkkaart, das een geluidskaart :+
Volgens mij is PCI Express qua controller niet veel moeilijker/duurder dan PCI "Ouderwets" en op het moment dat elk bordje voorzien is van een aantal PCI-E 1x voor de geluidskaartjes/modempjes en 4x/8x/16x voor high-end SCSI, Gbps LAN, 24 kanaals Audio en VGA wordt ook het prijsverschil nihil, vanaf dat moment bestaat de kans dat PCI weer duurder wordt, kijk maar eens wat je voor EDO RAM betaalt op dit moment en je vergelijkt dat met DDR SDRAM.

/edit
En waarschijnlijk is het produceren van PCI-E uiteinelijk goedkoper, er kunnen veel meer printplaten uit een mal uitgesneden worden omdat de PCI-E 1x connector zo klein is t.o.v. PCI connector. Voor een simpel modem of geluidsding kan er veel ge´ntegreerd worden. Maar of dit ook echt gaat schelen weet ik niet. Moet die connector wel mooi aan de rand van het bord zitten en niet middenop, dan schiet je er nog niks mee op.
Yep. |:(
Maar ook die zie ik liever in PCI-E variant, al zou ik ze zelf nooit kopen.
Zijn die ook maar vier euro?
als je het mij vraagt is dat een best goedkope tijdreis ;)
volgens mij reis je in de tijd terug om in de toekomst iets beterz te maken :7
64 of 128-bits geheugeninterface...
64 bits geheugen interface. Is alsof je terug in de tijd gaat. Zo komt PCIe zeker niet tot zijn recht Deze kaart kan nog optimaal functioneren in een normaal PCI slot

En dat voor 100 dollar.....
MAAR, je hebt dan tenminste wel SM3 support!! :)

(aan het artikel te zien zijn er blijkbaar mensen die dat toch een belangrijk punt vinden)
idd!
bedenkende dat de 5200 amper snel genoeg was voor DX8.1 kan je met deze de DX9 SM3 ook wel op je buik schrijven lijkt me :+
Betekent dit nou ? diversivisering van het producten palet (64bit/128bit) dat bijv de 128bit NV44 nog steeds vergelijkbare prestaties heeft t.o.v NV43 of houdt dit in dat de prestaties van deze op NV44 gebaseerde kaarten worden afgeknepen om de verschillen met andere kaarten groter te maken (6600) ?
Ik denk dat het eerder te maken heeft met kostendrukking. Een 64bits bus lijkt mij tenminste goedkoper dan een 128bits bus.
Ik snap het ook niet helemaal... of waren de huidige varianten ook al in 64bits uitvoering?
Is wel erg laag hoor, moet wel erg traag worden dat ding, en dan nog wel PS 3.0 ondersteuning waar je nauwelijks wat aan hebt. Ach op grafisch gebied zal het er wel redelijk uitzien, maar volgens mij ben je zowat gedoemd om in 16bits te spelen... wat heb je er dan nog aan? Een grafische chip met overvloed aan capaciteiten, maar met een geheugen bottleneck waar je gek van zou worden. Klopt allemaal niet echt, maar dat hij voordelig is dat geloof ik graag. En dat de kaart dan toch nog bij de tijd is wat betreft features is opzich niet onaardig. De kaart zal dan ook niet bedoeld zijn voor de veeleisende gamer :)
En het is nou eenmaal goedkoper om huidige chips toe te passen, en dan krijg je automatisch hele ge-avanceerde chips die zo ingekort worden dat ze nog trager zijn dan een Geforce2 (bij wijze van spreken). Maar het doel van zo'n videokaart is ook niet om snel te zijn, maar om als budget-kaart te dienen.
> terwijl ATi na eerdere scepcis waarschijnlijk pas in 2005 met S.M. 3.0 zal komen.

Dat zegt met nog maar drie weken te gaan in 2004 natuurlijk niet zoveel.
en uberhaupt is versie 3.0 niet eens zo heel erg van belang, op een ander vlak weer wel. Namelijk, veel consumenten kijken nogsteeds naar getallen, zonder verdere kennis, en dan heeft nVidia al weer enige tijd voordeel. Dus alleen al marketing-technisch zal het wel in ATi's voordeel werken om PS3.0 te ondersteunen. Ach en dan verzinnen ze er nog even wat onzinnigs bij en noemen ze het 3.1 :)

Het zegt allemaal zo ontzettend weinig, maar het is voor sommigen wel zoooo belangrijk allemaal :)

Getallen hebben vreemde invloeden op mensen :P
Weer zo iemand die zomaar roept dat SM3.0 geen nut heeft. Natuurlijk ben ik het er over eens dat SM3.0 totaal geen nut heeft voor zo'n kaart als deze, maar op de high-end is het wel degelijk iets waard. Mss nu nog niet helemaal, maar toekomstige games zullen het zeker gaan gebruiken en dan dus beter draaien op een kaart die wel SM3.0 gebruikt. Denk aan de if-then logica, het heeft niet perse zichtbare verschillen voor ons, maar de games kunnen in de toekomst wel beter/makkelijker geprogrammeerd worden, en dus sneller draaien op een kaart welke SM3.0 ondersteund. Niet zomaar roepen dus, SM3.0 is niet voor niets de wereld in geholpen en Nvidia weet heus wel wat ze in hun kaarten bakken. Daarbij hoeven ze het voor de getalletjes niet te doen, want ik heb hier 2 geforce kaarten liggen die SM3.0 ondersteunen (6800LE en GT) en geen van beide staat met koeienletters voorop "With Shader Model 3.0 Technology!". Ergens achterop tussen de specs zul je het vast wel vinden...
Weer iemand die zomaar roept dat SM3 wel nut heeft.

Op dit moment met de huidige generatie kaarten heeft het gewoon geen nut.

Ja inderdaad OOIT met toekomstige spellen wordt het nuttig. En ja dan heb je veel langere shaders waarbij de if-then logica ook nuttig is. En dan draaien die spellen wel degelijk sneller op SM3.

Alleen draait zelfs een 6800Ultra in dat soort spellen maar op 15fps.

Is het dan op dit moment iets om rekening mee te houden?

Ben je al iemand tegengekomen die op dit moment blij is dat de Radeon8500 PS1.4 support had, en dat ie daarom op dit moment relatief goed HL2 en Doom3 kan spelen?
Dus daarom moeten we het maar niet toevoegen, en maar wachten tot het komt aanwaaien? komop man, eens moet toch de eerste stap gezet worden. Als het aan Ati lag zitten we in 2010 nog met hun zelfbrouwsel 2.0 "c", nee...dat is pas nuttig. Nu Nvidia het heeft toegevoegd kan Ati niet achterblijven dus gaan ze SM3.0 ook toevoegen, en straks als Ati het heeft, dan is dat natuurlijk de 3.1 versie en wauw das een verschil met 3.0! en dan is SM3 ineens da bomb en totaal niet nutteloos.
Ja inderdaad OOIT met toekomstige spellen wordt het nuttig. En ja dan heb je veel langere shaders waarbij de if-then logica ook nuttig is. En dan draaien die spellen wel degelijk sneller op SM3.
Bekijk het eens anders. Als je nu een x800XT PE hebt, met SM2.0 "c" die draait het dan helemaal niet op 15fps, maar nog veel slechter omdat deze SM3.0 niet eens ondersteund, grote kans dat het zelfs niet draait.... dus wat heb je dan liever?!?
Relax man!

Ik zeg nergens dat ze het maar niet moeten toevoegen. Als ze dat graag willen dan moeten ze dat zelf wezen.

Maar dat is nog wel heel wat anders dan roepen dat het op dit moment een zinvol verkoop argument is, want dat is het gewoon niet.

Ik kan je opmerkingen wel begrijpen als je vind dat iedereen blij moet zijn met SM3 omdat het in de toekomst handig is. En dat daarom iedereen NU een kaart met SM3 ondersteuning moet kopen, zodat spel fabrikanten NU spellen gaan ontwikkelen met SM3. Zodat je OVER EEN JAAR een ANDERE videokaart kunt kopen waarbij je dan van de nieuwe SM3 features in spellen kunt genieten.

Maar ja, persoonlijk heb ik geen zin om geld uit te geven om bedrijven te stimuleren iets te gaan gebruiken waar ik zelf pas baat bij heb bij een volgende videokaart.
Ervaring heeft mij geleerd alleen geld uit te geven voor features waar je NU wat aan hebt.

En wat betreft die X800XTPE.
Mocht die dan 7 fps zou draaien, en die 6800Ultra 15 fps, dan weet ik wel wat ik liever heb:...
...Een nieuwe videokaart waar ik minimaal 30 fps mee haal.

Zo simpel is het nou eenmaal. Beide kaarten voldoen dan niet voor mij. Of de ene dan nog wat minder voldoet dan de ander maakt me dan niet uit.

En om een volgende reactie voor te zijn: Het is niet zo dat je dan die 6800Ultra even op een iets lagere resolutie kan zetten zodat die nog wel acceptabel is, en die X800 niet. De impact van die veel langere shaders waarbij SM3 nuttig wordt is zodanig hoog, dat je dan al op lage resoluties op die 15fps zit.
Mjt: Iemand moet ermee beginnen. Dat heet technlogische vooruitgang. Of het nuttig is, zullen we later wel weten. PCIE is nu ook niet nuttig voor budget kaarten.
SM3 support is een goeie zet, ATi weet dat ook.
Wie zei er ook alweer "Steer people away from flow control in ps3.0 because we expect it to hurt badly"
Hurt badly, blijkbaar ook bij jou.
Tuurlijk, iemand moet er mee beginnen.
En ik vind het prima dat Nvidia er mee begint.

Maar betekent dat dan ook automatisch dat ik er dan ook geld aan uit moet geven?

Het gaat mij er om dat er hier geroepen wordt dat het nu al een nuttige feature in de huidige kaarten is. En dat is gewoon niet waar.

Zoals ik hierboven ook al aangaf: de opvatting dat iemand er mee moet beginnen en dat je daarom zo'n bedrijf financieel zou moeten steunen, is een compleet andere reden om SM3 support in zo'n kaart te willen hebben, dan dat het op deze kaarten al nuttig zou zijn/worden in spellen.

Als je dus om die "iemand moet ermee beginnen" reden SM3 support in die kaarten wilt hebben, zeg dan gewoon dat het om die reden is.

Dan hoef je dit soort discussies over het nut van de feature in huidige kaarten met huidige en toekomstige spellen niet te voeren.


Die laatste opmerking van je ontgaat me. Volgens mij is die alleen als flame bedoelt.
Hurt badly??
Waarom in godsnaam? Ik dacht dat ik duidelijk genoeg had aangegeven waarom ik er absoluut geen behoefte aan heb in mijn huidige kaarten. Dus dan kan ik er ook geen last van hebben als ik niet heb.

En voor de mensen die niet weten waar die quote vandaan komt:
ATI heeft aangegeven dat ÚÚn van de nieuwe features van SM3: dynamic flow control/branching, vooral nog niet gebruikt moet worden in spellen.

De reden daarvoor is erg simpel. Dynamic flow controll is een vreselijke performance killer.
Pas bij hele lange shaders gaat het je prestaties juist bevorderen. Maar ook dan moet je nog uitkijken. En die lange shaders kosten weer zoveel power van de gpu, dat de huidige generatie dat bij lange na niet aan kan. Vandaar dat ATI dus in deze op developers gerichtte presentatie aangaf dat ze dat niet moeten doen.

Uiteraard beweren alle Nvidia aanhangers dat ATI dat alleen maar heeft gezegd omdat zij dynamic branching opties nog niet ingebouwd hebben.
En dat zou natuurlijk beste kunnen, ware het niet dat de meerderheid van de developers het op dit punt met ATI eens is.

Wil je wat meer achtergronden daarover weten, dan kan je de volgende thread eens lezen waarin een heel stel developers er hun meningen over geven:
http://www.beyond3d.com/forum/viewtopic.php?p=245783#245783
Het gaat mij er om dat er hier geroepen wordt dat het nu al een nuttige feature in de huidige kaarten is. En dat is gewoon niet waar.
Het kan wel nuttig zijn, net zoals 3dc en PCIE.
SM3 is nuttig omdat het in de toekomst gaat gebruikt worden.
SM3 is nuttig omdat het toelaat farcry sneller te doen draaien op nv kaarten.
SM3 is nuttig omdat het een technologische voorsprong betekent voor nvidia op ATi (en dat wordt natuurlijk uitgespeeld).
SM3 is nuttig omdat het nu eenmaal een dx9c spec is.
Waarom zouden ze sm3 support er dan uit moeten laten?
Denk je dat als ATi binnen een paar maanden een sm3 kaart op de markt brengt, de situatie ineens anders wordt? Dan is het ineens wel nuttig? Zullen er dan ineens zoveel meer games zijn die wel sm3 gebruiken? Sterker nog, ga je dan ook nog zo te keer gaan?

En dat laatste sloeg op het feit dat jij aan het doen bent wat ATi zegt: mensen wijsmaken dat sm3 nutteloos is want ATI "expect it to hurt badly"
Lees nou eens goed wat ik zeg:
geen nuttige feature in HUIDIGE kaarten!
SM3 is nuttig omdat het in de toekomst gaat gebruikt worden
Maar daar heb ik met mijn huidige kaarten niets aan, want in de toekomst zijn die daarvoor te traag.
SM3 is nuttig omdat het toelaat farcry sneller te doen draaien op nv kaarten.
Dat doet het niet. Het is al lang gebleken dat diezelfde snelheids winst ook gewoon met SM2 te bereiken is.
SM3 is nuttig omdat het een technologische voorsprong betekent voor nvidia op ATi (en dat wordt natuurlijk uitgespeeld).
Dat is eigenlijk gelijk aan je eerste punt, maar dan in andere bewoordingen.
Maar daar heb ik wederom als consument geen ene zie aan met mijn huidige kaart. Wat boeit het mij dat Nvidia dat als PR kan gebruiken? Daar loopt HL2 of Doom3 niets sneller door, en ze zien er daardoor ook niet beter uit.
SM3 is nuttig omdat het nu eenmaal een dx9c spec is.
Moet ik hier nou echt nog serieus op in gaan?
Wat interesseert het nou of het een dx9c spec is, of een dx9b spec of whatever?
Het enige dat interessant is, is wat het mij oplevert in spellen. En in de praktijk blijkt het dus nog steeds niets op te leveren.
Waarom zouden ze sm3 support er dan uit moeten laten?
Zoals ik hierboven ook al reeds heb aangegeven hoeven ze het er van mij niet uit te laten.
Maar dit doet totaal niet ter zake. De discussie is hier niet of ze sm3 support wel of niet in hadden moeten bouwen. De discussie is of sm3 met de huidige kaarten en met de huidige/toekomstige kaarten een nuttige feature is.
Dat zijn twee verschillende discussies.

(Hoewel er overigens best argumenten zijn om het er uit te laten. Het gebruikt namelijk ruimte op de gpu die je voor dingen had kunnen gebruiken waar de huidige spellen wel baat bij hebben)
Denk je dat als ATi binnen een paar maanden een sm3 kaart op de markt brengt, de situatie ineens anders wordt? Dan is het ineens wel nuttig? Zullen er dan ineens zoveel meer games zijn die wel sm3 gebruiken?
Nee, als die kaart net zo snel is als de huidige kaarten alleen dan met sm3 support, dan is de situatie precies hetzelfde.
Maar vaak is een nieuwe generatie wel 2x zo snel, en dan begin je situatie te krijgen waar het nuttig is. Maar dan nog moet je erg uitkijken wanneer je het gebruikt. En dat geldt dan ook nog alleen voor de snelste kaarten van die gpu generatie.
Waarschijnlijk dat bv dynamic branching pas bij de generatie die daar op volgt (R600 en de Nvidia tegenhanger daarvan) echt goed gebruikt kunnen worden.
Sterker nog, ga je dan ook nog zo te keer gaan?
Te keer gaan? Die term laat ik geheel voor jouw rekening. Ik geef op rustige wijze en met goede onderbouwing mijn commentaar. Het "te keer gaan" slaat dan toch echt eerder op andere mensen.
En dat laatste sloeg op het feit dat jij aan het doen bent wat ATi zegt: mensen wijsmaken dat sm3 nutteloos is want ATI "expect it to hurt badly"
Ik heb al een uitgebreid antwoord op die flame van je gegeven, samen met een link naar meningen van developers die ook allemaal waarschuwen voor dynamic branching. En een van de mensen daar die er voor waarschuwd: Chalnoth, is juist een fervente Nvidia fan.
Ipv je flames te herhalen, zou je er beter eens inhoudelijk op kunnen ingaan.
De fabrikanten verzinnen echter ook steeds nieuwe technieken en brengen het op zo'n manier dat we het wel nodig MOETEN hebben . Ik vind dat hele videokaartengedoe belachelijk aan het worden... wil je doom 3 GOED draaien, moet je een kaart van 350 euro aanschaffen, daar heb je haast een nieuwe computer voor. Ik heb destijds mn ti 4200 voor 150 euro aangeschaft 2 jr terug, en die was 1,5 jaar lang absoluut toppie, hoef je nu niet meer op te rekenen... :( }:O
Mijn 9700 Pro @ Ą200 (2 jaar geleden) gaat anders nog prima mee hoor.
Pci express is ontwikkeld als budget slot. We krijgen vast nog wel meer verassingen.
bugdet? dacht het niet.... het is wel goedkoop maar zeker beter dan PCI, dat zijn de budgetsloten van nu..
Waarschijnlijk gebruiken ze nu nog 6600 based GPU's om de slechte core's te verkopen, nu gaan ze dus NV44's bakken die goedkoper zijn en zo hoeven er geen dure 6600 core's op
Wat ik erg jammer vind, is deze kaart (tenminste op deze foto) niet passief gekoeld is. Dat zou toch in principe mogelijk moeten zijn.
die photo is nVidia referance, het is even afwachten wat de kaarten bakkers er van gaan maken...
zou er ook een AGP versie komen??
Dat zou intersant zijn.. :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True