Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: Guru3d

De niet-Ultra versies van de verschillende GeForce 6800 videokaarten hebben waarschijnlijk één of meerdere uitgeschakelde vertexunits, zo meldt Guru3D. Tot nu toe werd vaak aangenomen dat diverse modellen chipsets vooral verschillen voor wat betreft het aantal pipelines en de kloksnelheid van processor en geheugen, maar op sommige forums werd al gespeculeerd dat er bij de GeForce 6800 ook onderscheid is in het aantal vertexunits, die bepaalde taken van de hoofdprocessor over kunnen nemen. De auteur van RivaTuner kwam tot dezelfde conclusie toen hij bemerkte dat alleen bij 6800 Ultra kaarten alle zes vertexunits actief waren. Bij elke andere kaart waren er één of meer uitgeschakeld, waarbij het opmerkelijk was dat diverse gelijkwaardige kaarten verschilden in het aantal uitgeschakelde units. Mogelijk is dit te verklaren doordat op sommige kaarten enkele vertexunits defect zijn, waardoor ze niet als Ultra verkocht kunnen worden.

GeForce 6800 Logo (klein)Het lijkt dus ook aan te raden om na aanschaf te controleren hoeveel units actief zijn, hetgeen mogelijk zal zijn met de volgende versie van RivaTuner. Omdat vertexunits zowel op hardware- als softwareniveau uitgeschakeld kunnen worden, zou het in sommige gevallen wellicht mogelijk kunnen zijn om niet-actieve units weer aan te zetten. De auteur van Guru3D zegt dit gedaan te hebben met een niet-publieke versie van RivaTuner, maar hoewel zijn eerste tests tonen dat de beeldkwaliteit hierbij niet afneemt, lijken de prestaties ook niet te verbeteren.

Moderatie-faq Wijzig weergave

Reacties (53)

Een 6800 non-ultra heeft toch DDR1 geheugen t.o.v. DDR3 van de 6800ultra? Als dit zo is kun je een 6800non-ultra niet modden naar en 6800ultra, aangezien er meer verschillen zijn.
het is DDR2 niet DDR1.
de Nvidia 2MX had DDR 1.
het is DDR2 niet DDR1.
de Nvidia 2MX had DDR 1.
Ik neem aan dat je DDR 1 door de war haald met SDRAM? DDR2 was er echt nog niet in de tijd van de Geforce 2 MX. DDR2 heb je bijna niet gezien op videokaarten en in de pc geheugen begint het net te komen en moet nog maar gezien worden of het gaat doorbreken. DDR3 is weer speciaal voor videokaarten (of was dat nu gddr? whatever...)
Je zit toch verkeerd. DDR voluit is DDR SDRAM en zat zelfs al op de eerste generatie Geforce kaarten.
ehhh raar vraagje maar betekend dat straks ook dat het mogelijk is om een budget kaartje te modden tot een ultra?
Als het dezelfde core is van een 6800 (de 6600 heeft bv een andere core, dus dan gaat het al niet) en je het geluk hebt dat alles werkt, maar uitgeschakeld is, kan je het dmv RivaTuner idd omtoveren tot een ware Ultra, maar die kans is zeer klein. Daarbij is een 'gewone' 6800 al geen budget kaart :P

Edit: ik zit me nu te bedenken, dat je van een 6600 SE mogelijk natuurlijk wel een 6600 Ultra kan maken
hehe in dat geval wacht ik met smart op de budget serie :Y)
ik snap niet waarom nvidia niet zoals amd gewoon bruggetjes 'schrapt' om onderscheid te maken tussen de 6800 gewoon/ultra, dan heb je tenminste geen last meer van software-modders.
Misschien is het juist wel goed voor Nvidia. Kijk niet iedereen heeft het geld voor een videokaart van 500 euro maar er zijn toch genoeg mensen die van een leuk spelletje houden. Als die dan over zoiets lezen dat het met RivaTuner gedaan kan worden nemen zulke mensen misschien wel een 'gewone' 6800, terwijl ze anders misschien voor een x800 ofzo waren gegaan, maar hier kan dit pipeline/vertexunit gedoe niet bij, dus hebben ze liever een 6800 = winst voor Nvidia, en dat hebben ze graag ;). Misschien doen ze het dus wel met opzet. De echte die-hard gamers kopen toch wel een 6800Ultra

Just my 2 cents.. :z
Je kan van een 6800 nooit een 6800Ultra maken om de simpele reden dat het geheugen van die kaart geen 1.6ns is, en dus ook nooit van ze leven 1100MHz kan halen ;)
of je wacht zowieso even aangezien er op het moment een gebrek aan gpu'tjes is. ik denk ook pas wanneer er een overschot ontstaat dat mogelijke 6800 ultra's tot 6800 'gewoon' worden omgedoopt aangezien er toch genoeg zijn en dat dat juist degene zijn waar je op zit te wachten aangezien je deze weer zo terug kan modden.
ik snap niet waarom nvidia niet zoals amd gewoon bruggetjes 'schrapt' om onderscheid te maken tussen de 6800 gewoon/ultra, dan heb je tenminste geen last meer van software-modders. vooral met de hedendaagse precisie kan zo'n bruggie heel klein zijn.
Bij een X800 kun je wel pipelines erbij modden; overigens wel met een vrij kleine kans. De X800 ViVo edities schijnen wel allemaal modbaar te zijn.
Daarbij is een 'gewone' 6800 al geen budget kaart
Nee, maar de 6800LE is wel een budgetkaart, die kost rond de 200¤. Het zou leuk zijn om met rivatuner alle pipelines weer open te zetten en eventueel de vertexunits.
de 6800LE is wel een budgetkaart, die kost rond de 200
Sinds wanneer is een videokaartje van 200 Euro een budgetkaart ???
De 6800-serie is gericht op gamers.

Dus:
Ultra: mensen met teveel geld :P (super enthousiasts)
GT: Enthousiasts
Normaal: Gamers
LE: Budget gamers

Dat bedoelde hij waarschijnlijk :)
Sinds iedereen met de komst van de euro denkt dat 200 euro ongeveer gelijk is aan 200 ouderwetse guldens :+
Bijna juist, ik denk dat die budget gamers liever een 6600GT aanschaffen. Of alle, dat is toch de reden waarom nVidia die serie toch lanceert, niet?

Edit:

Overbodig? De GeForce 6800LE kan je normaal niet los krijgen, en voor de mensen met dat budget is er toch gewoon de 6600GT, want ik denk dat die niet veel schelen in prestaties... Nu, het heeft wel niet de naam 6800, maar daarom is ie ook voor de OEM markt bedoeld denk ik, wel de naam, waar mee kan uitgepakt worden in reclamefolders, maar de prestaties van de 660GT :)
Volgens mij zou dat wel kunnen, het is immers eerder gedaan echter zoals te lezen is verbeteren de prestaties er niet van.
Als het de prestaties niet verbeterd lijkt me het me veiliger om er gewoon niet aan te gaan zitten kloten, stel dat je em stuk maakt ben je wel de sigaar ;).

Dit slaat natuurlijk op Hardwarematig modden, want bij het Softwarematig modden kan er weinig stuk lijkt me.
Bij softwarematig modden heb je alleen kans dat je een beetje raar beeld krijgt als de pipeline/vertexunit of wat je ook wilt aanzetten toch stuk blijkt te zijn. Maar dan zet je het gewoon weer terug uit :)

Maar ja inderdaad, als je er geen resultaat van ziet vraag ik me af of wel alle vertexunits worden gebruikt :? Zouden er bijvoorbeeld niet gewoon maximum 4 worden gebruikt en dat de andere een soort "reserve" zijn voor mocht er eentje stuk zijn?
De vraag is soms wel of het wel mogelijk is om het zomaar terug te zetten... Een kapotte aanzetten lukt dan wel, maar kun je ook aangeven welke weer uit moet? Want je moet natuurlijk wel die éne kapotte uit zetten, en niet een andere...

Dat het geen duidelijke prestatie winst oplevert wil niet perse zeggen dat het niet werkt...
Toevallig net op Beyond3D een thread waar het iemand opviel dat het aantal vertex shaders t.o.v. pixel shaders sterk naar beneden was gegaan met de R420 en NV40. Lijkt erop dat de vertex shaders vrijwel nooit de bottleneck vormen, maar dat dat meer ligt bij de pixel shaders e.d. Als de vertex shaders dus geen bottleneck vormen, dan helpt het ook niet erg er meer te activeren.

Als je toch al een kaart hebt met 25% minder pixel shaders, dan ligt het zowiezo voor de hand dat je ook met minder vertex shaders uit kan.
De resultaten van de gewone 6800 waren sowieso al slecht, dus is het misschien het beste om deze kaart helemaal links te laten liggen.
Een 9800XT kan 'em over het algemeen niet bijhouden.

Tevens is de gewone 6800 gemiddeld 100 Euro goedkoper dan die 9800XT.

Omdat nou slecht te noemen :?
Verwaand mannetje :P
Ik zou maar al te graag een GeForce 6800 willen hoor. :Y)
Wel grappig dat ik naar -1 wordt gemodereerd :) terwijl Boushh 3 punten krijgt voor interessant.
Niet dat het me zoveel boeit maja, zullen wel nvidia fanboys zijn ofzo ehhehe

Uit de pricewatch :

22 Club3D Radeon 9800 XT 256 MB ¤ 289,-

2 Albatron GeForce 6800 128MB ¤ 305,-

Asus GeForce 6800 256MB DDR3, V9999 Gamers Edition ¤ 390,90

En als je dan al 390 neerlegt voor een 256 MB GF6800 is het prijsverschil met bijvoorbeeld een X800 Pro ook al niet veel meer.

Daarnaast benchmarks:

http://www.firingsquad.com/hardware/half-life2_vst/page8.asp

Hierbij wint de Radeon 9800 XT toch wel enorm van de DUURDERE standaard 6800.

Bij doom zal de GF6800 het wel beter doen tho.

Maar mijn punt was dus dat het misschien verstandiger is om iets meer te betalen voor de GT versie omdat er toch wel een flink verschil tussen deze kaarten zit qua prestatie.
Hierbij wint de Radeon 9800 XT toch wel enorm van de DUURDERE standaard 6800
Vreemd he? het is tenslotte Half Life 2, daar is de Ati beresterk in, nu nog dezelfde test maar dan met Doom3, kijken wie er dan wint.

Neem gewoon een normale, niet specifieke kaart-game, zoals bv Far Cry, dan kom je pas tot normale conclusies en zul je zien dat de 6800 echt vet de betere is boven de 9800XT. De 9800XT is een vorige generatie videokaart :Z

nfi: maar denk eerder dat jij de ati fanboy bent ;)
Het is allang bewezen dat doom3 vol met stomme fouten zit.

Waar HL2 veel minder geoptimaliseerd is voor ATi kaarten is doom3 ongelooflijk geoptimaliseerd voor nvidia kaartjes, waar half-life2 nog de moeite nam een speciaal codepath voor nvidia kaartjes te schrijven, nam doom3 die mogelijkheid voor ati niet.

Doom3 is gewoon een zielig spel, de makers roken weer wat meer geld dan goed voor hen is.
Waar zie jij de 9800XT winnen? Ik zie op de link die jij mij gegeven hebt enkele benchies staan waarvan er 3 door de 6800 gewonnen worden en 1 door de 9800XT. Dus hieruit maak ik op dat de 6800 gewonnen heeft, toch?

En noem me nu geen nVidia fanboy want ik heb 2 ATi kaarten (9700P en 9800P)
hmm, wat valt er onder softwaremodden? overklokken ook? want daar kan je videokaart serieus stuk van gaan (hier weet mijn voormalige GeForce-256 ultra alles van)
Het is al een tijdje bekend dat de 6800gt en ultra 6 vertex pipes en bij de 6800 4 zijn.

Beetje oud nieuws dus..
Eeuh, ja; MAAR er staat dat het voor alle NON-ULTRA chips geldt. Dat impliceert ook de GT versie. :7
weet je dat zeker? met 9800 non-pro wordt ook niet de XT of de SE bedoeld.
Ik denk het wel dat het over alle niet-Ultra's gaat, want de non-pro benaming stamt uit de Radeon 9700 periode, toen er nog geen SE of XT was (alleen een 9700 en een 9700 Pro). Voor het gemak is die benaming ook meegenomen toen de 9800 kwam.
dat lijkt me vreemd; alle niet rode auto's zijn toch alle auto's die niet rood zijn.

non-pro betekent "niet pro" dus alle kaarten di nietaangeduid worden met pro; dus als er een 6800 kabouter uitkomt die een opgefokte blauwe pro is , tja dan is het dus nog steeds een non-pro ;)
http://www.xbitlabs.com/news/video/display/20040829120525.html

The GeForce 6800 Ultra packs in 16 pixel pipelines and 6 vertex pipelines, the GeForce 6800 GT reportedly integrates the same amount of pixel and vertex processors. The GeForce 6800 sports 12 pixel pipes, but it is now unclear whether it has 5 or 6 geometry engines.
Het echte nieuws voor tweakers.net zit natuurlijk in het volgende:"
Omdat vertexunits zowel op hardware- als softwareniveau uitgeschakeld kunnen worden, zou het in sommige gevallen wellicht mogelijk kunnen zijn om niet-actieve units weer aan te zetten.
"

Het inschakelen van de uitgeschakelde hardware is voor iedere beetje tweaker natuurlijk reuze interessant.
Dat heb ik dus ook met mijn VGA kaart.
Ik heb een MSI NX6800-TD128.

Deze heb ik mbv van RivaTuner kunnen upgraden naar de prestaties van een 6800Ultra.
Er bleken inderdaad (volgens RivaTuner) toch enkele pipelines dicht te zitten. Riva heeft deze open gezet.

In 3D mark 2003 haal ik nu wel een hogere score dan voorheen, dus volgens mij werkt het wel !
Wees volledig met je reacties.. Op deze manier zet je mensen op het verkeerde been.
Het is onmogelijk om alleen met rivatuner 2.8 ns geheugen (dat igv de msi nx6800-td normaal op 700mhz draait) op 1100mhz te krijgen..

Als je kaart met 16 pipelines werkt, dan merk je een aanzienlijke verbetering in vergelijking met voorheen. En dan heb je het niet over een paar twijfelachtige puntjes in 3dmark03..
Naar mijn weten bestaat er op het moment nog geen legale versie van Rivatuner waarmee je de pipelines kunt inschakelen :?
Als jij ze wel hebt stuur me ze dan zo snel mogelijk :P
Het lijkt dus ook aan te raden om na aanschaf te controleren hoeveel units actief zijn, hetgeen mogelijk zal zijn met de volgende versie van RivaTuner.
Waarom dan? Ik ga er toch vanuit dat een bedrijf als Nvidia je niet voor de gek houdt en een GT die bijvoorbeeld 6 vertexunits behoord te hebben er dan ook 6 heeft en niet ineens 5. Het is natuurlijk leuk ff te checken maar ik denk dat Nvidia een serieus probleem heeft als men er via RivaTuner achter komt dat elke serie kaarten verschild qua vertexunits, ook al lijkt het de prestaties niet te beinvloeden.
Ik ga er toch vanuit dat een bedrijf als Nvidia je niet voor de gek houdt en een GT die bijvoorbeeld 6 vertexunits behoord te hebben er dan ook 6 heeft en niet ineens 5.
Ik denk dat deze zin uit het artikel een beetje verwarrend kan zijn:
De auteur van RivaTuner kwam tot dezelfde conclusie toen hij bemerkte dat alleen bij 6800 Ultra kaarten alle zes vertexunits actief waren. Bij elke andere kaart waren er één of meer uitgeschakeld,
Bij de 6800 GT zijn ook gewoon alle 6 de vertex units actief. Bij de normale 6800 zijn het er slechts 5. Dat was overigens al bekend.

Ik vind de insteek van deze melding van Tweakers dan ook vreemd. Het nieuwsfeit is niet dat de 6800 een vertex unit minder heef, maar dat een nog te verschijnen versie van ze Rivatuner ze wellicht softwarematig weer aan kan zetten.
Bij elke andere kaart waren er één of meer uitgeschakeld,
1 of meerdere betekent dat er ook kaarten met maar 4 vertexpipes zouden zijn, en als nvidia beweerd dat er 5 in zitten zo als hier boven mij word beweerd is er inderdad iets mis, als nvidia daar in tegen er helemaal niets over gezegt heeft is het een kwestie van geluk.
Het kan ook zijn dat nVidia met zijn driver controleert wat voor type kaart het is en bepaald hoeveel vertexunits er gebruikt worden. Dit zou namelijk verklaren waarom de beeldkwaliteit en snelheid niet veranderde in de tests.

Dus dan zou er tevens een gehackte BIOS moeten verschijnen om dit te omzeilen.
Dat wordt dan wel eens tijd :Y)
@n4m3l355

Natuurlijk gaan ze bij Nvidia geen pipelines/vertexrunits schrappen, het is voor hen veel goedkoper om allemaal dezelfde kaartjes te fabriceren en er dan software-matig een aantal uit te schakelen (of bij defecten als een ander type te verkopen).
Hangt ervanaf hoe duur de totale kaart (productiegewijs) is en hoe duur het is om een nieuwe lijn van kaarten op te zetten.

Voorbeeld voor de X800/X800pro/X800XT is het rendabel blijkbaar maar trager (X700 performantie) niet meer. De X800 is dan te duur om zoveel te disabelen.
Geen last van atrifacts? maw nVidia verkocht je een voledig gave Ultra GPU als 6800NU?
Dat denk ik niet. Hij heeft nu zijn 6800 non-ultra omgetovert tot eeen 16-pipelijns zijnde. De kloksnelhied verandert er niet van. Ik denk dat de core clocksnelheid van de 6800GT wel haalbaar is, maar het die geheugen snelheid haal je waarschijnlijk niet. Maar waar is dat programma dan al legaal te downloaden? Ik heb ook nog een 6800 non-ultra en zou graag wat meer pipelines zien...
Respect voor de RivaTuner programmeurs! :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True