Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties
Bron: Beyond3D

Op Beyond3D wordt gespeculeerd dat de G70-core van nVidia wel eens 32 pixel pipelines aan boord zou kunnen hebben, waarvan er in de GeForce 7800 GTX acht zijn uitgeschakeld. Dit zou voornamelijk gunstig zijn voor de yields van het product, want door meer pipelines op de chip te bakken dan er uiteindelijk verkocht worden kunnen exemplaren die af fabriek een of meerdere defecten hebben, gered worden van de vuilnisbak. Daarnaast levert deze truc een interessante mogelijkheid op voor een toekomstige (nog snellere) uitvoering van de van kaart. Op het moment dat er genoeg chips van de lopende band af komen rollen waarvan alle pipelines werken dan zouden die als een speciale editie van de GeForce 7800-serie verkocht kunnen worden. Op zich is deze theorie van Beyond3D niet zo heel vergezocht; ATi heeft immers precies hetzelfde gedaan met zijn R420.

De vraag is echter of het wel zou passen. De G70-core heeft namelijk 302 miljoen transistors aan boord, terwijl de NV40 er al 220 miljoen had. Hoeveel transistors er per pixel pipeline in beslag worden genomen is onbekend, maar een toename van 'slechts' 82 miljoen transistors lijkt op het eerste gezicht te weinig voor zestien extra pipelines. Een schatting die gebaseerd is op het verschil tussen de NV40 en de NV43, levert namelijk toch wel tussen de 5 en 8 miljoen transistors per pipeline op. Zonder grote wijzigingen zou het dus erg onwaarschijnlijk (zo niet onmogelijk) zijn dat de G70 eigenlijk 32 pixel pipelines aan boord heeft.

Het grote punt is alleen dat die wijzigingen er wel degelijk zijn. Sowieso heeft nVidia enkele onderdelen van de pipeline opnieuw ontworpen, maar er is in de G70 ook een splitsing gemaakt in de traditionele pixel pipeline. Tot en met de NV45 bestond iedere pixel pipeline bij nVidia uit twee onderdelen: een fragment shader en een render output unit. Een videokaart met 16 pipelines had dus altijd 16 fragment shaders en 16 render output units aan boord. Met de komst van de GeForce 7800 GTX gaat die regel niet meer op: deze kaart heeft officieel 24 pipelines, maar daarmee wordt nu alleen bedoeld dat er 24 fragment shaders zijn; het aantal render output units is nog steeds 16 gebleven. Het idee hierachter is dat de kracht die nodig is op het gebied van shaders veel groter is dan de behoefte aan 'domme' fillrate, en dat extra render output units de moeite niet meer waard zijn. De transistors die bespaard worden door acht render output units weg te laten zouden echter wel eens precies genoeg kunnen zijn om acht extra fragment shaders kwijt te kunnen.

nVidia G70
Moderatie-faq Wijzig weergave

Reacties (56)

Laat ik voorop stellen: ik wil hier absoluut niet de nVidia fan gaan uithangen, maar nVidia is wel meesterlijk goed bezig op het moment. Sinds de behoorlijk geflopte 'dustbuster' 5800 serie heeft nVidia met de 6800 serie keihard terugeslagen en was de 6800 Ultra, totdat de x850XT kwam, de snelste kaart. Nu slaat nVidia wederom terug door hun producten maanden voor de introductie van de R520 hun kaart al te lanceren, mét dan ook nog eens launch waarbij de producten diezelfde dag nog in de winkel te koop zijn. De 7800GTX is ook (vooral op hoge resoluties) een stuk sneller dan een x850XT PE en ATI heeft hun R520 weer uitgesteld tot na de zomer, waarbij het nog niet eens duidelijk is of dit dan wél een paper launch wordt ofniet...

ATI is met een gewaagd project bezig. Het kan goed uitpakken of slecht. Ze zijn de eerste met de Unified Shader Architecture. Probleem echter: het is nieuw, nooit eerder gebruikt en vereist een grote vernieuwing van de core. nVidia probeerde met de 5800 serie ook iets nieuws... . ATI probeerd dan ook nog eens deze core gelijk op 90nm te bakken wat een erg nieuw procédé is, wat vooral in het begin lage yields zal betekenen. Ik hoop ook voor ATI dat het ze allemaal goed gaat, maar het uitstel voor de R520 betekend weinig goeds, en ze hebben het natuurlijk nog druk met de videocores voor de Xbox 360 en de Revolution. ATI heeft dan afgelopen kwartaal ook nog eens verlies geleden terwijl nVidia momenteel (hoewel afgelopen kwartaal cijfers nog niet bekend zijn) steeds meer winst maakt.

nVidia heeft dan weer het geluk dat ze een vrij zuinige core hebben met, aan de vele overkloks te zien, redelijk veel headroom om hun videokaarten in de toekomst met een sneller model te voorzien mocht de R520 kont schoppen. Dan blijkt nu óók nog eens dat er een mogelijk is dat nVidia in de toekomst (wanneer het productieprocédé beter is) mogelijk extra pipes te unlocken om de performance te boosten en nVidia is naar mijn mening goed bezig en bouwt genoeg marge in voor een toekomstige harde klap van de R520.
een belangrijke reden waarom nvidia wel de 5800 kon uitbrengen an ati geen flopper mag uitbrengen is dat de resultaten van nvidia altijd voldoende backup hebben om een foutje te maken en hun kas wel voldoende is om een tegenvaller op te vangen. ati's toekomst zal erg afhangen van de nieuwste opvolger en als deze flopt ivm technische problemen kan het er wel eens heel slecht uitzien voor hun.
tevens zie je dat nvidia ook van ati leert met bv deze pipe-line 'techniek' wat wel grappig is om te zien imo. altijd wel gezond dat men van elkaars concurrent leert
Ten tijde van de Geforce FX stond NVIDIA sterker in de schoenen dan ATI, maar ik denk dat dit tegenwoordig wel bijna gelijk is. Dus als de R520 om de een of andere reden niet goed verkoopt hebben ze zeker nog een kans met de generatie erna. Trouwens, het is nu al ongeveer bekend dat Crossfire evenwaardig zou zijn aan SLI (qua performantiewinst, ondersteunen van vele spellen is een andere vraag), en met 32 of zelfs 24 pijplijnen zit de performantie per GPU ook in dezelfde orde. Ze hebben ook meer mogelijkheden met videocompressie en zo, dacht ik.

'k Wil maar zeggen, NVIDIA is zeer goed bezig, maar ATI niet onderschatten door één negatief bericht. Uiteindelijk is het best voor de consument als ze dicht in elkaars buurt blijven...
@ shuriken :
ze hebben anders wel contracten om GPU's te maken voor zowel de xbox360 als de revolution.
dus wat die inkomste betreft zit het wel goed voor de toekomst.
Nou ik vraag me af of ATI zo sterk staat gezien dit bericht:
http://www.tweakers.net/nieuws/37788
het bedrijf maakte eigenlijk een kleine winst, maar omdat het bepaalde eenmalige kosten moest nemen kwam er een verlies van 400.000 dollar uit de calculator
Voor een bedrijf als ATI zal 400.000 dollar in de min wel meevallen. Zeker als dit word veroorzaakt door eenmalige afschrijvingen (als we eens wisten hoe groot die waren, konden we verder filosoferen

* 786562 Hoogie2004
@Countes, ze mogen helemaal niets maken, allemaal licentie spul, enkel nvidia heeft het ooit een keer voormekaar gekregen om werkelijk chips te leveren, maar die hebben M$ zo ongelovelijk ge***** dat niemand dat ooit nog zal doen.

Zo'n licentie leverd ook wel het nodige op hoor......
Wordt R520 unified shader model?

Ik dacht het niet, MS3.0 is geen unified shader model en R520 gaat SM3.0 worden.....

Eigenlijk is het 90nm gebeuren een van die dingen die erg lijkt op wat nVidia destijds gebeurt is. De NV30 werd als eerste GPU op 130nm gebakken. ATi doet nu ditzelfde met hun R520 op 90nm. Das nog niet zo erg, maar die clowns van TSMC, ik heb er erg weinig vertrouwen in....

Xenos is zo goed al af, onthoud ook dat de X360 wat eerder uitkomt als de PS3.

Desktop grafische chips lopen een beetje tegen een bottleneck aan als je het mij vraagt. Gehuegenbandbreedte stijgt eigenlijk niet zo heel hard, even een lijstje:
5950U, 29GB/s
6800U, 33GB/s
7800GTX, 38GB/s

stijgt niet zo snel als de rest van de kaart, IMO. Nu wordt het intressant of ATi misschien dat eDRAM op hun desktop chips gaat zetten en of nVidia misschien gaat overstappen naar XDR RAM. Natuurlijk kan GDDR3 ook wel, maarja, 2GHz eind volgend jaar ofzo? Of misschien blijkt GDDR4 wel erg goed te zijn, in ieder geval zal er toch weer een geheugen bandbreedte sprong gemaakt moeten worden, 512bit is niet haalbaar, ik ben erg benieuwd.
Wordt R520 unified shader model?

Ik dacht het niet, MS3.0 is geen unified shader model en R520 gaat SM3.0 worden.....
Ze kregen toch een andere pipeline structuur, waar alle pipelines zowel shaders als pixels kunnen verwerken. Normaal gesproken heb je een vast aantal pixelpipelines en shadersunits.
Pixel pipelines hebben texture units die een texture op een pixel plakken en pixel shader units die pixel shaders uitvoeren. Daar veranderen ze deze generatie nog niets aan. Enkel de Xenos heeft unified shader model, wat simpel weg inhoud dat shader units niet langer worden ondergebracht in andere pipelines, maar als eigen pipeline in een array door zowel pixel shader instrcuties als door vertex shader instructies kunnen worden gebruikt. Dit heeft als nadelen dat de geheugen intensieve pixelshaders die pipelines gaan stallen, en dat ook de vertex shaders dan niet meer door kunnen gaan en dat er een complexe cpu-achtige reservation station en alle gebruikelijke fetch stages er ergens ertussen zal moeten.
Desktop grafische chips lopen een beetje tegen een bottleneck aan als je het mij vraagt. Gehuegenbandbreedte stijgt eigenlijk niet zo heel hard...
Klopt, maar met een groter transistorbudget heb je plaats voor betere compressie en meer cache.

Ook stijgt de nood aan rekenkracht (shaders) sterker dan de nood aan extra textures. De belangrijkste parameters die de nodige bandbreedte bepalen zijn resolutie en framerate. Met een 1600x1200 resolutie en 60 FPS zit je goed en is de nodige bandbreedte ruwweg een constante.
Pixel shaders hebben ook erg veel bandbreedte nodig.
MSAA heeft erg veel bandbreedte nodig.

Spellen als Doom3 gebruiker toch wel degelijk erg veel texture lookup / pixel, en dat incombinatie met de nodige pixel en vertex shaders, hierbij zou bandbreedte op huidige architecturen toch weer een rol kunnen gaan spelen.

Bovendien blijft MSAA nog steeds er bandbreedte gebottlenecked.
Hou wel even in je achterhoofd dat zo'n 7800GTX voor slechts heel weinig procentjes telt in de totale omzet/afzet van nVidia. Grootste spelers zijn altijd nog de midrange en embedded chips (zoals die in de Xbox). Wat dat betreft doet ATi het erg goed: ze hebben een deal met MS om de grafische chip voor de Xbox360 te maken, erg lucratief lijkt me.
Dat valt dus erg tegen. Microsoft maakt op de verkoop van de Xbox geen winst. Dat doen ze met de games die ervoor zijn gemaakt. Om te kunnen blijven concurreren zijn de prijzen voor consoles de afgelopen jaren drastisch gedaald. Om dit blijvend te kunnen doen heeft Microsoft de prijs die het concern voor afname van de grafische chips wilde betalen ook drastisch naar beneden geschroefd. Dit is een van de redenen waarom de samenwerking tussen Microsoft en nVidia stuk is gelopen en Microsoft daarna met ATI in zee is gegaan.

Dat ze er veel geld aan verdienen in de vorm van omzet klopt. Dat nVidia er in eerste instantie wel bij vaarde doordat de enorme afzetten ook meer winst opleverde ook, maar door het terugschroeven van de prijs door Microsoft is die winst dusdanig gedaald dat nVidia er geen brood meer in zag. Hopelijk voor ATI hebben zij andere afspraken op papier gezet.
Er speelde tussen MS en Nvidia iets heel anders.

In de latere periode werden de yields veel beter, maar wilde Nvidia nog steeds hetzelfde bedrag ontvangen per gpu. Maar Microsoft wilde uiteraard minder betalen.
Daar is de ruzie over ontstaan.
Volgens mij doet nVidia het in het mid-range segment anders héél goed, kijk bijvoorbeeld maar naar de huidige 6600GT...voor pakweg 150/160 euro heb je een videokaart die echt goede prestaties neerzet voor een mid-range kaart en voor iets meer geld heb je een 6800LE die (met unlocked pipes) nóg betere prestaties geeft voor relatief weinig geld (kleine 200 euro). Het is dan ook een populaire kaart dus ik wilde zeker niet zeggen dat het op mid-range gebied niet goed gaat met nVidia.

Tevens heeft nVidia ook een embedde chip gemaakt voor de Playstation 3. Daar komt de nVidia RSX gpu in die gebaseerd is op deze G70 core alleen zal die op 90nm gebakken worden en hoger geklokt zijn en wat andere kleine aanpassingen. Dat ATI 2 consoles moet voorzien van chips (Xbox 360 en Revolution) wil niet zeggen dat dit altijd beter is. Ze moeten daarvoor ook meer werk verzetten want zowel Microsoft als Nintendo zullen andere eisen aan hun gpu stellen (tuurlijk zullen ze wel grote delen van de core overnemen). Om meerdere dingen tegelijk te doen betekend ook dat je je als fabrikant niet op elk punt evengoed zal kunnen focussen, dat betekend dus niet altijd beter imo.
Om even op het punt van kwartaalcijfers terug te komen. Gisteren was in dit topic --> http://www.tweakers.net/nieuws/37788 die discussie ook gaande. nVidia heeft begin juni de cijfers over afgelopen kwartaal (maart - april - mei) dat hetzelde kwartaal betreft als de cijfers vane ATI bekend gemaakt. Zie deze cijfers hier --> http://www.nvidia.com/object/IO_20994.html. Het gaat dus heel goed met nVidia.

Dat de Radeon 9700 Pro nog steeds goed kan meekomen heeft ook te maken met hoe diegene hem grafisch gebruikt. Als je op een 19" of 21" monitor met een resolutie van 1600x1200 wil spelen met veel opties aan zul je met een Radeon 9700 Pro toch echt te kort komen. Heb je een kleinere monitor of speel je op lagere resoluties met eventueel ook minder opties aan dan zal een nieuwe videokaart niet veel nieuws brengen todat een nieuwe versie van bijvoorbeeld DirectX uitkomt.
Ik geef je ook 100% gelijk :)
Vooral de 6600(GT) is een erg redelijk mid-segment kaart en sneller dan een 9800 Pro bijvoorbeeld die of evenveel of wat minder kost.

Ik vind trouwens dat iedereen is wat minder moeilijk moet doen over welke "kant" je kiest : Koop gewoon de kaart die je momenteel het beste vindt voor het geld dat je eraan wilt uitgeven en wie hem dan heeft gemaakt nVidia/ATI/mijn oma ( :+ ) boeit niet, jij moet ermee gelukkig zijn :Y)
De 9800 Pro is een kaart van een vorige generatie dus gaat de vergelijking niet helemaal op.
Maar ik geef je wel gelijk over het hele ATi/nVidia gedoe. Velen kunnen hier geen slecht woord horen over "hun" kant en de "fanboy"-flames komen hier op de frontpage en ook op GoT regelmatig voorbij gevlogen. Mij maakt het ook niks uit, mijn vorige kaart was een 9800 Pro omdat ik op dat moment de beste wou. Nu heb ik na een upgrade naar PCI-e een 6600GT omdat het de beste kaart was die ik kon krijgen voor de som die ik wou spenderen. Wat mijn volgende kaart wordt, weet ik niet maar ik vind het nogal kortzichtig dat het altijd een specifiek merk moet zijn, ik dacht dat tweakers slimmer waren.
De 9800 Pro is een kaart van een vorige generatie dus gaat de vergelijking niet helemaal op.


Technisch gezien misschien niet, maar qua prijsvergelijking wel.

En dit is toch wat belangrijker voor de consument.
Ik heb toch eerder de indruk dat de vooruitgang die nVidia gemaakt heeft eerder klein is. Het is best mogelijk dat de vooruitgang die Ati gemaakt heeft dubbel zo groot is waardoor een aanschaf van een nieuwe grafische kaart dan pas intersanter wordt.
Extra snelheid is ook vooruitgang. En vaak de belangrijkste.
Alle geruchten bij elkaar genomen denk ik dat het zo zal zijn.
INQ zegt dat de R520 10k+ in 3DMark05 zal scoren maar ook dat de G70 veel meer dan de huidige +-7800 met dat programma zal halen.
Daaruit kun je volgens mij wel afleiden dat dan van beide kaarten alle 32 "pipes" werken.
Uiteindelijk zullen de prestaties dicht bij elkaar liggen maar is het de vraag hoe de techniek van de R520 precies werkt. Aangezien de R480's met AA en filtering in shading performance nog altijd aanzienlijk beter presteren dan de 6800U en maar weinig minder dan de 7800GTX zou dit wel eens kunnen betekenen dat de R520 hierin zal excelleren. Speculatie's, maar het kan goed mogelijk zijn.
Zie www.3dcenter.org

nVidia heeft een goede zet gedaan om zijn huidige kaarten meteen beschikbaar te maken en ik vind dat wij als consumenten dit wel van ATI verlangen. Met de vorige generatie cores was de beschikbaarheid rampzalig.

Wat nVidia ook goed doet is drivers beschikbaar stellen voor Open Source besturingssystemen, want Windows is niet goed bezig met zijn Longhorn. Dit is een window of opportunity voor Linux, Mac OS X en nu ook ZETA (www.yellowtab.com). Hoop dat er dit jaar nog 3D hardware drivers voor ZETA mogen komen...
De yields hoeven misschien nu nog niet optimaal tezijn om toch een goede kaart af te leveren.
En ze hebben gewoon nog een aantal maanden om de yields beter te maken of zelfs nog verbeteringen aan te brengen om straks een hoog geklokte ultra kaart uit te brengen 500Mhz+32pipelines.
Vergeet niet dat dat dan het maximale van een 110nm process vraagt en dan je misschien wel een koeler mag verwachten die twee slots inneemt. Stroomverbruik en hitteafgifte zullen aanzienlijk toenemen.
Als de RSX op 550 MHz draait dan kun je verwachten dat ATI in staat zal zijn de R520 minimaal op 550 MHz te kunnen klokken. En de headroom zal net als bij de 7800GTX ook tenminste 50 MHZ kunnen beslaan, wat aangeeft dat ATI's net zo goed zijn met overklokken als nVidia.
Als de RSX op 550 MHz draait dan kun je verwachten dat ATI in staat zal zijn de R520 minimaal op 550 MHz te kunnen klokken.
Wat zegt de klokspeed van een nvidia kaart nu over de klokspeed van een ATi kaart? Het is niet omdat een nvidia kaart een xxx Mhz kan draaien dat een ATi kaart minstens evengoed zal doen.
En jij kan ineens ook het overklokpotentieel voorspellen. Dit is wel erg veel natte vingerwerk waar de inq zich nog niet aan zou wagen.

Bvb nvidia 6800 130nm, max klok: 425Mhz
ATi X850 130 nm max klok 540 Mhz

Er is dus absoluut geen verband.
Geen verband bij de kaarten die jij hebt aangekaart, en dat komt omdat de 6800 bijna 2 keer zoveel transistors heeft als de X850, wat betekent dat laatstgenoemde een veel betere hittespreiding heeft dus veel hoger te klokken is.
Heel simpel gezegd maar dat is het ook gewoon.
De chipdichtheid van de R520 en de G70 liggen heel dicht bij elkaar en als de G70 tot zo'n 50 MHz core te overklokken is dan kan het niet anders dan dat de R520 dat tenminste ook zou kunnen, zeker omdat het een 90nm GPU is en nog zekerder als er maar 24 pipes in de R520 zouden werken.
Dus theoretisch kun je het beter voorspellen dan je denkt.
Als nVidia inderdaad een 32 pipelines versie heeft, is de chip op 110nm niet dan ineens veel moeilijker te koelen en te overklokken?
Gok erop dat ze dan later een G80 utbrengen op 90nm
Als ATI al die tijd al op 90nm ontwerpt dan kunnen ze misschien wel een terugval hebben maar tegelijkertijd ook ervan leren
De eerste reviews van de 7800GTX geven een temperatuur van 50 graden onde full load met stock cooler !!!
Dat warmte probleem hebben ze op de een of andere manier dus mooi opgelost als je kijkt dat mijn 6600GT 50 graden IDLE is... |:(

Ik hoop dan ook voor ATI's dat ze daalk alweer een tweeslots koeler nodig hebben :7

<QUOTE>
Wat direct opvalt aan de kaart is het feit dat de koeler slechts één slot in beslag neemt. Volgens de reviewers is de GeForce 7800 GTX opvallend stil (24dB) en bovendien niet al te warm (55 graden celcius onder volle belasting).
</QUOTE>

Bron: http://www.tweakers.be/nieuws/37755
Ik weet niet wat ie during gameplay doet maar idle draait de XFX 7800 GTX hier volgens de Nvidia drivers op 50 graden. Niet erg veel verschil met je 6600GT dus.
Ik heb al ergens gelezen dat de chip erg veel beter geoptimaliseerd is en dat deze gewoon met een single-slot cooling solution gewoon normaal en goed gekoeld kan worden.
Mischien ook een verklaring waarom er nog geen 7800 "Ultra" is. Die naam bewaren ze gewoon voor de versie met 32 pijpen.
Er komt geen Ultra als het van nVidia afhangt. De Ultra kaarten hebben een reputatie van slecht leverbaar te zijn en daarom hebben ze besloten van deze kaart de naam 7800GTX te geven ipv Ultra
Als R520 beduidend sneller is en NVIDIA tegen dan nog niks nieuws kan aankondigen dan denk ik dat een Ultra releasen er dik in zit. Het is duidelijk dat zelfs als er geen 32 pijplijnen inzitten de G70 nog veel potentieel heeft (500 MHz core, 1400 MHz geheugen) en daarmee kunnen ze hun positie behouden of op z'n minst verdedigen.

Zoals opgemerkt hoeft het ook niet perse Ultra genoemd te worden...
daar geloof ik niet in hoor, de GTX is volgens mij het equivalent van de 6800GT
de Ultra gaan ze gewoon later launchen, desnoods met enkel een hogere kloksnelheid, bij de GF2 hebben ze net hetzelfde gedaan
ach mischien verzinnen ze een nieuwe achtervoegsel voor de 32 pipe kaart of ze noemen hem de 7900.
Ik denk dat de kans erg groot is dat de chip inderdaad 32 pipes heeft waarvan 8 uitgeschakeld. Dit verklaard ook waarom de RSX gpu in de Playstation 3 even veel transistors heeft als de 7800GTX maar toch krachtiger is, aangezien in de RSX chip straks wel alle 32 pipelines geactiveerd zullen zijn.
Dat heeft ook te maken met het feit dat de RSX gpu een veel hogere kloksnelheid heeft (550mhz ipv 430mhz) en sneller geheugen tot zijn beschikking heeft (XDR RAM ipv DDR3 geheugen). Het is dus niet dat je daaruit de conclusie kunt trekken dat de G70 core idd 32 pipelines heeft. Daarbij is de RSX gpu géén exacte kopie van de G70, en zijn er ook dingen aan de gpu veranderd die hem sneller kunnen maken.
Wat ik hieruit opmaak is dat deze ronde nvidia niet zo heel veel heeft gedaan op het gebied van innovaties maar meer is gegaan voor optimalisatie van de huidige technieken..

Ik heb dan ook zo'n vermoeden dat ze met deze release nog best wat truken in de doos achter de hand hebben om hem alsnog op te schalen naar een eventueel snellere ATi..

Het zal er om spannen maar ze zijn eerlijk toegegeven goed bezig..
Toch blijf ik het uitbrengen van deze 7800 GTX op de manier zoals het nu gaat wel een super slimme zet vinden. Ze brengen een kaart uit waar mee ze weer het 3dmark record in handen hebben, terwijl ze nog veel sneller kunnen met de zelfde kaart (32 pipelines dus, erg overklokbaar, en kan evt ook nog naar 90nm gezet worden). Ok de 7800GTX is niet schrikbarend sneller dan de x850XT. Maar waarom zou je een kaart uitbrengen die enorm veel sneller is dan de x850xt. Nu heeft nvidia toch weer de snelste kaart? Lijkt me voor de markt niet nodig om een veel snellere G70 kaart uit te brengen op dit moment. Komende maanden hebben ze snelste kaart en daarna komen ze gemakkelijk met een ultra versie op de markt, als antwoord op de R520. Slimme zet. En dan ook nog zo'n goede release van de 7800GTX. De nVidia marketing deparment heeft best goed nagedacht vind ik.
Volgens Unwinder is het niet waar, zijn er geen extra pipelines locked en zijn ze ook te unlocken. Overgens merkt hij op dat de G70 een NV47 is.
Tja de G70 schijnt nu al op 500mhz te kunnen draaien, er komt 1400/1600mhz geheugen uit binnenkort, als dan ook nog 25% meer pipelines kunnen worden aangezet krijgen je wel een beest van een 7800. ATI valt echt weg nu. nVidia kan de 6800 Ultra en GT's af laten zaken naar het middenprijs segment, 200~300 euro en zet de 850 compleet in de schaduw. Daarnaast zijn ze ook nog eens erg succesvol met SLI. Op lagere resoluties is 6800 SLI weer sneller is dan een enkele 7800.
Je hebt echt erg veel keus op dit moment bij nVidia:
6600GT
6600GT SLI of een 6800GT/Ultra
6800GT/Ultra SLI of een 7800GTX
7800GTX SLI

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True