Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 100 reacties
Bron: DigiTimes

De nVidia GeForce 7900-serie zal volgens bronnen van de DigiTimes op 9 maart aanstaande worden geïntroduceerd. Dat is de eerste dag van CeBit, de beurs die al eerder genoemd werd als plaats waar de nieuwe generatie videokaarten zou verschijnen. nVidia's 90nm G71-core belooft een hogere kloksnelheid en meer pipelines te bieden dan de huidige 110nm G70 (GeForce 7800). Gesproken wordt over 32 in plaats van 24 pixel shaders, frequenties van 650 tot 750MHz en geheugen op 1,6 tot 1,8GHz. De nieuwste geruchten neigen daarbij naar de lage kant van dat bereik, maar melden ook dat het nieuwe topmodel van nVidia in de meeste benchmarks geen probleem zou hebben om de ATi Radeon X1900 XTX te verslaan. Als het verleden enige indicatie is zullen fabrikanten van kaarten niet te flauw zijn om hun kaarten sneller te klokken dan nVidia's eigen referentiemodellen, wat de afwijkende geruchten deels kan verklaren.

nVidia logo (nieuwe stijl, kleiner)Naast de 7900 GTX als nieuw topmodel zal er ook een iets goedkopere GT-videokaart gebaseerd op de nieuwe GPU worden voorgesteld op de Duitse computer- en elektronicabeurs. Deze uitvoering krijgt volgens de geruchten 24 pipelines, een 450MHz core en 1,32GHz geheugen. De huidige 7800 GT heeft 20 pipelines, een 400MHz processor en 1,0GHz geheugen aan boord. Beide kaarten zouden direct na de aankondiging te koop moeten zijn in de winkels.

Moderatie-faq Wijzig weergave

Reacties (100)

Nou, zolang je bij nVidia geen AA kunt aanzetten bij HDR vindt ik er niets intressants aan. De X1900 XTX is gebouwd om in de toekomstige games beter en beter te gaan werken door hun hoge pixelshader:pipeline ratio (3:1).

Ik denk dat ATi de juiste keuze heeft gemaakt voor de toekomst, terwijl nVidia alleen nog maar meer anabolen in hun kaartje duwt.
Pure performance: 16 vs 32
Shader performance: 48 vs 32

In het eerste geval heeft Nvidia 2x zoveel power als ATi, maar slechts 33% minder shaderpower. Het is dus even afwachten wat beter gaat presteren, de pure kracht of de shitload aan pixelshaders. De 7800GTX 512MB loopt nog niet eens zo gek veel achter op de X1900XT(X), dus het zal er zeker om spannen :)

Maargoed wat maakt het nu uit welke beter is, dom fanboy gedoe. Kijk gewoon welke kaart de meeste bang voor je buck geeft, dan zit je altijd goed. Ik had eerst een 9700Pro, maar rouw er echt niet om dat ik een 6800GT 256MB voor 206 euro heb gekocht aug. verleden jaar.
Even om te relativeren:
als de nvidia kaart als referentie kaart wordt bekeken zijn de specs van de atikaart als volgt:

50% pipelines van de nvidia
en
150% shaders van de nividia

dit geeft wel een heel ander beeld. Letwel pipelines is wel een teken van performance maar is het zeker niet 1:1!

de vraag is dan ook wat is de bottleneck.
Is een spel erg shader intensief zal ati winnen omdat dan de nvidia kaart eerder deze bottlneck zal bereiken (zonder nut aan zijn pipelines veel nut te hebben).
Indien er weinig shaders worden gebruikt in een spel is het natuurlijk net andersom.

Bovendien spelen er nog meer variabelen me zoals geheugen/cpu etc...
en in welke games kun je HDR + AA gebruiken? Farcry en Splinter cell. Dat zijn de enige. Geen kat die die spellen nog speelt.
HL2: Lost Coast, en ik geloof ook Chapter 1 (voorheen HL2: Aftermath), die laatste weet ik alleen niet zeker. Ik heb een X1800XL en ik kan Lost Coast echt prima spelen.
Voor zover ik weet, zijn het de gameontwikkelaars die voor nVidia kaarten de optie HDR + AA blokkeren, net zoals FEAR bv. ook niet via het standaardmenuutje op 1280x1024 kan gezet worden.

Lost coast draait hier bv prima (FPS>=25) op HDR + AA, weliswaar op een overklokte 6800GT. Serious Sam 2 heb ik al even de demo gespeeld op een standaard geklokte 7800GT, en er zat idd één scène in waar HDR blijkbaar erg belangrijk is, en dan schokte het wel even (framedrops naar ergens rond de 15 a 20 FPS gok ik zo) op 1600x1200. Weet iemand of een ATi in het futuristisch demolevel ook een framedrop heeft?

Dat dit dan de doorslaggevende factor moet zijn tussen het al dan niet kiezen voor een ATI of een nVidia, vind ik echter dronkemansgelul. Het is slechts één van de vele factoren.
dat is het ook niet, maar het feit dat de gamesfabrikanten hebben gezegd "nou, blokkeer het anders nog maar effe voor nVidia" kan betekenen dat ze meer vertrouwen hebben in de toekomstvisie van ATi. ook qua shader-architecture hebben ze gewoon zaakjes beter voor elkaar (helemaal met de X1900). Ik had een 6800 (standaardkaart, weet niet precies meer welke letters daarachter stonden), ben overgestapt naar een X1800XL en ik ga met dezelfde settings met FEAR van 24 gemiddeld naar 72 gemiddeld. Vind ik een niet verwaarloosbaar verschil. De keuze was verder nog duidelijker omdat ik me ergens kon herinneren dat ATi's langer meegaan dan nVidia. Ik upgrade best snel, maar vind 't maar niks dat m'n kaart misschien kapotgaat voordat ik geld heb voor de volgende upgrade.
Gamesfabrikanten blokkeeren het helemaal niet voor Nvidia.

De reden dat je het niet aan kan zetten is simpelweg omdat de Nvidia kaarten er de noodzakelijke hardware support voor missen.
Dit gaat dan over HDR + AA volgens SM3 methodes.

Valve heeft in de HL2 engine HDR + AA geimplementeerd in SM2. Vandaar dat dat wel werkt op een 6800GT.

(Het grappige is dat Nvidia altijd heeft beweerd dat HDR in SM2 niet zou kunnen en dat je daarvoor perse hun SM3 implementatie nodig had)
Je vergeet:
- Serious Sam 2
- Age of Empires 3

Aankomend:
- Oblivion
- Alan Wake
- elke Xbox360 game met HDR die geport gaat worden naar de PC, want hier wordt zo'n beetje standaard AA toegepast op HDR
En hoe speelbaar is FP HDR + AA? Met minder dan een X1900XTX kom je er niet.
En Nvidia kan trouwens in HL2 en AOE ook HDR+AA.
Je vergeet:
- Serious Sam 2
- Age of Empires 3
Geen spel, maar 3DMark06 kun je ook nog aan het lijstje toevoegen.

Hoe snel die 7900GTX ook wordt, je mist gewoon een imo belangrijke IQ feature.
hoe speelbaar het is?
nou prima speelbaar eigenlijk
zie er ook erg mooi uit trouwens.

zeker als je TFT hebt en niet hoger kan als bv 1280x1024 zijn dat soort IQ opties gewoon erg belangrijk.
Naast de 7900 GTX als nieuw topmodel zal er ook een iets goedkopere GT-videokaart gebaseerd op de nieuwe GPU worden voorgesteld op de Duitse computer- en electronicabeurs. Deze uitvoering krijgt volgens de geruchten 24 pipelines, een 450MHz core en 1,32GHz geheugen.
Als de architectuur het zelfse is gebleven dan verwacht ik dat de 7900GT net iets sneller is dan de 7800GTX, en kijkend naar de prijzen, zal die kaart iets van 400 euro oid kosten. Das eigenlijk niet veel geld voor zoveel performance. Als ik zelf kijk wat ik met mn 7800GTX kan danmerk ik dat ik iig alle nieuwe spellen op 1600*1200 kan spelen en bij een hele hoop ook nog AA ed aan zetten.
Die 7900GTX wordt denk ik ook echt een beest van een kaart, zeker als je bedenkt dat de 7800GTX 512MB nog redelijk meekan met de X1900XTX, zou je verwachten dat ati nu dik ingemaakt word. Dit wordt weer interessant :)
Haha, dit meen je toch zelf niet? Wie kwam er jaren achter elkaar met Extreme Platinum Editions die weliswaar de kroon van snelste grafische kaart naar ATI brachten maar waar werkelijk niemand aan kon komen behalve hardwaresites om ze te benchen. Verder hadden die enorme koelingen en is het de laatste 2 generaties nog altijd zo geweest dat ATI behoorlijke heethoofden waren tov de nVidia's. nVidia is véél inovatiever tegenwoordig als ATI, dus onder welke steen jij vandaan gekomen bent?

@inn87: Je hebt echt geen idee waarover je praat. Waarom is de x1900 een veel mooier ding dan de 7900? Geef eens goede argumenten. Ati vroeger heefthoofden? Toont maar weer aan dat je nergens verstand van hebt. In de tijd van de 8x00 serie en 9x00 serie hadden ze juist behoorlijk koele producten ivm nVidia (die dual-slot coolers nodig had in de tijd van hun FX5x00 serie). Tegenwoordig is het juist zo dat nVidia koele producten heeft (GeForce 7 serie deed het met single slot cooling tot de GTX512 kwam) terwijl bij ATI men al een hele tijd dual-slot coolers gebruikt waarbij uit alle reviews blijkt dat die krengen behoorlijk heet worden (laatste serie weliswaar iets koeler als de vorige serie, maar toch). ATI zit dan ook al wél op 90nm, terwijl nVidia koelere producten heeft met het 110nm procédé, nogal grappig. De x8 serie was wél degelijk een behoorlijk heethoofd en de x8 serie de 6 serie tot zwijgen brengen? Haha, de enige chip van ATI die de 6800Ultra tot zwijgen kon brengen was..jawel...de XT PE (Platinum Edition) die dus zoals ik al zei nergens te verkrijgen was behalve voor hardwarewebsites om te benchen. En dat nieuws over de 7800GTX 512 heeft ATi zelf het nieuws in gebracht via een interne slideshow die gelekt was. Niemand heeft daar bewijzen voor behalve The Inquirer die dat momenteel aan het testen is.

Dus vertel mij eens...Onder welke steen ben JIJ vandaan gekomen? Je verteld hier echt precies het tegenovergestelde verhaal, echt triest gewoon.
nou.. NVidia doet dit erger hoor.. kijk maar naar de 78000GTX512.. die is nog steeds niet goed verkrijgbaar..!! en de 6800Ultra was ook niet goed verkrijgbaar.. allemaal kaarten om ATi te overtreffen.. dus wat jij zegt is zinloos.. ennuh.. wrm gaan we eigenlijk over het verleden praten.. iedereen heeft fouten gemaakt.. Nvidia met de FX series.. en ATi nu met de X1800 series.. ookal is dat nog niet zo'n grote fout als de FX series :P
De GTX 512 is wel goed verkrijgbaar. In ieder geval beter verkijgbaar op launch day dan de X1800XT.
Maar echt, wil je absoluut een GTX512 hebben? Ik kan je wel naar een paar winkels verwijzen als je moeite hebt er eentje te vinden.
@aval0ne,

Vertel eens waar ze dan te vinden zijn?
De vorige keer dat je dit beweerde bleek vervolgens dat ze NERGENS op voorraad waren. Nu heb ik even tien winkels in pricewatch bekeken en die blijken allemaal ook geen voorraad te hebben.

Op launch day waren er wat kaarten beschikbaar. De volgende dag was de voorraad op, en sindsdien zijn ze gewoon niet meer gesignaleerd.
waarom zou je er een willen als je veel makelijker een x1900 kan halen? :P
inn87: ATi innovatief? SLi, HDR, SM3, allemaal geinnoveerd door ATi zeker?
sli : ATI werkte al met multi GPU's nog voor de tijd van de 9700pro. oke voor het leger maar wel met meer als 24GPU's tegelijk.
en laten we 3dfx niet vergeten met hun (VEEL) eerdere versie van SLI.

HDR, probeer op je nvidia maar eens HDR + AA/AF te gebruiken
goh hee dat werkt niet
op een ATI wel.
en HDR is trouwens ook niet door Nvidia ontwikkeld.

SM3, ontwikkeld door microsoft voor DX9 niks met nvidia te maken. (niks, in zo veren ze zaten erbij toen het ontwikkeld werd, net als ATI)
Je bedoelt crossfire? Wat nog steeds niet naar behoren werkt. Toch vreemd als je al zolang multi gpu ervaring hebt.

Ik zeg niet dat HDR en SM3 door nvidia ontwikkelt zijn, ik zeg dat nvidia die technonogie sneller heeft willen pushen. Als we op ati moesten wachten zaten we nog met dx9a.
ehm aval0ne... Je weet dat 3dfx eigendom is van nVidia? Je weet ook dat Crossfire nog steeds niet naar behoren werkt, waar SLI al te schalen is naar 4 GPU's (en wellicht meer)?

Je gebrabbel komt me een beetje over als ATi-fanboy geneuzel, en je mag best fan zijn van ATi, maar vertel mij dan eens waarom ATi druk bezig is de boot te missen?
OMG, videokaart-merk fanboys, die alleen hun eigen merk kopen wat er ook gebeurd.. Dom volk imho..

Ik koop gewoon wat het beste is qua kwaliteit/prestatie/prijs op het moment van aanschaf.. Op dit moment heb ik een Nvidia 6800GT PCI-E en daarvoor nog een ATI 9600XT AGP, en daarvoor weer een Nvidia GF4.. Wat mijn volgende kaart wordt weet ik nog niet, ik wil wel dit jaar weer gaan upgraden voor games als UT2007 etc.. Zoals het er nu uitziet zal het denk ik weer een Nvidia kaart gaat worden, maar als ATI beter blijkt te zijn koop ik die.. Dat domme merken-fanboy gedoe doe ik echt niet aan mee..
nee ik bedoel niet crossfire, ik pakte je punten 1 voor 1 aan, waarmee ik dus begon met SLI.

en hoezo niet naar behoren werkt? werkt prima, waar heb je het over?
en die 4 gpus is puur publiciteid en ook met crossfire makelijk te maken als ze daar geld in zouden willen steken.

en hoewel nvidia sneller was met HDR en sm3 is de implimentatie van ATI duidelijk beter en volwassene (HDR + AA/AF mogenlijk en een stuk meer shader kracht als Nvidia)

en als we het toch over shaders en innovatie hebben.
de 1 op 3 verhouden van ATI tussen texture units en pixelshaders is zeer zeker erg innovatief te noemen, en zeker niet zonder risico.
het betekend gewoon dat ATI niet sneller gaat zijn in oude games als Nvidia, maar als je dieper kijkt (en dan moet je maar hopen dat de mensen dat doen) zie je dat dat ook helemaal geen probleem is (200 or 300 FPS maakt geen ruk uit)
Ik sluit me geheel aan bij ThaMind.

Ati is juist het bedrijf dat de laatste tijd de frequenties omhoog pompt om nVidia bij te benen, en de 7800gtx slecht beschikbaar? onzin!
Zodra ie uit was ben ik langs 6 lokale hardwareboeren gelopen die hem allemaal op voorraad hadden, en heb de goedkoopste uitgepikt.

dus inderdaad; onder welke steen kom jij vandaan gekropen?
Wat dat betreft is er wel een gat in de markt voor zuinig/prestatieverhouding. Ik wil best een snellere kaart kopen dan mijn 6600GT, maar dan moet ik een nieuwe 400+ W voeding kopen. 2 jaar geleden kocht ik een 350W fanless PSU voor 160 euro en ik heb geen zin om voor een nieuwe videokaart gelijk een nieuwe voeding te halen. Bovendien spelen veel mensen als ik af en toe een spel, maar zitten 95% van de tijd andere dingen te doen, waardoor de kaart onnodig veel stroom zit te verbruiken.
Een externe PSU heeft HELEMAAL NIETS te maken met voltages van de gpu.
Jawel, want blijkbaar vreet de kaart totaal zoveel dat een interne het bijna aflegt.
Dat sommige interne PSU's niet sterk genoeg zijn heeft nog steeds geen zier te maken met het gebruiken van te hoge voltages voor het productieproces.
Daar ging deze discussie immers over.

Het betekent ook dat je je als fabrikant daarmee beschermd tegen mensen die die kaart inbouwen in een systeem met een zwakke PSU. (250W of zo)
Scheelt je ontzettend veel support kosten.

(of bedoelde je het gewoon als grapje?)
Ja de frequenties gooien ze omhoog, ze hebben een andere architectuur dus hebben ook hogere frequenties nodig. Maar de voltages gooien ze niet omhoog en dat doen ze bij Nvidia ook.

Ik neem het Intel toch ook niet kwalijk dat ze hun processor niet op dezelfde kloksnelheid als een Amd laten lopen?
@ inn87: je hebt het nu toch niet over dat onzinverhaal dat ATI zelf de wereld in heeft geholpen over het feit dat nVidia kaarten sneller dood zouden gaan vanwege een hoger voltage? The Inquirer zou dat verhaal testen door beide kaarten voor een maand lang stressed te houden en kijken welke het eerst dood ging. Heb uitslag nooit gehoord maar ben echt benieuwd.
Ja de frequenties gooien ze omhoog, ze hebben een andere architectuur dus hebben ook hogere frequenties nodig. Maar de voltages gooien ze niet omhoog en dat doen ze bij Nvidia ook.
En wat als nVidia nou hun architectuur zodanig heeft aangepast (en hun productietechniek) dat hun chips óók hogere voltages aankunnen, niks aan de hand dan toch? Zelfde verhaal met ATI en hun hogere frequenties.
inn87: ati heeft voor zijn X1800XT kaarten een bios ter beschikking die de core naar 700Mhz brengt en 0.1V erbij doet. Dit is dus eencore voltage verhoging.
Asus heeft X1800XT TOP kaarten met externe PSU! Wie doet er dan gek met voltages?
dik ingemaakt?
tja is het is maar net hoe je het bekijkt
als je 400 ipv 300FPS in quake3 belangrijk vind dan word ATI idd ingemaakt
heb je daarin tegen meer behoefte aan 60 ipv 45 FPS in FEAR en andere next gen games dan zit je nogsteeds beter bij ATI.
want jij weet al hoe de 7900GTX in fair presteerd? :?
hmm, moet je wel even bedenken dat de 7800GTX 512 niet veel langzamer is in FEAR dan die 1900XTX...

En daarbij komt dat die 48 shaders hele afgekapte versies van DE pixelshaders zijn..

ik denk dat die 1900XTX best wel geowned wordt.

Fuck fragment-shaders/processors

denk maar aan de Cell-CPU; die is gewoon niet goed, in vergelijking met een normale Athlon X2

Het kan ook te specifiek
bedoel je niet 48 van ATi vs 24 van nVidia?
Fuck fragment-shaders/processors

denk maar aan de Cell-CPU; die is gewoon niet goed, in vergelijking met een normale Athlon X2

Het kan ook te specifiek
jij weet dus echt niet waar je het over hebt.
multithreaded CPU's vergelijken met GPU's en dan zeggen dat je beter minder threads tegelijk moet doen (zoals jij hier doet) is gewoon echt fout als je het over GFX hebt.

en die 48 shaders zijn gewoon 48 shaders, niks afgekapt.

dat de 7800GTX 512 niet zo langzaam LIJKT is omdat als er niks op het scherm te doen is hij een hoop goed kan maken omdat er dan weinig van de shaders word gevraagt.
maar ga je kijken naar waneer de FPS EHCT tellen, zodra er veel op je scherm gebeurt (vijanden schoten explosies ect), daar zal de preformance van GTX512 flink inzakken.
dat zie je niet echt terug op het gemiddelde maar als je speeld is het zeker merkbaar.

edit : 4+ voor iemand die totaal niet weet waar hij het over heeft en 1 of 0 die mensen die echte informatie aandragen die misschien pijnlijk is maar daarom nog niet minder waar....
ik heb nu echt all het vertrouwen in het mod systeem hier verloren, iniedergeval voor dit nieuws topic....
+4.... sheesh!
@s_xero:
En daarbij komt dat die 48 shaders hele afgekapte versies van DE pixelshaders zijn..
Zoals Countess ook al constateerd weet jij echt totaal niet waarover je praat.

Maar je mag proberen het tegendeel te bewijzen. Vertel maar eens in welk opzicht het dan afgekapte versies zijn.
(Ik ben echt heel benieuwd hoe je je daar uit wilt redden)
hij bedoeld de 7800gtx als reactie op het bericht voor hem :)
niet exact maar kan wel bedenken.
fear is erg shader heavy en is eigenlijk altijd de bottlenek als er veel op het scherm gebeurt.
en de X1900 heeft 50% meer shader processors als de nieuwe 7900 (32 bij ati tegen 24 bij nvidia)
de conclusie is dan niet zo heel moeilijk
Ja je bent gevaarlijk bezig countess, zodra je in dit Nvidia topic een slecht woord hebt over Nvidia voelen ze zich meteen aangevallen en modden ze je weg. Ik zeg gewoon waar het op staat en als ik nu zou mogen kiezen tussen een Ati x1900xtx of een 7800gtx 512 zou ik kiezen voor een x1900xtx, ik ben geen fanboy... maar op het moment is Ati gewoon beter bezig.
Ow ja en voor de mensen die hier zeggen dat de gtx512 de x1900xtx bijna bijhoud qua fps, moeten dan maar eens naar de minimum fps kijken van de gtx512... Juist in de drukkere stukjes wanneer je de videokaart zijn kracht echt nodig hebt dropt de gtx512 de fps.
Merk of fabrikant is eigenlijk totaal irrelevant, zeker wanneer beide even goed/slecht bekend staan.
Amen.
Sterker nog, je moet helaas bij elke nieuwe kleine generatie (en dat zijn er veel) Ati / nvidia kaarten weer opnieuw kritisch kijken. Dan weer Nvidia, dan weer Ati. Voor de gemiddelde consument zijn beide merken altijd goed. De absolute purist moet bij elke release wikken en wegen en de mensen die daar een beetje tussen in hangen willen graag horen dat 1 van de 2 beter is omdat ze gewoon lui zijn. :) :)
Het lijkt alsof nvidia en ati steeds sneller hun gpu's designen en releasen. Ik kan me nog herinneren dat na de 9800PRO/XT best lang moest worden gewacht op de X## serie van ATI en 6### serie van nvidia. Maar nu zie ik ongeveer elke twee maanden een nieuwe gpu verschijnen.
Inderdaad; het lijkt alsof ze steeds eerder releasen.

Maar als je de data er bij pakt, dan zul je zien dat dat niet het geval is.
Alleen de R520 en de R580 zijn heel kort na elkaar gekomen omdat de R520 vertraagd was, maar de R580 gewoon op zijn eerder geplande datum uitgebracht is.
dat komt omdat hier eigelijk niets nieuws in zit, het is net als dat nVidia na de 5800 ook best snel met de 5900 en zelfs de 5950 kwam...
het is niet een hele nieuwe generatie zoals dat bij de 9X00 naar de X serie wel was (opzich is de stap van de 6 naar de 7 serie ook niet heel schokkend veel shader werk maar niet de grootste sprongen bij de ati X800 naar de X1 was dat nog wat meer, ook oa van 2.0B naar 3.0)
* 786562 nero355

Verder stel ik voor dat de heren van ATI en nVidia effe een jaar ofzo kappen met videokaarten uitbrengen, zodat de heren bij AMD en Intel een CPU kunnen maken die de videokaarten kan bijbenen :) :)

Volgens mij is het namelijk nog steeds zo dat ALLE huidige kaarten FLINK CPU limited zijn of niet ??
Verder stel ik voor dat de heren van ATI en nVidia effe een jaar ofzo kappen met videokaarten uitbrengen, zodat de heren bij AMD en Intel een CPU kunnen maken die de videokaarten kan bijbenen
.. dus begrijp ik goed dat je voorstelt een drijvende kracht achter inovatie stop te zetten ... dat is niet echt vooruitgang...

Laat ze maar nieuwe kaarten uitbrengen die zoveel kracht over hebben dat ze physics (ipv een veel te dure add-on) kunnen gaan doen ... meer taken wegnemen van de cpu, is wat belangerijk is..
Het is meer de bus tussen de gpu en cpu die de bottleneck vormt. Als je bv. kijkt naar de Xbox 360 hebben ze dit directer gedaan met kortere verbindingen waardoor de snelheid veel hoger ligt, dit is natuurlijk lastiger op een pc met fysieke slots.
de PCI-E 16x but is echt meer als snel genoeg hoor
als je die verlaagt naar 8x of zelf 4x dan is het prestatie verschil echt minimaal. en hoe nieuwer de game hoe kleiner dat verschil word (de GPU rekend steeds meer zelf uit zonder een beroep te hoeven doen op de CPU)
de PCI-E 16x but is echt meer als snel genoeg hoor.
narcan heeft het dan ook over de verbinding tussen gpu en cpu, dat is NIET de 16x PCI-E bus. Deze bus zit namelijk alleen tussen de gpu en de northbridge. Vanaf de northbridge gaat alles richting de cpu over een FSB of Hypertransport én die bus is (zeker bij Intel) een zéér drukke bus waarover véél meer verkeer moet dan alleen de gpu->cpu (en viceversa) data. En deze bus kan wel degelijk een bottleneck vormen voor de huidige videokaarten.
* nero355 1900XTX besteld heeft en gelukkig is sinds dit de eerste keer is dat deze dude effe lekker gek doet en een TOP END videokaartje koopt
:)

Vind niet echt slimme keuze om NU een X1900XT te bestellen.

A De X1900XT is NET uit en kost nu een topvermogen.
B De X1900XT is nog niet ééns tegen zijn rivaal opgezet en je weet niet welke sneller is.
C De X1900XT zal snel in prijs dalen zodra de GeF7900GTX uit is. En dit duurd niet lang meer. (dit is eigenlijk punt A)

@Bololo, eigenlijk niet.
Wat ik bedoel is gewoon heb het geduld. Al is het één maandje. Dan zal dat ding enorm in prijs gedaald zijn.
Reken zeker op ¤100 tot max ¤200 voor de top-end versie.
Tja ,zo kun je wel doorgaan hé? Als je altijd maar moet wachten op het nieuwste,of wachten tot het allernieuwste tot het nieuwste niet meer het allernieuwste is en daardoor goedkoper wordt,dan zul je(of iemand anders die het niet heeft) nooit tevreden zijn met wat je(of iemand anders,heeft) hebt,of diegene is juist wel tevreden en (die iemand anders die het niet heeft)iemand anders niet :7

met andere woorden:jouw redenatie heeft geen einde :Z
.
Jouw conclusie; nooit wat kopen want er komt weer wat nieuws :Z
Er staat in het artikel dan ook dat er veel verschillende bronnen zijn met veel verschillende voorspellingen :z

(dit was @makavelibrox)
Ik vraag me dan ook af hoe betrouwbaar de geruchten zijn.

Ze klinken meer als de vanzelfsprekende voorspellingen die iedereen die een beetje goed geinformeerd is kan doen.

Het is bekend dat ze van 110nm naar 90nm gaan. Dat geeft een bedrijf de volgende mogelijkheden:
- Zelfde core, maar op 90nm goedkoper te produceren door grotere opbrengst per wafer.
OF
- kleinere core, minder hitte en dus hoger te klokken
OF
- meer pipelines, uiteindelijk even duur te produceren als op 110nm

Da's allemaal geen rocketscience. Je moet alleen niet de fout maken dat je de OF's weg laat en denkt dat het allemaal EN is.
Dat is meestal wat de fanboys allemaal doen in de maanden voor een release. En dan krijg je meestal kort voor de release nieuwe geruchten die de OF weer terug plaatsen en wat realistischer verwachtingen kweken.

Precies hetzelfde zie je nu weer gebeuren. Wat dat betreft is het allemaal zeer voorspelbaar.
Ik vraag me af hoeveel mensen nu weer direct naar de winkel rennen om hun 7800GTX 512 in te ruilen voor de nieuwe. Om 3 maanden later weer een sprintje te trekken voor nog weer iets snellers.
Ik snap het trouwens ook niet waarom iemand na 3 maand een kaart van 600euro gaat inruilen voor een nieuwe kaart van 600euro die enkele FPS meer haalt (150 vs 180fsp).

Eenmaal je 100fps hebt zal het toch wel genoeg zijn. Ik denk echt dat hier paar te rijke kinderen bij zitten.

ontopic: Gaat de 7800GTX fors dalen in prijs als de 7900 uitkomt? Of doet Nvidia daar niet aan mee?
Maakt ook niet uit, nvidia en ati verdienen heus niet veel geld op de high-end markt, die is er gewoon om de titel te verdedigen van fabrikant met de snelste kaart. De fabrikant met de snelste high-end kaart is de fabrikant die het meeste verkoopt in de middenklasse.
ehh het verschil zzit hem in 30 of 50 fps

mesnen die nieuwste kopen game niet op een 14 inch counterstrike monitor maar op een 21 of groter met 1900 resolutie en maximale AA en AF, en dan is het verschil tussen de kaarten enorm, en dan is 50-60 fps heel wat beter dan de 20-30 die de oude kaart weet te doen.
Misschien de mensen die geen 7800GTX512 hebben? Iemand die dan zijn pc update en er de snelste grafische kaart van het moment in wil hebben?
Ik vraag me af hoeveel mensen nu weer direct naar de winkel rennen om hun 7800GTX 512 in te ruilen voor de nieuwe. Om 3 maanden later weer een sprintje te trekken voor nog weer iets snellers.
Ik niet in elk geval. Ik hanteer als sinds tijden de methodiek dat ik altijd 1 release skip.

dus:

ik had een Geforce 2, en ging toen naar een 4800. Daarna ben ik overgestapt naar een 6800, die ik nog steeds heb. Ik ga pas weer na de 7x00 serie overwegen een nieuw aan te schaffen, al hoewel dat waarschijnlijk ook een nieuw moederbord en aanverwante zaken gaat beteken wegens de overstap van AGP -> PCI-X.

En zo zullen er vast nog vele anderen zijn. Die onzin de hele tijd dat je de laatste videokaart perse moet hebben. Met een beetje minder loop je ook best lekker hoor. :)
Waarom niet? Blijkbaar zijn er ook veel mensen die hun X1800XT ingeruild hebben voor X1900XT. En die is maar 2 maanden op de markt geweest. Daar heb ik je niet over klagen.
Ik ben ze nog niet tegengekomen, maar die gasten zijn dan goed gek!
Met het oog op windows Vista ben ik eerder benieuwd of deze generatie kaarten ook DX10 zullen ondersteunen.
Dit zijn weer specs welke ik namenlijk nergens tegenkom.
Het is zeer onwaarschijnlijk dat de GeForce 7900 DX10 (hardwarematig) zal ondersteunen. Op dit moment wordt verwacht dat dat pas in de G80 komt, die tegen het einde van het jaar moet verschijnen.
nope doen ze niet
maar is ook niet belangrijk of nodig
voordat je DX10 in games zult zien zijn we minimaal 2 jaar verder. en voordat het een minimum vereiste is minimaal 4 jaar.
dat vista dx10 nodig zou hebben is ook onzin. zonder gaat ook prima, desnoods met een beetje emulatie.
zelf geen emulatie nodig, dat gerucht is puur door wat idioten (anti-MS?) geintroduceerd
een GF4 draait bv perfect DX9 native, dat hij geen SM2 kan is iedereen wel duidelijk denk ik, een GF7 kan gewoon native DX10, maar zal uiteraard geen SM4 effecten kunnen tonen, that's it

dat DX10 niet volledig compatibel is met DX9 is iets totaal anders, dan zal er intern wat vertaling moeten gebeuren, maar als nVidia en Ati deze gewoon rechtstreeks in de drivers implementeren is er niks aan de hand :)
DX9 moet uiteindelijk nu ook vertaald worden naar code die de kaart snapt
helaas nee.

de 7900 is doorontwikelde produkten van hun voorgangers.
er zit dus niks nieuws in.(nagelaten dat met een releas in maart de 7900 wel eens 100%hd competebol kan zijn).

om terug te komen op dat het lijkt dat video kaarten sneler gereleist lijken .
vroeger hade je de 9800pro en was een tijd later de xt.
toen kwam de x800 een een tijd later de x850.
nu heb je de x1800 en een tijd later de x1900 (wel neuwe arcitektuur maar de prestatie boost en de opties zijn het zelfde)
Deze uitvoering krijgt volgens de geruchten 24 pipelines, een 450MHz core en 1,32GHz geheugen.
Volgens mijn bron krijgt de 7900 GT maar liefst 1400MHz geheugen en 650MHz core.
De 7900 GTX zou beschikken over een 700MHz core en 1800MHz geheugen.
dan twijfel ik aan jouw bron eerlijk gezegt.
met 32 pixel pipelins en 24 shaders word die core GROOT. echt groot.
hij word dan zo'n anderhalf keer zo groot als de huidige ATI core (kijkend naar transistors iniedergeval)
ik geloof er dus echt geen ruk van dat hij daarnaast ook nog een sneller clocked als die van ATI.

en even kijkende naar hoeveel moeite Nvidia heeft met het maken van de GTX512 dan geloof ik dus echt nimer nooit niet dat ze deze generatie bijna de helft sneller kunnen laten clocken. zeker niet omdat het ontwerp nouwelijks is veranderd.
een kleiner productie process zorgt voor een snellere lopende core meestal ja, maar dus echt geen 50%, zeker niet als die ook nog eens zo'n 50% groter is gemaakt als de huidige
als je dat denkt leeft je echt in een fantasie wereld.
Een 7900GTX op 650Mhz en TOP/OC AIB versies aan 700Mhz zijn geen fantasieën, dit is gewoon de realiteit.
Maar goed, we zullen over 3 weken zien. Ik hou je post al bij de hand om je er dan nog eens op te wijzen.
In ieder geval het de geheugen snelheid die jou bron aangeeft lijkt me kloppen. De 7800GS op AGP kan ook zonder problemen draaien op 1400mhz, aannemelijk is dat dit zelfde geheugen wordt gebruikt voor de 7900GT.
Ook zie je vaak dat als er minder pipelines zijn geactiveerd, dat de core hoger geclocked kan worden. Zoals bij het geheugen kan de core van de 7800GS AGP zonder veel problemen 500mhz aan. Dat zie je een 7800GT of 7800GTX niet zomaar doen op stock koeler!!
Misschien geldt hetzelfde hier, rekensom:
Minder pipelines + 90nm procédé = nog hoger geclocked.
betekend dit nu ook dat het huidige topmodel (de 7800 serie) in prijs gaat dalen met de introductie van de 7900 series?
Je kunt er vanuit gaan dat de 7800 uit het assortiment wordt gehaald en plaatsmaakt voor de 7900 en evt. budgetvarianten van de 7300 en 7600
ja.
maar hoeveel hangt er vanaf hoe veel beter deze kaarten zijn, en nog belangrijker hoe goed de beschikbaarheid zal zijn.
ze gaan de prijzen echt niet verlagen als de vervanger toch nergens te krijgen is natuurlijk.

nu verwacht ik niet echt dat dat het geval zal zijn, maar toch.
Nee, want de 7800 is al een tijdje EOL. Ze verdwijen dus van de markt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True