Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 111 reacties
Bron: The Inquirer

Volgens verschillende bronnen houdt nVidia een snellere versie van de GeForce 7800 achter de hand als antwoord op de R520 (Radeon X900) van ATi. Deze G71 zal volgens The Inquirer een licht aangepaste versie van de 110nm G70-core zijn, maar andere bronnen denken zelfs al aan een 90nm-versie. De 'Ultra'-kaart zou in ieder geval duidelijk te herkennen zijn aan zijn koeler: In plaats van de bescheiden single-slot oplossing van de GeForce 7800 GTX krijgt het 'geheime wapen' van nVidia een dual-slot koeler met minstens vier heatpipes en een grote ventilator. Samples van deze mysterieuze kaart - die overigens ook 512MB geheugen krijgt - laten zich volgens de bronnen van de site soms wel tot 800MHz (over)klokken. Hoewel het erg onwaarschijnlijk lijkt dat nVidia ze op die snelheid in de winkel zal leggen, maakt het wel duidelijk dat de GeForce 7800-core nog een hoop onbenutte speelruimte in zich heeft, die desgewenst ingezet kan worden als antwoord op de nieuwe kaarten die ATi in september wil uitbrengen. Van R520 gaat het gerucht dat deze een core sneller dan 600MHz krijgt, en dat er een versie met 32 pipelines in de planning staat met de codenaam R580. Het belooft rond de feestdagen in ieder geval erg interessant te worden op het gebied van videokaarten.

Leadtek GeForce 7800 GTX

Lees meer over

Gerelateerde content

Alle gerelateerde content (33)
Moderatie-faq Wijzig weergave

Reacties (111)

Gelukkig is er geen enkel spel te koop voor de PC wat een nieuwe videokaart van 550 euro kopen rechtvaardigd.

(net nog BF2 gespeeld op 1024*768 en settings op high... met een kaart van 3 jaar oud)
O ja? Ga jij maar eens BF2 op een Apple 30" Cinema DIsplay spelen in native resoluties van 2560x1600. Er is op dit moment GEEN videokaart die dit 30fps continue volhoud. Enkel een 7800GTX SLI setup red dit.
De resolutie veranderd er niks aan dat geen enkel spel een extra aankoop van 550 euro rechtvaardigd. Hoe hoog je de resolutie ook zet, het spel wordt er niet leuker of spannender of beter door.

Jij zegt dus dat jij 1100 euro zou betalen om BF2 in de native resolutie van een Apple te mogen spelen. Ga je gang zou ik zeggen.
Het spel niet maar het beeld wel en daar gaat het om..
Zit hier zelf ook met een 21" monitor en zou niet meer terug willen naar een resolutie lager dan 1600x1200..

Er passen gewoon meer details op je scherm en dit kan trouwens ook wel degelijk invloed hebben op hoe je een spel speelt aangezien je bij sommige spellen je HUD helemaal kan volstoppen met de nodige in-game tools..
Probeer maar eens WoW te spelen met een scherm vol spreuken, shortcuts, teamstats, xp meters, inventory managers, en dan vervolgens ook nog een team van 20 spelers in gevecht met 40 badguys op je scherm.. lekker overzichtelijk..
Zoiets is dus hooguit niet handig omdat je er ook meteen een proccessor van 700euro hebben. Wie wil er nou op een resolutie van 2500+ spelen ? het is volgens mij alleen handig bij snel renderen van filmpjes. Misschien kan de dubbele videokaart ook handig zijn bij gamemakers aangezien de beta en alpha versies door hun instabiliteit een betere computer nodig hebben.
Hoe overbodig deze post ook mag zijn.

Maar het gaat echt een soort slag der titanen worden in het najaar.

De 7800GTX heeft overigens 24 pipes en zal de G71 dan de versie zijn met 32 pipes?

Ik vraag me trouwens wel af hoelang nVidia deze kaart zal achterhouden aangezien ATI continu de boot afhoud om een sneller exemplaar van de X900 te verkrijgen.

Overigens ik hoop niet dat we een soort verwachte slag der titanen krijgen die eigenlijk een soort storm in een glas water is zoals vorig jaar met Intel en AMD.

Intel met de noncona die Opteron van zijn voetstuk zou moeten stoten rond de zomer.
Die slag is nooit echt geweest. En de posities zijn onveranderd.

Maja zou iig weer leuk worden overal benchmarkjes e.d. en hevige discussies. :9~
Vergeet bij de titanenslag ook subtieltjes even niet de Xbox 360 die in november wereldwijd verkrijgbaar zou moeten zijn. Ikzelf heb het voorlopig wel gezien met de videokaarten van 500 euro en koop net zo lief een console van 300~350 euro die tenminste echt 3 jaar meekan en op hetzelfde prestatieniveau zit. Ik zal vast niet de enige zijn die die afweging maakt :)
dit gaat veel heviger worden
de hele GF6 x800/x850 slag hebben we al gehad
beide kaarten zijn aan elkaar gewaagd, en beide klasse producten
en fanboys staan verder uit elkaar dan ooit

ik denk dat dit wel eens goed kan gaan worden voor de prijzen :Y)
en fanboys staan verder uit elkaar dan ooit
Ik moet zeggen dat je heelemaal gelijk hebt.
Ik snap niet dat mensen zig heelemaal gek laaten maaken door de PR bs.

Mijn overwegingen bij aanschaf van wel product dan ook.

1 prijs / prestaties
2 kwalitijd (bij pc onderdeelen geld dit ook driver suport)
3 garantie
4 bij gelijkewaardige producten ga ik voor de underdog meer concurentie betere prijzen later (1)

(1) denk dat het goed zou zijn als AMD rond de 50% markt aandeel zou krijgen.
Zo als nVidea en ATi nu dan heb je heele goede midrange product prijzen.
Vergeet ook niet:

5. Geluidsnivo van de koeling - de bak maakt al herrie genoeg.
6. Stroomverbruik - dit kan aardig oplopen en ik betaal mijn stroomrekening zelf.
7. Ruimte - 2 slotjes voor de koeling kan te veel zijn als je kast al vol zit.
Ik vraag me trouwens wel af hoelang nVidia deze kaart zal achterhouden aangezien ATI continu de boot afhoud om een sneller exemplaar van de X900 te verkrijgen.
Lang genoeg omdat ze toch de GF 7800GTX hebben hoeven ze de G71 dus ook niet in te brengen. Met de GF 7800GTX heeft Nvidia nu de beste kaart op de markt.

En wat ik al eerder zei Nvidia heeft de betere kaarten in de handen. Omdat het toch wel slim was dat ze de GF 7800 GTX hebben uitgebracht.
Denk je dat ze met de 7800GTX een koele kaart hebben, komen ze toch weer met zo'n heethoofd. Wel een beetje jammer.
Denk je dat ze met de 7800GTX een koele kaart hebben, komen ze toch weer met zo'n heethoofd. Wel een beetje jammer.
Hmmss mja dual slot cooler wil niet perse zeggen heethoofd.

Ten tijde van de ATI Radeon 9800 serie kochten een hoop de 9800 louter om het feit dat hij een single slot cooler had.

Echter dit ding werd loeiheet.

De GeForce FX59xx serie met een dual slot koeler was misschien we dual slot maar qua temperatuur heel acceptabel.

Dus dual slot vindt ik geen minpunt mits gerechtvaardigd.

Overigens SLI is wel mogelijk aangezien daar genoeg ruimte voor is en beide koelers n richting op wijzen en elkaar daardoor niet hinderen.
nou, met SLI2 die eraan komt, wordt het misschien al mogelijk om 4 kaarten te gaan gebruiken, maar willen ze naar 8 kaarten gaan, dan zullen die dualslot coolers er toch echt weer af moeten.
Ja hoor, dat soort borden bestaan wel. Alleen is het dan voor de servermarkt en zijn het geen 8 slots die voor videokaarten gebruikt kunnen worden.

En inderdaad is 8 een idioot aantal. Al was het alleen maar omdat spelfabrikanten zich moeten blijven richten op wat de meerderheid van hun klanten heeft. En als dat 1 of hoogstens 2 is, dan worden de spellen daarop afgestemd. 8 is dan overkill en nutteloos.
ooit een moederbord gezien met 8! uitbreidingssloten?? ik niet in elk geval, 8 videokaarten is overigens echte waanzin, ik kan me niet voorstellen dat ze er ook maar over denken om ooit zulke idiote aantallen videokaarten in een desktopsysteem te proppen... 4 is al achterlijk veel!
Hoezo werden die 9800 series loeiheet?? Mijn 9800Pro is geflasht naar een XT maar hij is supercool hoor, letterlijk en figuurlijk... Of Course wel een zalman vf700 alcu erop :z
Denk je dat ze met de 7800GTX een koele kaart hebben, komen ze toch weer met zo'n heethoofd. Wel een beetje jammer.
Er zijn altijd mensen waarvoor top performance verreweg het meest belangrijk is en de hitte/geluidsproductie ondergeschikt. De vorige topmodellen uit de FX serie en 6800 Ultra beschikten ook niet over stille coolers, en toch vonden ze heel gretig aftrek.

Om elkaar qua performance bij te houden is het dus ook niet verrassend dat beide fabrikanten (zowel ATi als nVidia) hun volgende topmodellen vermoedelijk met dual-slot cooling zullen uitbrengen, om de laatste mhz'jes uit zo'n kaart te kunnen persen.

De mensen die het stiller willen kunnen dan altijd een wat minder snelle kaart kopen, of eventueel toch het topmodel kopen en dan zelf een stillere cooler (van bijv. Zalman of Arctic cooling) monteren.
Of zo als ik heb gedaan een watercool set.

Moet zeggen topprestaties en toch heerlijk stil was een pretige verandering.
ps. en mijn vrindin vond het voor de eerste keer dat ik 250 euro goed had besteed :+
Weet je zeker dat het een vrouw is? Hoe kun je nou iets goed besteden als het niet aan haar is? :?
Dit zijn enkel geruchten,
Een 90nm ontwerp zou nog ietsje minder wat moeten gebruiken, maar als ze er dan weer meer transistors op gooien om er een 32 pixel pipelines kaart van te maken gaat dat verbuik weer omhoog......

Ondanks dat ik een single slot cooler ook mooier vind, eigenlijk houd ik zelf al sins het begin van 3D kaarten een slot onder de 3d kaart in ieder geval vrij (meestal nog meer sloten)....

Zoals ik al vaker gezegd heb, snelle ferrari's gebruiken veel benzine, grote speaker sets gebruiken veel stroom, het zei zo, het heeft zijn prijs.

Bovendien halen de echte tweakers de stock cooling er toch meteen af.
Bovendien halen de echte tweakers de stock cooling er toch meteen af.
Zoals in het artikel wordt vermeld:
In plaats van de bescheiden single-slot oplossing van de GeForce 7800 GTX krijgt het 'geheime wapen' van nVidia een dual-slot koeler met minstens vier heatpipes en een grote ventilator.

Ik denk dat deze 'stock cooling' niet zo snel valt te verbeteren. (Tenzij je met waterkoeling of zo gaat werken.)
Die is grappig 800 mhz. Lolz geloof je het zelf met een 0.11 niet low k. Gaat dus echt niet lukken he. 0.09 niet low k ook niet. Zie de X800 XL maar eens en de X850 XT. Die X850 kunnen 650-700 halen de XL met hun 0.11 niet low k halen maar 500-550.

Ik moet dat nog echt zien dat nvidia zulke hoge clock speeds haald. Ik denk eerder iets in de richting van 500-550 max. dat is al veel !! en dan met 32 pipes of zo.

Verders is de R580 niet een 32 pipe versie van de R520 maar heeft ook verbeterde shaders die dan meerdere TMU's hebben. ik heb het getal 3 horen vallen. TOV 1 van de R520. Dus dit moet wel een leuke winst op kunnen leveren. Of dit allemaal waar is moeten we nog zien.

We kunnen van niets uitgaan totdat de kaarten echt uitkomen. Tot die tijd allemaal roddels.
Die is grappig 800 mhz. Lolz geloof je het zelf met een 0.11 niet low k. Gaat dus echt niet lukken he. 0.09 niet low k ook niet. Zie de X800 XL maar eens en de X850 XT. Die X850 kunnen 650-700 halen de XL met hun 0.11 niet low k halen maar 500-550.
800MHz is voor een 0.11um chip absoluut niet bijzonder hoor! Het is juist het ontwerp van de chip die de grenzen van de snelheid bepalen. Een Northwood kan met 0.13um toch ook boven de 3GHz komen?

Je kan dus absoluut niet zomaar zeggen dat een chip een bepaalde snelheid niet kan halen door alleen maar te kijken naar het procede. Ontwerp is de belangrijkste factor die de snelheid bepaald. (Neemt niet weg dat ook ik niet verwacht dat nVidia met 880MHz aankomt hoor)

Wat wel waar is, is dat je bij een gelijkblijvend ontwerp bij een kleiner procede een hogere snelheid kan verwachten. Dit komt omdat de paden waarover data en klok lopen een stukje korter worden (en je critical path dus ook) en je dus minder snel tegen die limieten aanloopt.
Het kritieke pad zegt iets over de langste weg die data ergens in de chip maakt en is daardoor grotendeels verantwoordelijk voor de uiteindelijke maximale kloksnelheid. Kom je daarboven, dan komen problemen als scew naar boven. Wat er dan gebeurt is dat de data (of clock) nog niet overal is aangekomen terwijl de rest van de chip wel al verder gaat met de volgende berekening. Ik hoef hopelijk niet uit te leggen dat dat iets is wat je absoluut niet wilt hebben :)

En dat was les 1 in chipdesign ;)
Kijk maar naar de NV 40 Die komt ook lang niet zo ver. En de basis van de G70 is nog steeds die oude NV40. Daar haal ik het vandaan. Ik weet ook heus wel dat het aan de opbouw van de chip licht. Zie de athlons maar lager geclockt kunnen ook niet zo hoog maar wel sneller dan een P4 @ gelijke speeds.

Daarom zeg ik ook dat 800 MHz voor een G70 te hoog gegrepen is. Je ziet wel dat de huitige wel tot 550 opclocken maar daar houd het ook op. En dan er 800 van maken ? dat is heel erg knap.
Dat hoop je echt niet. Als hun net als 3DFX ten onder gaan is het weg concurentie en dan krijg je pas bagger kaarten. Net als dat windows dat werkt ook nog niet altijd goed / snel in vergelijking met linux alleen maar omdat er geen concurentie is. Was die er wel geweest had je waarschijlijk al veel betere OS gehad.
Lijkt me inderdaad vrij sterk dat de kaart op 800Mhz gaat draaien. Volgens mij meer een gil om te laten horen: ATI wat je ook uitbrengt "wij, Nvidia" hebben een antwoord.

Ik krijg steeds meer het gevoel dat ATI deze slag/ronde niet gaat winnen. Hogere clocks (600Mhz), uitstel, etc.

Opzich niet zo erg, geeft ATI alleen maar kracht om te zorgen dat de volgende generatie sterk, super wordt. Zelfde eigenlijk als nu met Nvidia. Geforce 5 was zwak en nu slaan ze terug met de 6 en 7 series.

Denk dat het een Nvidia feestje wordt dit keer of ATI moet hele goede mid end kaarten lanceren op basis van de R520 core en dat ze gelijk in grote aantal leverbaar zijn.

Maar dat is het leven: "als dit, als dat" :P
De GeForce FX hebben ze simpelweg doorontwikkeld/verbeterd tot het een GeForce 6 was. En de GeForce 7 is daar weer een doorontwikkeling (alhoewel die op de aller onderste lagen wel heel anders in mekaar zit). nVidia heeft niets verloren met de GeForce FX.

ATi heeft te kampen gehad met een generatie die te snel vervangen moest worden en het probleem van het veel te duur om te porduceren kaarten, die nodig waren om nVidia op het gebied van snelheid bij te houden.
Je bedoeld zeker: het hele Geforce FX design hebben ze in de prullenbak gegooid en ze zijn opnieuw begonnen voor de geforce6. Daarbij zijn de overgestapt naar een soort design dat de R300 heeft. (hebben ze overigens erg goed gedaan), De geforce 7 is inderdaad een doorontwikkeling van de geforce6.

En Nvidia heeft wel degelijk veel verloren met de GeforceFX:
- heel veel R&D geld omdat het FX design overboord werd gegooid
- hun goede naam
- gigantisch veel marktaandeel.
- en dus heel veel inkomsten.

Ze zijn er weer redelijk bovenop gekrabbeld, maar hun marktaandeel is nog steeds een stuk kleiner dan voor de FX.
Dat uitstel en hogere clocks komt door de re-spins die ATI nodig heeft gehad om genoeg goede exemplaren per plak te krijgen. Hierdoor is ie dus wel een stuk sneller geworden en voorspel ik dat ATI deze ronde op snelheid ruim gaat winnen (ook omdat SLI en SLI2 gewoon enorme bagger zijn in vergelijking tot Crossfire, er zijn scenario's waarbij een spel 50% vertraagt als je een tweede nVidia kaart naast een ander zet, dan moet er toch wel echt iets mis zijn met SLI).
Een re-spin is een kostbaar proces dat meerdere miljoenen dollars kan kosten. Dit geld kan echter snel terug verdiend worden indien hierdoor meer chips uit n wafer gehaald kunnen worden en deze op hogere kloksnelheden kunnen lopen.
Bron: http://www.tweakers.net/nieuws/37631/?highlight=ati
Hoe weet jij dat crossfire beter is dan SLI? Er is nog geen enkele offciele review van crossfire geweest dus het zou me sterk lijken dat jij het al wel weet.
Wat noem jij dan een "officiele review"?

Er zijn al wel onafhankelijke tests geweest. Niet veel welliswaar, maar ze zijn er wel geweest. (En jij hebt ze ook al gelezen, alleen kwam Crossfire daar duidelijk beter uit dan SLI, dus dat vergeet je dan liever).
ok ik verwacht dus van jou linkjes ipv oeverloos gespam.
Bij deze heb je dan OPNIEUW je linkje:
http://www.tweakers.net/reacties/?Action=Posting&ParentID=1346634

Toen heb je daar namelijk ook al naar gevraagd, en toen heb ik je ze dus ook al gegeven, zoals je in bovenstaande link kunt constateren.
En dat was toen ook al niet de eerste keer.
Hoevaak moet je er opnieuw op gewezen worden? 1x per week?
Mjt: er zijn geen reviews, dus ik weet er ook geen. Er kunnen ook geen reviews zijn watn er zijn geen kaarten en geen moederborden. Crossfire is compleet lucht.
De afgelopen tijd heb je zo ongeveer elke week een link gekregen naar onafhankelijke testresultaten van Crossfire vs SLI in Doom3.

Blijkbaar is je geheugen zo slecht dat je dat steeds opnieuw na een paar dagen al weer vergeten bent?
Maar dat is het leven: "als dit, als dat"

Is het niet: als dit, dan dat....? ;)
Aangezien Quakie het hier over het leven heeft, zal hij wel bedoelen:

Als dit, als dat, als..., dan pas zus en zo... :P
Ik werd de vorige keer dat de 7800 in het nieuws was naar beneden gemod omdat ik zei: "Ik zou nooit 550 euro uitgeven om achter de feiten aan te mogen lopen". Maarja, kijk nu eens; de 7800GTX is oud nieuws, over 3/4 maanden is de opvolger al in de winkel.

Ik zou me behoorlijk genaaid voelen als ik zo'n ding gekocht had.

Het is goed dat de techniek snel vooruit gaat, maar wat moet ik als consument nu doen? Wat ik me nu zou kunnen kopen is al verleden tijd. En wat er komt, dat zal weer minder zijn dan wat andere fabrikanten (ATI) uit gaan brengen. Als hier steeds een jaar tussen zit, okee, maar het lijkt nu steeds vaker voor te komen.

Gelukkig is er geen enkel spel te koop voor de PC wat een nieuwe videokaart van 550 euro kopen rechtvaardigd.

(net nog BF2 gespeeld op 1024*768 en settings op high... met een kaart van 3 jaar oud)
Het was van in het begin al bekend dat er een ultra ging komen. |:(
Ten eerste heeft Nvidia steeds ontkent dat er een ultra gaat komen |:(

Ten tweede betekent een Ultra altijd maar iets van 15% performance winst. Geen 2x zo snelle kaart |:(


En dat is dan ook precies de reden waarom iedereen met een beetje gezond verstand zou moeten inzien dat deze geruchten onzinnig zijn.
MJT: bron? Nvidia heeft nooit ontkend dat er een ultra ging komen. Waarvan haal je die onzin.
Ze brengen een kaart uit met single slot koeling die makkelijk overklokbaar is. Iedereen kan hier zelf wel uit afleiden dat het nog wat sneller kan.

Om jezelf maar eens te quoten:
Gezien de single slot koeling van de GTX is het niet vreemd om te denken dat er nog een dual slot GTX ultra komt
Bron: Een van de hardware reviewers die op Beyond3D post had het bij Nvidia gevraagd. Maar ik bewaar niet elk interessant item op beyond3D omdat op tweakers mogelijk iemand denkt dat zijn gerucht een feit is.
Dus ik kan 'm nu niet zo makkelijk terugvinden. Iets dergelijks met een search terugvinden op hun forum is onbegonnen werk ben ik al achter.
Maar wellicht kun jij aangeven waar Nvidia dan aangeeft dat er WEL een Ultra komt?

Ook wel weer typisch uit voor jou om mijn quote zo uit zijn verband te rukken, want het belangrijke gedeelte er direct achteraan dat jou slecht uitkomt vergeet je maar even:
Maar als je werkelijk denkt dan die Ultra dan op 800Mhz gaat draaien vs 430Mhz voor een GTX, dan ben je echt niet goed bij je verstand. (Oh ja, en dan denken mensen dat ie ook nog eens 32pipes krijgt)
Bovendien: als Nvidia beweert dat er geen ultra komt, betekent niet automatisch dat ik het zelf onwaarschijnlijk vind dat er een ultra komt.
Nvidia kan hele andere overwegingen hebben dan jij en ik. Wellicht is de 7800 GTX wel iets sneller dan een R520. Dan is er voor hen misschien helemaal geen reden om een Ultra uit te brengen.

Maar als je aan het speculeren bent dan moet je wel goed blijven opletten wat feiten zijn en wat geruchten zijn.
Dat het volgens jou vanaf het begin al bekend was dat er een ultra ging komen is geen feit maar een gerucht! En dan moet je het dus niet als feit brengen.
3/4 maand, dat zou mooi zijn, maar dat zit er niet in, eerst brengt ATi die R520 van ze uit, dan pas weet nVidia precies wat ze moeten bouwen en dan kunnen ze die kaart pas uitbrengen.

Het is altijd achter de feiten aanlopen, en zoals ik al zo vaak heb gezegd, ieder moment is een goed moment voor een hardware upgrade.
als je effen het originele bericht leest lees je dat het WEL op lucht koeling is, in een rare nieuwe opstelling van heatpipes en koelvinnen.

meschien wel iets met dat vloeibare metaal koeling wat laatst in het nieuws was
Er staat alleen :

Samples van deze mysterieuze kaart - die overigens ook 512MB geheugen krijgt - laten zich volgens de bronnen van de site soms wel tot 800MHz (over)klokken


bovendien geef je zelf al aan dat de koeling ook van een andere methode zou kunnen komen, wat ik bedoel met dat het niet lucht kan zijn, is dat het zeker niet zuiver en alleen een ventilator met koelblok zal zijn...Heatpipes werken al weer anders en zou ik niet onder (mijn) noemer lucht willen scharen..

Terugkomende op wat er in het bericht staat, zie stukje boven, staat er dus dat samples zich tot soms! wel 800 Mhz laten overklokken.
Wie zegt dat die samples niet onderworpen zijn aan een andere koeling als de standaard? Dat staat er niet bij..

Zie verder andere posts..800 Mhz en daarin geloven? Ik wil der nog niet aan iig..
Soms op 800Mhz kunnen klokken is misschien een hele prestatie op zich, maar bepaalde spellen met een matige overklok continue stabiel draaien is nog verdraaid lastig.

Een 7800GTX met een goede waterkoeling is denk ik een veel betere investering dan een Ultra met 24 pipes en ruim 600 Mhz (daar komt het wel op neer denk ik).
Als de Ultra 32 pipes zal hebben en een veel hogere klok, moet die chip dan niet ramvol zitten en problemen geven?

Het klinkt als een wanhopige poging van nVidia.
Waarom wanhopig? Ze hebben geen reden om wanhopig te zijn.
Ze hebben de snelste kaart op de markt waardoor ze belangrijke orders van grote OEMS zoals Dell binnenhalen voor de back to school refresh,
ze hebben het volledige middensegment in handen met de 6600,
ze hebben in de low end turbocache kaarten op de markt terwijl ATi nog worstel om hypermemory op markt te zetten,
ze heersen met SLi over elke benchmark die maar denkbaar is,
ze hebben veruit de beste AMD moederborden en hebben alle miljoenen SLI moderborden verkocht, allemaal potentiele klanten voor een 2de kaart,
ze hebben een concurrent die paper launch na paper launch doet.

Yup, ik zou ook wanhopig worden.
Gelukkig is er nog zoiets als prestige.
Geld is maar een nummer.

Dacht dat hypermemory er al een tijdje was.

Die 7800GTX zal op snelheid een flink pak slaag krijgen. Dus ze moeten wel een Ultra uitbrengen.
Je spreekt voornamelijk uit nVidia standpunt. In een vergelijking zou je de te vergelijken partij ook moeten bespreken om van een vergelijking te spreken. :)

Het zegt dus weinig.
Ik spreek algemeen: Als ik het over de snelste heb is
dan is het objectief in vergelijking met andere natuurlijk. Nvidia heeft zich nergens zorgen over te maken laat staan dat ze wanhopig zijn.
Als ze deze G71 op 24 pipelines houden hebben ze een 3/4 clocksnelheid nadeel..........

dus dat betekend dat als de R520 32 pipes op 600MHz wordt en de G71 wordt 24 pipes op 800MHz :P :9 :7 dat het weer precies klopt, en dat ondanks alles wat er gebeurd is de kaarten weer ongeveer even snel zullen zijn.
er zijn natuurlijk meer factoren als alleen de hoeveelheid pipelines en de clocksnelheid.
geheugen bandbreedte(fill rate), de efficientie van de pipeline, de drivers, z-buffer compresion, ect ect ect.
word dus nog spannend.
beide niet al te veel, GDDR3 wil niet zo hard meer,
Beide iig SM3.0 cores
z-buffer compression, die is al jaren ongeveer hetzelfde misschien dat ze aan texture compression/color compressiosn nog wat kunnen doen, maar daar lijkt de rek ook uit te zijn.

Je hebt op zich wel gelijk op het gebied van efficientie van pipelines, maar ervanuit gaande dat de 7800GTX nouwelijks effectiever was dan de 6800u zal de 7800u dat ook niet zijn, ATi heeft nog wat goed te maken in efficientie en dat zullen ze met deze R520 waarschijnlijk doen, dus dat zal ook dicht bijkmekaar komen denk ik.
@Boushh:
Je vergeet dat SLI ook nog lang niet voor een 100% prestatiewinst zorgt.
Je mag al vrij blij zijn met zo'n 60%-70%.
Als je bedenkt dat de 7800GTX 50% meer pipelines heeft, en +-10% hoger geklokt is, dan levert dat 65% winst in rekenkracht op.

Wat ik indrukwekkender vindt aan de 7800GTX is dat het geheugen niet zo veel sneller is dan dat van de 6800U, en dat het geheugenbeheer dus veel effectiever is.
Dit is denk ik nog meer bepalend dan de rekenkracht.
Ja kan ook reviews lezen voor je iets roept: de 7800GTX is een stuk verbeterd waar het de efficientie betreft. Je vergeet dat de maar 30-70 Mhz hoger geklokt 7800GTX met 8 pipes meer soms net zo snel is als een 6800 Ultra in SLi opstelling.

Daarbij is de GF6 per klok tik sneller dan de oplossingen van ATi (iets wat andersom was ten tijde van de ATi 9xxx en de nVidia FX reeks). Voor de GF7 moet dit nog blijken.

Maar gezien het feit dat zelfs Intel heeft ingezien dat je met Mhz-en niet meer altijd de snelste kunt zijn vind ik de keuze van nVidia om te gaan voor efficientie beter dan de keuze van ATi (momenteel natuurlijk, want de R520 moet immers nog verschijnen :))
Ik durf het nooit te vragen, maar nu doe ik het toch maar. Wt houdt dat 90nm en 110nm nou in? 90 nanometer ofzo? :?
diameter van transistors, hoe kleiner, hoe meer op de wafer kunnen des te meer transistors per die toch nog economisch haalbaar blijft.
diameter van transistors
Ze zijn niet rond...
volgens mij gaat het om de lengte van de gate, maar dit weet ik niet helemaal zeker, zou ook de breedte kunnen zijn.
Er staat mij bij dat het inderdaad de breedte is.
Hmmmm..... ik zie al een aankondiging aankomen van Asus: Een Dual core 7800 Ultra 512mb. :9 :P :9 :P

En dan zoiets 4x in je pc als er idd mobo's komen waarbij je 4 kaarten in SLI kunt zetten. Het enige probleem blijft dan nog altijd de CPU bottleneck. Denk dat de X2 cpu's van AMD binnenkort de troon zullen besteigen, omdat vanaf Forceware 8x.xx multithreading ondersteunt wordt, wat men soms omschrijft als dual core (voor de CPU dan he) support. Dit wordt idd een interessant najaar. :Y)
Dan kun je ook gelijk een viervoudige PSU aanschaffen anders trekt je compu het bij lange na niet.
En dan nog je stroomrekening...
Straks vallen er blokken rijtjeshuizen uit omdat je aan het gamen bent |:( :?

Wordt het niet eens tijd voor dynamisch klokkende GPU's net zoals de AMD64's en tegenwoordig ook Intels?

Heb je eenmaal zo'n ding is het wel smullen geblazen met de nieuwste spellen maar daarentegen zul je zo'n nieuw spel relatief snel beu zijn omdat het niets innovatiefs brengt...

Ik pleit voor betere spellen en een beter besturingssysteem dan die hoop modder dat Windows heet...goeiendag zeg...
als je een beetje het nieuws hebt gevolgd dan zou je weten dat de GTX dynamisch klokt en die ideen van mobile cpu's heeft gehaald. Dat doen nvidia kaarten al jaren trouwens, ze hebben een 2d en 3d mode met verschillende kloksnelheden en voltages..
En over die PSU: voor een 7800GTX heb je maar een 350W PSU nodig,
Het was overdreven bedoeld, maar ik probeerde te zeggen waar het naartoe gaat met de energieafname.
En wat voor reserves heeft die 350Watt PSU dan nog als die 7800GTX op volle toeren draait, kan daar nog een ADM64 4000+ bij?

Een enkele 7800GTX hoeft weliswaar niet zoveel stroom te trekken maar het "loopt echt uit de hand" ga je meerdere kaarten of van die GPU's in je computer steken.
Dit geldt voor alle "mega" GPU's.

Het zou niet gek zijn als er een uitgebreid onderzoek kwam naar energieafname met flinke gamepc's op maximaal vermogen.

En in Amerika is nergieverbruik echt een probleem aan het worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True