Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 151 reacties
Bron: The Inquirer, submitter: biobak

Volgens The Inquirer komt nVidia halverwege deze maand met de eerder aangekondigde 512MB-editie van de 7800 GTX-videokaart op de markt. Ondanks de afwezigheid van het woord ‘Ultra’ in de naam, zal de kaart flink wat sneller geklokt zijn dan de huidige 256MB-versie van de 7800 GTX. Deze werkt namelijk op een gpu-kloksnelheid van 430MHz en een geheugensnelheid van 1200MHz, terwijl de core van de nieuwe GTX op 550MHz aan de slag gaat, geholpen door geheugen dat geklokt is op een snelheid van rond de 1800MHz. Deze snelheidswinst is volgens The Inquirer alleen mogelijk door vrij radicale wijzigingen aan de printplaat van de kaart. Alhoewel bij de oorspronkelijke aankondiging van de 512MB-editie van de 7800 GTX er al bekend was dat dit zou gebeuren om de extra 256MB te kunnen plaatsen, is het niettemin een verrassing dat de snelheden van de gpu en het geheugen ook zo ingrijpend onder handen zijn genomen. Om de kaart niet te oververhitten zal er wel een koeler aanwezig zijn die twee slots breed is.

nVidia GeForce 7800 GTX GPU (G70 - voorkant en achterkant)

Lees meer over

Alle 23 producten

Moderatie-faq Wijzig weergave

Reacties (151)

1 2 3 ... 6
is die misschien op 65nm gemaakt?
nVidia stapt heus niet over op een compleet nieuw productieproces enkel om een handje vol 550GTX' en te maken: gezien de prijs zullen er niet massas van verkocht worden. Een nieuw productieproces houd meestal in dat je het design van de chip moet aanpassen. Dat zal niet gebeurt zijn: veel te duur voor zo'n kleine batch.
Heeft iemand er ook bij stilgestaan dat je processor de bottleneck wordt hier? Volgens mij kan de AMD FX-57 dit helemaal niet meer aan :?
Nu nog wachten op die PPU, die de CPU zou kunnen helpen met dit monster.
Al dat geblaat over bottleneck...

Een kaart als deze of een X1800XT gebruikt je natuurlijk niet om 1024x768 te spelen. Bij dit soort kaarten moet je volle mep aanzetten. Als je een wat zwakkere processor met sterke kaart hebt dan zal de framerete op 1600x1200 4xAA&AF niet veel lager liggen dan op 1024 x768.

Door kwaliteit en resoluties te verhogen verleg je de bottleneck van processor naar kaart. Hier moet je optimaal gebruik van maken, een andere proc kopen geeft bijna geen verbetering met (ultra) hoge instellingen en bij framedrops. (t.g.v. zwakke kaart)

De winst bij benchmaks scores t.g.v. snellere processor ligt vooral in het gebied boven de 80 frames. (dus bij lichtere engine's, vandaar dat bij 3dmark 2001 de proc veel meer invloed heeft dan bij 3dmark05 ) Bij b.v. aquamark is duidelijk te zien dat het renderen van zware dingen zoals rook de framerate bij snelle processoren hetzelfde is als bij langzame.
Mja de FX-57 lekker zwaar overklokt en dan nog eens die PPU geintegreerd op de grafische kaart zoals ATI gaat doen, en dan ben je zowat een beetje gesteld voor het gamen denk ik... :Y)
En aan wat voor voeding moet ik dan gaan denken?..
Ga toch maar eens voor aandelen Essent of Nuon...
de processor wordt alleen de bottleneck bij lagere resoluties. deze kaart is bedoeld voor extreme resoluties en filtermethodes (AA & Ani) waar altijd een chronisch tekort aan fillrate is.
nouja, misschien kan de amd fx60 em wel aan dan, ik denk dat de fx57 de gtx512mb ook wel aan kan, maar iig niet in SLI
Gaan we weer over bottleneck.. Er is altijd een onderdeel in je computer de bottleneck. Er is altijd iets wat de andere onderdelen op zich laat wachten. Ik weet zeker dat de gemiddelde gamer geen eens het verschil merkt tussen gamen met zo'n kaart op een 3500+ of een fx-57..
Volgens mij kan de AMD FX-57 dit helemaal niet meer aan
Een Athlon64 FX koop je ook niet om stock te draaien...
het achterdehandje waar men al over sprak toen de 7800 serie kwam... als ati met de x1800 zou komen, zou nvidia met een ultra 7800 komen

belooft veel goed, vraag me af hoe dat met de koeling zit.. een high end cooler zoals een arctic of zalman zou eigenlijk stock moeten worden (in ieder geval een gelijk geluidsniveau) op de 500 euro maakt 20 niet veel meer uit, maar scheelt gauw 20 dBA
vraag me af hoe dat met de koeling zit..
Waarschijnlijk krijgt de GTX512 dezelfde dual slots heatpipe koeler als de Quadro FX 4500 (dat is de workstationvariant van de 7800GTX) :)
Zie hier voor een plaatje.

De Quadro is ook al een stuk hoger geklokt dan de standaard GTX. Gezien (geselecteerde) factory overclocked GTX kaarten al ~500mhz core halen (bv. Asus TOP en XFX Extreme), lijken die 550mhz core op hoger voltage en met veel betere koeling absoluut niet onwaarschijnlijk.
Verder natuurlijk nog 1.1ns (1800 mhz) Samsung GDDR3 geheugen, en het plaatje is compleet.

Er zijn op enkele andere fora ook geruchten, afkomstig van mensen met contacten binnen nVidia, betreffende een standaard GTX512 op 550/1600 en nog snellere variant op 600/1800...

Als deze geruchten kloppen lijkt het niet onwaarschijnlijk dat ATi de R580 (opvolger van de R520, de huidige X1800 serie) in de strijd zal gooien tegen dit nV geweld. Het schijnt dat ATi deze core al in vrij definitieve vorm in pre-productie heeft :)
Dit worden interessante maanden voor de grafische wereld.
is op het moment wel zielig voor ati.. maar ik denk dat ze die juist nog steeds blijven produceren.. want er zijn nog steeds gewoon mensen die het snelste van het snelste van ATI willen hebben, en absoluut niet op nVidia over willen gaan... ze zouden deze kaarten dan ook op een véél lagere prijs moeten laten verkopen.. anders kunnen ze die niet eens verkopen...

maarja.. marketing..


die kaart van nVidia.. (mooi ding overigens) is denk ik wel dé krachtpatser waarmee ze ati wel een plaatsje verder naar beneden op de lijst zetten... maarja ik denk wel dat ATI een keer zal terugslaan terwijl nVidia het nog niet eens in de gaten zal hebben... ze zullen nu al denk ik wel met de "X2000" series bezig zijn.. en daarmee hun comeback maken... dan zal deze serie (de "X1000" series) een flop zijn van ATI (net als nVidia met zijn FX-series)...
Zalmans zijn groter, en niet iedereen heeft daar plaats voor. En als je ze dan in SLI zou willen plaatsen, gaat dat, mijns inziens, niet. Die koeler is toch veel te 'hoog'? :o
Gaat prima op een ASUS A8N-SLI Deluxe, de PCIe 1x sloten geven precies genoeg ruimte voor zo'n Zalman koeler.

Maar volgens mij zijn die stock koelers van nVidia ook niet meer zo luidruchtig als ooit.
Stock koelers op de gf6 en gf7 series zijn inderdaad redelijk stil, ze lijken ook verdacht veel op arctic vga silencers.
Btw,het is geen Ultra,maar "slechts"de 512MB versie van de 7800GTX.

Met de koeling zal het wel snor zitten omdat ook veel afnemers zoals Asus e.d.hun eigen referentie koeler gebruiken,die trouwens heel goed en stil koelen.
De RSX is volgens tweakers een doodgewone 7800 GTX
maar die loopt op 550Mhz heb ik in een presentatie van nvidia gezien.

Hoe kan dat?

is die misschien op 65nm gemaakt?
In dat geval is het mogelijk dat 'deze 7800' ook gebruikt maakt hiervan en op die manier hoge clocksnelheden kan halen zonder al te veel extra hitte.

edit:
ik zie dat de "gewone" 7800 gtx tussen de 500 en 600 euro ligt. Wat zou de 7800 ultra dan moeten kosten?
Dit zou kunnen betekenen dat de gewone 7800 omlaag gaat in prijs :Y) -of- hij gaat hetzelfde als die ati XI800XL kosten, maar ik zie die nergens staan in de pricewatch ? :?
De RSX (Playstation 3) wordt op 90nm gebakken en de G70 (GeForce 7800) op 110nm.
De RSX heeft bovendien maar een 128bit geheugenbus.
Gewoon de creme de la creme van de 7800 wafers?
Gewoon de creme de la creme van de 7800 wafers?
90nm net als de RSX? 550 is ERG veel voor 110nm.
550mhz das zon 28% sneller dan de gewone GTX en 13% sneller dan de Asus GTX TOP op 486. Plus 256mb extra voor grotere textures, jammer dat die 8 extra piples er niet van zijn gekomen. De nog geen een beschikbare ATI x1800XT kan wel inpakken nu.

Hoe kan nVidia echter de G70 core op 550mhz clocken terwijl de beste overclock van de GTX kaarten rond de 500mhz blijft steken?
Waarschijnlijk hebben ze bij de produktie de chips die 550 aankunnen al achter gehouden om op deze kaart te zetten.
Is misschien ook al een hint voor de verkrijgbaarheid en meerprijs.
ja: slecht verkrijgbaar en veel te duur, net zoals de meeste top high-end kaarten.
Ze hebben een half jaar de tijd gehad om de beste cores op te sparen voor deze kaart. Verkrijgbaarheid zal wel goed zitten dus.
Deze snelheidswinst is volgens The Inquirer alleen mogelijk door vrij radicale wijzigingen aan de printplaat van de kaart.
:)
[reageer] Gepost door edwinvancleef - dinsdag 1 november 2005 - 22:35 - Score: 1
En weer gaat de wedstrijd door tussen de 2 giganten op videokaartengebied.
Het aantal megaherzen blijft groeien zowel op core als geheugengebied.
We zien hier het zelfde gebeuren als met Intel en AMD welke al tot de conclusie gekomen zijn dat de rek er een beetje uit is momenteel.
Waarom geen GPU ontwikkelen welke meer pipes heeft ipv de snelheid in MHZ verder op te voeren?
Wanneer dit monster in SLI gekoppeld word heb je al de beschikking over maarliefst 1GB videogeheugen.
En de gameproducenten zullen dus hierop inspelen door games te maken die hier ten volle gebruik van gaan maken als je alles op max wilt spelen.
Gamen word op deze manier een erg dure hobby als je top of the bill wilt hebben.
En niet te vergeten een flinke voeding om alles draaiende te houden.
Met de hedendaagse woekerprijzen op de energiemarkt is dat ook geen lolletje meer.
Volgens mij gebruikte je in SLI maar het Vram van 1 van de 2 kaarten.
verder vind ik niet dat je kan spreken van het uit de rek ervan, als je in dezelfde serie je core ff 120 mzh omhoogschroeft en je mem met 600 mhz.
de pipes worden ook wel verbetert en vermeerdert, maar dat gebeurt meestal per serie. Wel denk ik dat de dualcore ondersteuning eens snel moet komen, want geen fx-57 die dit in sli geweld voltrekt en dan dus nutteloos wordt
in SLI gebruiken de kaarten wel beide hun video geheugen maar stukken textures worden dubbel in geladen (in beide kaarten), daardoor kan je niet stellen dat je 1GB Video geheugen hebt (ja je hebt het wel maar je kan het niet vergelijken met 1 kaart met zoveel geheugen)
"grinnik"

leuk, maar niet voor de mensen met een normale portemonnaie.. :) dat deze harder gaat lopen in de meeste benchmarks staat buiten kijf..... zoveel schelen de huidige GTX en XT al niet

@r.marijnissen
rek eruit????... ik dacht het niet.... je ziet hier dat er een grote sprong in geheugensnelheid is gemaakt.. en waarom.. practisch voor de lol want de nieuwe chipset voor nvidia (en ati) zit ook al in de pijplijn. het is alleen om nu nog even te kunnen zeggen goh. we zijn de snelste, was ati niet met zn succesvolle opengl drivers gekomen dan was er waarschijnlijk niet eens een reden geweest om een ULTRA7800 neer te zetten
houd nog altijd in gedachte dat ATI veel minder pipes gebruikt dan nVidea ;)

Als ATI nu nog een paar pipes zou opengooien na de release van die nieuwe GTX 512Mb, zullen ze wss weer gelijk staan of, wie weet, ati weer vanboven :)
Lijkt mij onwaarschijnlijk, aangezien het onmogelijk is niet bestaande pijplines op een GPU erbij te toveren. Meer pipelines = een andere GPU in het geval van ATI. Daarnaast is de 7800GTX GPU lager gclocked dan de 1800XT.

'Als de 7800GTX even snel zou lopen als de 1800XT dan zou nvidia weer de bovenhand hebben'

Maar dit is gewoon appels met peren vergelijken, waar het om gaat is hoe het produkt presteert; en het maakt dan niet uit of die GPU 1 of 20 pipelines heeft.
x1800 loop op 600 mhz, dees op 550... close enough imho ;)
x1800 loop op 600 mhz, dees op 550... close enough imho
Net als bij AMD vs. Intel zegt dat niet zoveel, mijn 6800LE heeft net zoveel pipes als mijn ouwe 9800pro, is net zo snel, maar draait op 300mhz en de 9800pro op 378mhz.

De X1800XT presteert misschien iets beter dan de 7800GTX, maar als die er zo'n 25% op vooruit gaat in core clock en 50% in mem clock en dan ook van 256MB naar 512MB denk ik dat de 7800 "Ultra" het echt beter doet.

En de X1800XT heeft volgens mij geen pipelines meer die nog opengegooid kunnen worden dus dat zou dan een min of meer nieuwe chip moeten worden en voordat die er is zijn we minstens een half jaar verder.
Sinds wanneer loopt de XT op 600Mhz?
En weer gaat de wedstrijd door tussen de 2 giganten op videokaartengebied.
Het aantal megaherzen blijft groeien zowel op core als geheugengebied.
We zien hier het zelfde gebeuren als met Intel en AMD welke al tot de conclusie gekomen zijn dat de rek er een beetje uit is momenteel.
Waarom geen GPU ontwikkelen welke meer pipes heeft ipv de snelheid in MHZ verder op te voeren?
Wanneer dit monster in SLI gekoppeld word heb je al de beschikking over maarliefst 1GB videogeheugen.
En de gameproducenten zullen dus hierop inspelen door games te maken die hier ten volle gebruik van gaan maken als je alles op max wilt spelen.
Gamen word op deze manier een erg dure hobby als je top of the bill wilt hebben.
En niet te vergeten een flinke voeding om alles draaiende te houden.
Met de hedendaagse woekerprijzen op de energiemarkt is dat ook geen lolletje meer.
De GPU heeft al 24 pipes, en waarom zou je hem niet zo hoog klokken als het kan? Bovendien denk ik niet dat gameproducenten ooit van een SLI-opstelling uit zullen gaan, omdat dat allerhoogstens 1% van de spelers zal hebben.
Waarom geen GPU ontwikkelen welke meer pipes heeft ipv de snelheid in MHZ verder op te voeren?
Neemt teveel ruimte in op de wafer, en Si is niet echt goedkoop.
Si is overal te vinden. Ik denk dat het eerder met yields te maken heeft.
Chipoppervlakte is duur vanwegede honderden, extreem dure en gecompliceerde, bewerkingsstappen. Silicium (ook de gekweekte kristallen voor wafers) zijn geen grote kostenpost. avalOne heeft gelijk dat ook de yields omlaag gaan bij grotere oppervlaktes, maar dat valt nog te compenseren door kapotte gedeeltes uit te schakelen.
2 videokaarten met 512mb betekend niet 1GB videogeheugen. Beide kaarten hebben dezelfde data nodig om de goede beelden te produceren dus de data in het geheugen van bijde kaarten is nagenoeg hetzelfde.

daarnaast, game developers zullen nu echt niet meteen hun spellen maken "voor" 512meg videokaarten. De meeste developers doen eerst een grondig marktonderzoek, ze moeten weten wat het gros van de gamers voor pc heeft, wat ze over een jaar zullen hebben, etc.
F.E.A.R is duidelijk op de toekomst ingesteld, maar is op verlaagde details ook nog goed speelbaar op bijv. de FX serie. WoW is een perfect voorbeeld van een game die wereldwijd altijd gespeeld zou moeten kunnen worden, wat dan ook het geval is.

Een leuk voorbeeld van zo'n marktonderzoek is bijvoorbeeld de survey van Steam, het is facinerend om te zien dat zoveel mensen nog steeds een van die verdomde GF4MX kaarten hebben, zoek er maar eens naar, tis erg grappig.
Dat een hoop mensen nog de GF4MX kaarten hebben komt omdat je standaard met die MX 4400 veel meer kon doen dan de diverse andere kaarten die later kwamen!
Zo heb ik eens een Radeon 9800 het tegen een geupdate GF4MX4400 zien afleggen! En dan moest deze nog getweakt worden!
Diverse latere kaarten hadden vaak niet de goede mogelijkheden van overklokken als de GF4MXxx00 series. Niet voor niets dat dat de laatste series weer verbeterd is door zowel nVidia als ATi!
Vergeet niet dat nVidia al druk bezig is met de G80 core! Als deze een waardig opvolger is van de G70 core dan zal het uitbrengen van de R580 core van ATi hier alweer een geduchte tegenstander hebben als ATi deze tenminste niet als meester moet beschouwen!
Waarschijnlijk zullen er in de G80 core meer pipes zitten en kan deze meer shaders draaien en zo meer! Alles wat ze nu in de huidige graka's hebben zitten is weer ervaring voor de nieuwe series!
Bij videokaarten spelen hele andere dingen een rol dan bij processoren hè!
Goh, en als leuke bijkomstigheid meteen voor het eerst sinds tijden weer een kaart met meer geheugen die ook echt beduidend sneller is.
Lijkt me nogal logisch. Meer geheugen dat lager geclockt is vind je gewoonlijk op low-end en soms mid-end kaarten om de kosten te drukken. Het is dan ook niet bedoeld om te presteren maar eerder om de onwetende consument te lokken. Dezelfde consument die denkt "een GeForce FX 5200 256MB is beter dan een GeForce 6600GT met 128MB".

Het paradepaardje van een bedrijf daarentegen moet presteren, aan welke kost dan ook. De die hards die altijd het beste willen hebben kopen het toch want die zijn bereid hun portefeuille wijd open te trekken.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True