Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 100 reacties
Submitter: Postman

Asus heeft donderdag een versie van de nVidia GeForce 8800GT uitgebracht die over 1GB aan gddr3-geheugen beschikt. De kaart is verder van technologie voorzien die de gebruiker in staat stelt de core- en de shaderklok op te voeren.

De gigabyte voor de Asus EN8800GT/HTDP/1G wordt geleverd door geheugenproducent Qimonda. Het gddr3-geheugen is effectief op 900MHz geklokt, wat tot een kloksnelheid van 1,8GHz leidt. De coreklok van de gpu loopt standaard op 600MHz., maar met behulp van Asus' 'SmartDoctor'-technologie is deze snelheid, net als die van de shaderklok, met tien procent te verhogen, zo claimt het Taiwanese bedrijf.

Asus rust de kaart verder uit met een dvi- en s-video-interface en een 'Glaciator Fansink' die voor een temperatuur zou zorgen die 7 graden Celsius lager ligt dan die van vergelijkbare kaarten. Wanneer de kaart precies in de winkels komt te liggen en wat de prijs zal zijn is nog onbekend.

Asus EN8800GT HTDP 1G
Moderatie-faq Wijzig weergave

Reacties (100)

ik heb al altijd gevonden dat de g80 reeks er niet echt op vooruit is gegaan kwa gegeugen. Als je weet dat bv doom 3 op full texturen een 512 mb kaart aanbevolen is(niet voor snelheid want daar heeft dat niet zo zeer mee te maken maar dus voor die textures te kunnen laden) en we ondertussen weer een hele tijd verder zijn ben ik blij dat ze het geheugen opkrikken.

Op zich heb je er nu niet zoveel aan maar zie dat zo, er moet altijd eerst wat kaarten uitkomen die eigenlijk "teveel" geheugen hebben, dan pas zullen game makers games voorzien op kaarten met meer geheugen. Je kunt nu wel heel dit topic vol zeuren over het feit dat dit zogenaamd geen nut heeft maar er moet altijd een de eerste zijn...
Dat komt omdat de 8800GTX 6 clusters van geheugencontrollers heeft, met elk 2 chips van 64MB geheugen. Het alternatief zou zijn om grotere chips te gebruiken, maar dan kom je per se uit op 1536MB geheugen, wat niet alleen overkill is, maar ook veel en veel te duur. Je ziet niks geen extra performance terug voor het geheugen dat je krijgt, dus ze zijn niet gek bij NVIDIA.
Het alternatief is meer clusters er op zetten, maar dat maakt de chip duurder, heter en verhoogt het energieverbruik. En ook dan is het performanceverschil in bijna alle games nihil. Gewoon een slimme economische keuze dus. NVIDIA is er namelijk voor de consument en niet voor de technologische vooruitgang.
Is het niet mogelijk om minder clusters met meer geheugen te doen, bijv 4 clusters met 2 chips van 128mb? Dat heeft toch geen zeer grote invloed op het TDP en de prijs?
Dat niet, maar dat maakt de snelheid van de GPU dan weer lager. Elk cluster in de 8800 heeft een 64-bit geheugenbus naar het geheugen. De totale geheugenbus is dus 6 * 64 = 384bit.
De 8800GT en de nieuwe GTS hebben dan weer een smallere bus, namelijk 256bit, en hebben dus 4 clusters, waarbij elk cluster wel weer meer chips bevat. De geheugenbus wordt hier echter wel weer mogelijk een bottleneck, dus daarom heeft NVIDIA voor de GTX voor zes clusters gekozen.
sow dat zo de ultieme kaart zijn voor grote schermen! :)
Nee hoor, het is namelijk een grote mythe dat je met een groot scherm veel videogeheugen nodig hebt. Reken maar uit wat de framebuffer kost bij 2560x1600. Dat is namelijk 2560x1600x16(4x4 bytes bij HDR) = 65536000 / 1024 (KB) / 1000 (of 1024, afhankelijk van je definitie van MB) = 64MB. Daar komen dan nog wat extra render targets bij voor het bloom effect bij HDR, en voor de uiteindelijk back buffer (4 bytes per pixel, dus 64 / 4 = 16 MB) en de depth-stencil buffer (ook 16MB), dus dan kom je op een totaal van tussen de 96 en 120 MB. Niks om je druk over te maken dus.
Zelfs als je dan nog MSAA aan zou zetten (wat dan weer moeilijk is bij HDR) blijft het geheugengebruik vrij beperkt (of in ieder geval beperkt genoeg om geen verschil te merken met bijvoorbeeld de GTX met 768MB)
daar heb je het natuurlijk wel MAAR over 1 beeld, ik vraag me dan ook af wat er gebeurt zodra je de kaart voor meerdere taken kunt gebruiken (dus wanneer je de physx ook door je gpu laat berekenen..
Physics op je GPU zijn nog een groter fabeltje. Dat is er niet en zal de eerste tijd ook niet op de markt komen. ATI heeft een tijd lang geprobeerd de klanten voor de gek te houden door te beweren dat hun kaarten physics op de GPU 'mogelijk maakten', maar dat is onzin.
Pas als de GPU echt programmeerbaar wordt (DX11 of DX12) is het een optie.

En wat betreft meerdere schermen op 1 GPU, tja. Als jij een 'next-gen' game op meerdere schermen, met allemaal een resolutie van 2560x1600, met HDR of MSAA wil draaien, dan heb je sowieso al niet genoeg aan een 8800GT. Sterker nog, ik denk dat je dan Ultra's in SLI nodig hebt, en het dan nog zwaar krijgt.
1)de berekening van hoeveel MB een beeld inneemt slaat op niets. Hetgeen dat wordt opgeslagen op de kaart zijn 3D modellen, en niet gewoon een bitmap met je scherm erop. de 3D modellen worden dan verwerkt tot een 2D beeld en rechtstreeks naar je monitor gestuurd, ze worden dus nergens opgeslagen.

2) Physix op de graka gaat imo nooit iets worden. Maar zelfs als dat zo is haalt het geheugen weinig uit: de grote bottleneck voor Physix is rekenkracht en niet geheugen, je bent dus erg weinig met 1GB geheugen in combinatie met deze chip als het op gamen aankomt...
de berekening van hoeveel MB een beeld inneemt slaat op niets
....
de 3D modellen worden dan verwerkt tot een 2D beeld en rechtstreeks naar je monitor gestuurd
En hoe denk je dat hij die 2D beelden verwerkt?

Precies, in bitmap in een framebuffer :+
...Verwerken doet ie met de chip? geheugen kan niks verwerken...

De chip bouwt (rendert) een beeld op, en stuurt dat dan idd wel naar de framebuffer, maar de framebuffer zit niet in het VRAM, dat is net het punt...

De framebuffer is een aparte (snelle en kleine) geheugen module, die de output van de grafische chip ontvangt, en zodra ie een volledig beeld heet ontvangen, stuurt die dat door.
Dit gebeurt dus geweldig snel. Indien deze buffer ook in het VRAM zou zitten, zou die een heel deel van z'n bandbreedte verliezen, daarom wordt een apart moduuletje gebruikt.

[Reactie gewijzigd door kiang op 7 december 2007 19:18]

Veel geheugen is natuurlijk bedoeld voor het inladen van textures. Dat zou wat moois wezen, dan kon je in principe met ieder 64MB kaartje 2560x1600 spelen! Textures kunnen behoorlijk groot zijn; en dat is eigenlijk het enige wat je merkt bij kaarten met, zeg, 128/256MB: ze lopen een beetje uit hun texture-ruimte, en dan gaan dingen stotteren, natuurlijk. 768MB is echter ruim voldoende voor de huidige generatie spelen.
Veel geheugen is natuurlijk bedoeld voor het inladen van textures.
Dat weet ik maar al te goed hoor. Ik reageerde alleen op misael, die zei namelijk dat je het nodig had voor je backbuffer en dergelijke:
sow dat zo de ultieme kaart zijn voor grote schermen!
Met andere woorden, ik ben het helemaal met je eens :)
Sinds is wanneer veel geheugen de "eis" voor een groot scherm? Volgens mij heeft dat meer te maken met de GPU dan geheugen.
Eigenlijk niet want terwijl de GT op lage resoluties nog goed meegaat met een GTX of GTS, haakt hij volledig af op de grotere resoluties.
Is 1 GB niet een beetje veel voor de gemiddelde gamer, ik denk dat die 512 toch wel voldoende is. Alleen als je straks met dikke monitoren zit met extreme reso's dan is het misschien wat.

Of heb dat nu mis?
Het zou eerder aan de resoluties van de textures liggen dan de resolutie van de monitor lijkt mij, 30" is nog lang niet gangbaar voor de gemiddelde gamer en hoger lijkt mij niet prettig gamen. Daarom is 1GB gewoon voor nu nog overbodig, en tegen die tijd dat het wel bruikbaar word houd deze kaart het hoogst waarschijnlijk niet meer bij.

Meer een marketing actie deze kaart, veel consumenten denken nog steeds in de zin van meer MBs = Betere prestaties. Hieruit kunnen producenten veel geld verdienen omdat het geheugen nu de dag gewoon bespottelijk goedkoop is.

Waar ik me het meest intereseer is de cooler die op deze kaart zit, al ben ik wel teleurgesteld dat hij geen volledige dekking geeft of de techniek gebruikt die de warme lucht uit de kast blaast. Daarom lijkt mij deze kaart minder interresant dan de OC kaarten of de kaarten met een betere coolings optie, hier krijg je meer prestatie winst uit dan meer MBs op je videokaart.
30" misschien niet, maar dual 21" toch zeker wel, daarenboven is wat extra ram wel handig om uncompressed textures naartoe te pompen en dan geraak je wel boven de 512/640/768MB (en vanaf dan dus ook winst, je moet niet per se de volle 1GB gebruiken)
lol ga je de eeuwige 'is dit wel nodig' discussie boven brengen?
lol, antwoord ja! (voor mij, als jij dit nodig vind, koop het dan niet hé...)
MB's spreken aan bij het plebs, dus een met meer geheugen zal beter verkopen, dat de kaart hier door op hoge resoluties beter presteerd is een leuke bonus :D
Ja en nee eigenlijk. Ja veel texture geheugen is nodig om alle high-res textures van de huidige generatie games in te kunnen laden zonder te swappen omdat er te weinig geheugen op de kaart zit. MAAR.... ik denk toch dat een midrange kaart er weinig baat bij heeft omdat de doorvoer snelheid stukken lager is dan bijvoorbeeld een GTX of Ultra kaart.
Kijk dan maar eens naar de performance van de gt en het verscil tussen de performance in hoge en lage resoluties, dan zal je zien dat meer geheugen wel een verschil zal maken.
en midrange? de 8800gt presteerd beter dan de GTS640, is de prijs van de gts640midrange? de 8800gt is gewoonweg een schot in de roos en de 1gb buit dit nog een beetje meer uit. Wat slimme marketing is.

Benchmarks zullen me gelijk of ongelijk geven, het heeft geen nut hierover te discussieren....
Ik vind dat mensen zelf gewoon moeten afwegen wat ze willen gebruiken.

Sommige mensen Willen gewoon alles aanuitgeven om dagenlang te kunnen gamen.
Dan is twee van deze kaarte in SLI een aardige oplossing

Ik vind dat deze kaarten gewoon gemaakt moeten worden omdat dit vooruitgang boekt.

en de meeste 22'' TFT's zitten al aan de 1650X1050 en dit zal alleen maar meer worden.
Zoals het er nu uitziet word de 8800GT een Treffer!
Is 1 GB niet een beetje veel voor de gemiddelde gamer
Voor de gamert misschien wel ja, maar voor de amateur-CAD gebruiker die veel onderdelen in een samenstelling gaat lopen renderen is dit een prima kaart - des te meer geheugen des te beter voor CAD, en nog redelijk goedkoop ook vergeleken bij de prof. modellen.

[Reactie gewijzigd door kidde op 7 december 2007 14:13]

mipmaps natuurlijk ;). met deze krijg je de beste details op je textures omdat er gewoon ruimte voor is
mipmaps neemt maximaal 1/3e extra geheugen in dus dat zou betekenen dat je al 768mb aan textures er in hebt moeten stampen... coole kerel die dat voor elkaar krijgt! (of een slechte game maker :P)
Eigenlijk is 512MB zat zou je denken.
Stel ik ben een extreme gamer, ik heb 2 keer 512MB (8800GT) in SLI staan, dan heb ik 512MB geheugen voor bijvoorbeeld eh, Crysis te spelen op een resolutie van 1600X1200 of hoger, omdat het geheugen niet bij elkaar opgeteld word zul je sneller aan je max zitten vanwege de hoge resolutie en hoge grafische instellingen.
Vroeger dacht je misschien ook, waarom zou ik een 256MB X850PE (Als die bestaat :P) kopen terwijl 128MB op dat moment (2004/2005) de max is?
Omdat je nu dus zo snel aan je max zit dat de kaart het niet meer trekt kwa geheugen, terwijl het met 256MB of 512MB de nieuwere games nog makkelijk had kunnen trekken.
Heb IDD in 2005 een x850XT PE gekocht. Een 128MB GF6800 trok hoge resoluties/veel detail in WoW niet. De X1serie kwam bijna uit geloof ik, GF 7 was er al.

Als ik nu denk over een 512MB kaart, kan ik je wel vertellen dat er genoeg gebruikers rondlopen die meer kunnen gebruiken. Dat er, zoals eerder gesteld, ook een hele hoop plebs dit ding kopen om CS 1.6 te gaan spelen ofzo, tsja....
Je had zelfs al 256MB 9800Pro's... ;)
Of heb dat nu mis?
Ja, in zekere zin wel. Ik wil namelijk max res kunnen draaien op mijn beeldscherm en nu kan ik mijn viewports voluit gaan zetten van 3ds max.
Ik zie genoeg potentie =)
Hier hoef ik eigenlijk alleen maar een ding op te antwoorden: Crysis!
Met een 1 GB videokaart kun je dus maar 3 GB systeemgeheugen gebruiken onder XP/Vista 32-bit...
Je GPU en Memory staat los van elkaar.
De videokaart is memory mapped; ze delen de address space.
Inderdaad; goede observatie! Met mijn 768MB 88800GTX heb ik nog maar net 3G over (andere spullen nemen kennelijk ook wat in). Met zo'n 1G kaartje zou je op een 32-bits OS wel eens onder de 3G kunnen zakken.
Ik weet wel cker dat je gemakkelijk boven de 512mb geheugen gebruik uit kan komen, is alleen de vraag hoeveel performance het extra oplevert.

Als je snel door levels heen/terugloopt zou dit nog weleens een flink verschil kunnen maken doordat er nog meer textures in het geheugen staan, anders heb je er imo niet zoveel aan.
Kan me goed voorstellen dat het voor een spel als crysis goed kan helpen.
Dit nieuws is al even lang gekomen op het grote nvidia topic hoor...
De vraag op ieders lippen: zal deze kaart beer presteren dan de gtx? want deze is net beter dan de gt512... Spannende boel!
Meer MB is wederom niet beter, de chipset en kloksnelheid is een veel grotere factor op de snelheid dan de hoeveelheid MB. Deze kaart zal hoogst waarschijnlijk erg in de buurt van de normale GT presteren, een beetje hetzelfde verhaal als de GTS 640MB dus. Als je puur naar snelheid kijkt ben je beter af met een kaart met een OC en eventueel nog een custom cooling.

Puur marketing praat die 1GB, games nu de dag krijgen amper die 512MB vol laat staan dat ze 1GB vol krijgen. De 1GB zal wel extra ruimte geven mocht de grens van 512MB bijna bereikt zijn maar de meerwaarde is het nou eenmaal niet waard. Mocht de 1GB baten in een spel dan zal de snelheid van deze kaart naar mijn weten snel tekort schieten en is een upgrade noodzakelijk.
Hier ben ik niet volledig mee akkoord, mijn Ti4200 128MB heeft langer mee gegaan dan die van een vriend die de 64MB versie had, meer MB is daarom niet veel beter, maar naast de marketing truc is er wel een verschil, of de prijs het verschil waard is is nog een andere discussie, en zo hebben we 3 discussies door elkaar...
(de drie zijn: meer MB beter?, MB=marketing truc?, hoe zal deze kaart presteren?)

[Reactie gewijzigd door stevenpeirsman op 7 december 2007 14:05]

Puur marketing is niet waar natuurlijk, 5 jaar geleden dacht men waarom 128Mb of 256Mb dat gebruiken wij toch niet inmiddels is er 640 Mb en hier en daar begint dat al te kraken met Crysis (als ik zo lees op diversen spelforums) dus die 1 Gb zal binnen de kortste keren wel ingevuld worden het enige nadeel er aan is, dat mensen die 2 maanden geleden de beste van de beste videokaart gekocht hebben over een maand of 2 á 3 met een rotvideokaart zitten waar niemand nog een stuiver voor geeft bij wijze van spreken :)
De vraag op ieders lippen: zal deze kaart beer presteren dan de gtx? want deze is net beter dan de gt512... Spannende boel!
Nee, dat zal hij niet. De bottleneck bij de GT is namelijk niet de hoeveelheid geheugen, en dat is ook nooit het geval bij de GTX.
Mooi, eindelijk een weer eens een kaart met een Single Slot koeler. Is deze kaart ook al uitgerust met de nieuwste G92 GPU die deze maand uit zou komen?

Edit: Ik heb het al gevonden. De snellere versie van de in november gelanceerde G92 GPU wordt de 8800 GTS.

Zie hier:
http://core.tweakers.net/...dit-jaar-beschikbaar.html

en hier:

http://core.tweakers.net/...gts-512-op-zijn-site.html

[Reactie gewijzigd door LeNNy op 7 december 2007 14:31]

Volgens mij is het geen single slot, maar nog steeds een dual slot cooler.
hij ziet er anders behoorlijk single slot uit hoor ;)
Bracket wel, koeler niet. (zo te zien 3 slots kwijt door airflow dus)
de 8800GT is de G92 GPU
de 8800GT is inderdaad de kaart met de G92 core
Riepen we jaren geleden ook niet bij 16 MB geheugen in je pc dat dat veel te veel was? Of 32 MB? Man dat gebruik je toch nooit?
De vraag is niet of je het ooit gaat gebruiken maar of het op dit moment geen overkill is voor de hedendaagse games.

Als er geen prestatiewinst is tegenover 512 MB met de hedendaagse games is het zonde om op dit moment een kaart te kopen met 1 GB

Als over ~2 á 3 jaar 1GB wel mainstream is ga je op dat moment wel een nieuwe kaart halen met 1GB en niet deze daarvoor gebruiken (denkend aan het aantal generaties videokaarten er op dit tempo verschijnen)
Want je moet natuurlijk tóch om de 2-3 jaar een nieuwe videokaart halen... :(
Alle mensen die zeuren over de MB's, zelfs voor 1920x1200 is 256MB meer dan voldoende. Alleen bij de laatste generatie spellen heb je een winst op 1920x1200 van wel 5 fps! met een 512 MB kaart. En dat komt meer omdat ze niet zuinig met texturespace omgaan.

Buiten dat is het geheugen vaak (bijna altijd, maar er zijn uitzonderingen) langzamer naarmate het groter wordt. Dan heb ik het voornamelijk over de toegangssnelheden.
Wat dacht je er ervan om de performance van een 8800 GTS 320 MB te vergelijken met een 8800GTS 640MB.... dan zal je er ongetwijfeld achter komen dat al die MB's er wel degelijk toe doen.... en zelfs al op heel beschaafde resoluties zoals 1600*x en 1280*x...

Twijfel er niet over dat Crisys een 512 mb op zijn knieen kan krijgen.
uhm.... 256?
Ik zie in deze review toch echt meer dan 500mb verbruik op 1600x1200....
http://www.yougamers.com/..._much_do_you_really_need/
Dus draai je een leuke setup met een 30" scherm met 2x 8800gt's dan zijn de 1gb modellen geen eens zo'n gek idee ;)
De geruchten van gister (in het turks) waren dus toch waar! ;)
Als het goed is zijn de koelprestaties aanzienlijk beter met deze koeler.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True