Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: The Inquirer

Nu zowel de ATi Radeon X1800XT als de X1800LE, beide grafische kaarten hebben de R520-core aan boord, over 512MB aan geheugen zullen beschikken, kan nVidia natuurlijk niet achterblijven. Vandaar dat het bedrijf heeft besloten, zo heeft The Inquirer opgevangen, om een 512MB-versie van GeForce 7800GTX op de markt te gaan brengen; deze kaart was eerder alleen verkrijgbaar met 256MB geheugen. Onbekend is nog wanneer de aangepaste kaart op de markt gaat komen, maar volgens The Inquirer zal dit zo snel mogelijk plaatsvinden. Er moeten namelijk nog wel enkele aanpassingen gedaan worden aan het fysieke ontwerp van de grafische kaart, om zo ruimte te creŽren voor de extra 256MB geheugen. Verder worden geen wijzigingen aan het kaartontwerp of de kloksnelheid van het geheugen verwacht. Wel worden prijsverlagingen verwacht om zo extra druk te zetten op ATi.

GeForce 7800 GT (front)
Een oudere versie van GeForce 7800GTX
Moderatie-faq Wijzig weergave

Reacties (45)

Dit zal zo langzamerhand wel een beetje de top zijn wat er nu te krijgen is aan videokaarten.
Waar is het einde?
2 * 512mb? heb je 1 gb videogeheugen ik kan me geen setting bedenken welke dat ooit aan zal spreken (voor de huidige standaard dan)
Zware spellen als BF2 kan je met een enkele 7800GTX al in full options spelen.
Verder heb je een behoorlijk zware voeding nodig en in sli een behoorlijk snelle cpu.
Mijn idee is dat het een patserkaart is waarbij je nu weinig zal merken van het extra geheugen.
Het einde is wel snel in te zien, of in elk geval in de nabije toekoemst : twee 7800GTX met 512MB elk in SLI OF twee Ati X1800XT met elk 512MB in CrossFire :P
denk niet dat dat echt nuttig zal zijn maar dat is op zich wel te verwachten...
Ach, ik zit nog te wachten op een GraKa die een perfect rondje kan tekenen...

Het einde is nooit in zicht, het kan altijd beter en beter en beter.

Maar het zou ook mooi zijn als er net zoveel aandacht aan verkleining besteed zou worden als er nu aan vergroting besteed wordt. Daarmee bedoel ik, hetzelfde of meer presteren tegen gelijke of lagere Wattages.

Ja, daar worden al mooie ontwikkelingen in gemaakt, maar nog steeds gaat de nieuwe generatie meer verbruiken dan de vorige.

Verkleining kan ook tot betere prestaties leiden.

Maar ik verwacht wel dat we volgend jaar naar 768 en daarna 1024Mb kaarten gaan, enzovoort enzovoort.

Pas wanneer het REAL LIFE is, zal op dat gebied de ontwikkeling wel stoppen, en er enkel en alleen op schaalverkleining gewerkt worden.

Tot die tijd zal het groter, dikker en vetter worden.
Dit zal zo langzamerhand wel een beetje de top zijn wat er nu te krijgen is aan videokaarten.
640 kbyte is genoeg. |:(
Realtime ray-tracing is nog steeds niet mogelijk, dus wat nou einde in zicht?
Hoe clichť dan ook, gelijk heb je, er is nog een lange weg naar real-time ray tracing, en zelfs als we dat hebben kunnen we nog wat extra polygonen en hogere res en mooiere textures. :z
en zo wordt de lat weer hoger gelegd... en kunnen we allemaal weer gaan upgraden voor 1 of 2 topspellen die dit eisen
kunnen, inderdaad.. het is nog steeds geen verplichting ;)
very good point, ik hoor steeds weer mensen klagen over het feit dat ze steeds een nieuwe videokaart moeten kopen alleen dat IS een eigen keuze. Als ze de nieuwe spellen met hoogste niveau graphics willen spelen... ja dan moeten ze wel ja... Alleen dat is toch iets dat ze zelf willen?

Hoewel het wel erg hard gaat natuurlijjk, als je echt lekker bij wilt blijven met de games zul je bijna ieder jaar een kaart voor 200 euro moeten kopen, die je daarna vervangt in een jaartje en weer een nieuwe kopen kan. Ach, gamen is gewoon een (dure) hobby :P. Voor minder dan 1500 euro kan ik geen leuke game pc in elkaar knutselen die het ook nog even volhoud :'(
Zelfs de topgames kan je met lagere settings nog draaien op een GF2 of zo.
GF2 kan je tegenwoordig vergeten, pixel shaders of iets in die richting wordt niet ondersteund en dan starten de games van tegenwoordig NIET op. Zoals: Psychonauts, Thief 2, Deus Ex 2, Act Of War
Ik kan met mijn Geforce ti 4200 geen bf2 opstarten :S mijn kaart is nog niet eens zo uit maar om die spellen te spelen ben je gewoon verplicht een nieuwe te kopen..
Ik heb een oude gforce2 mx liggen... echt een relaxe kaart hoor! draait San Andreas en Nfsu I & II (de enige spellen die ik speel, maar dat is offtopic) nog op medium quality. Ik heb hem wel al een jaartje geleden vervangen, tuurlijk we zijn 6 jaar verder, zo'n ding kan niet meer mee... (nog een wonder dattie het doet, de athlon 1GHZ is allang doorgebrand).
In hoeverre is een gameconsole (PS3/Xbox360) dan niet een betere optie, vraag ik me af? Voor §300 ofzo een krachtig gamesysteem vinden zit er niet in. Gameconsoles gaan minstens 1 jaar mee. Plus je hoeft niet "bang" te zijn dat een nieuw uit te brengen spel voor zo'n console niet zal kunnen draaien. Specs v/d consoles ligt immers vast en daar wordt natuurlijk rekening mee gehouden bij de ontwikkeling van nieuwe titels. Spelen op HDTV resoluties behoort tevens tot de mogelijkheden bij de nieuwe consoles als ik me niet vergis. Speltitels kopen zal alleen relatief duur zijn, maar dat kun je wel omzeilen :P
de ATI's hebben overgens wel het voordeel dat die een 512bit bus hebben (wel een zogenaamde ring ofzo) en de 7800GTX een 256Bit geheugenbus het zal me benieuwen naar de verschillen tussen die 2
fisiek is het een 256bit bus, alleen intern wordt een 512bit ring bus (for whatever that means) gebruikt. Dat lererd geen extra bandbreedte op, maar 1,5GHz DDR3 zeker wel.
Heeft dit wel zin? Of is dit weer zo'n verkoopstunt zoals de Geforce 2 MX toen met 128MB i.p.v. 64MB?
Dat was toen totaal nutteloos, omdat de extra 64MB (bijna) nooit gebruikt werden door de te lage kloksnelheid v.d. kaart.
ja, kijk maar: 'Videokaarten met 512MB zinvol in Call of Duty 2'

Daarnaast is de x850PE trager dan 7800gtx, dus zal met gtx verschil tussen 256mb en 512mb alleen maar groter zijn
ik heb COD demo gespeeld met de 7800GTX en hij liep zo vloeiend dat ik nergens last van had (niet 1 framedrop)

verder over de ruimte die ze moeten creeren voor de extra 256 mb is onzin want als je onder de koeler kijkt heb je 4 geheugenhips, en aan de achterkant ook 4. maar op de zelfde plek aan de achterzijde van elke geheugenchip zit ook nog een ongebruikt vakje. waarschijnlijk hadden ze allang rekening gehouden met 512 mb met het oorspronkelijk ontwerp.
nou er waren al test dat een x800XL 512 Mb de 7800GTX Pwnde in COD2 dus ik denk dat het wel zeker nut zal hebben
Ook blijkt uit die test dat dat aan CoD2 ligt en niet aan die videokaarten.
Het lijkt me dan ook duidelijk dat het niks uitmaakt maar dat Nvidia alsnog bang is dat mensen de ati kopen omdat ze 512MB er in hebben zitten. Waarschijnlijk dachten ze eerst dat ATI ook wel 256MB zou aanhouden, om de kosten te drukken en zo te kunnen concurreren. ATI slaat blijkbaar een andere weg in om kopers te lokken (wat mij overigens een slecht idee lijkt, maar wie ben ik...).
Ach, als je zo links en rechts kijkt, lijkt het alsof ATi vol met slechte ideeŽn zit. Maar het spreekwoord luidt, 'eerst zien, dan geloven' we zullen het gauw merken.
Dat is geen spreekwoord maar een gezegde :D
Ik kwam onlangs toch weer iemand tegen die dacht dat zijn videokaart alle games aankon omdat er 256 meg ram opzat... ( 't was een fx5600 ) ...

Dus jah, ook al is het niet nuttig , om zoveel mogelijk te verkopen doen Ati en Nvidia er dus niet slecht aan 512 meg op te zetten... laten we nu hopen dat het geen 512 meg aan trager geheugen is... |:(
Nou het maakt eigenlijk wel uit want het bleek dat COD2 de texture detaillering naar beneden veranderde bij hogere resoluties. Omdat de ATI kaarten 512 MB hadden veranderde COD2 de detaillering bij hogere resoluties niet omdat het spel vindt dat dat genoeg geheugen is voor een betere detaillering.

Dit is echter zo te veranderen met een patch, en ik verwacht ook dat dat zal gebeuren. Uiteindelijk hoop ik eigenlijk dat gameontwikkelaars deze software uit games halen aangezien het zo erg moeilijk wordt om de detaillering te kunnen zien en zelf te kunnen instellen.

COD2 is slechts een spel en daarbij ook nog slechts een review dus ik zou dat totaal niet vertrouwen als het gaat om prestaties tussen de kaarten die meededen aangezien de 7800 GTX wel sneller moet zijn dan de vorige generatie kaarten van ATI. Dus eigenlijk zegt die review niks over die kaarten maar meer over COD2 en wat men kan verwachten.

Overigens vindt ik een test als 3Dmark 05 of PCmark toch betere software om grafische performance van kaarten te kunnen meten. (objectief).
De 2 MX was de goedkoopste kaart en de 7800 GTX is de duurste.
Wat denk je zelf?
80% van de pc-gebruikers (als het er niet meer zijn) denkt alleen in aantal mb's...

bij mij op het werk (350man) hoor ik altijd iedereen zeggen...''ik heb een 128mb videokaart'' of.....''ik heb m'n 128mb kaart ingeruild voor eentje met 256mb'' |:(

heb een tijdje geleden een hele discussie met een collega gehad...die kaart van mij (gf3 ti200 64mb) was lang niet zo snel dan die van hem mx200 128mb oid :z

die mensen kopen nou juist een ati-kaart omdat daar 512mb opzit....en voor die grote groep is nvidia bang...vandaar ook de 512mb kaart :)

pcb hoeft idd niet opnieuw ontworpen te worden....de ''lege'' plekjes zitten er al :)
@chills73

Je zegt het zelf, de grote groep. Je hebt helemaal gelijk met die mb's, want elke dag moet ik me ook verdedigen dat m'n 6800 ultra niet evensnel is als een ati 9200 256mb oid... Alleen dat van dat de grote groep dan maar 512mb kaarten koopt. Misschien als ati dat op de low-budget kaarten dat doet, maar het 'plebs' koopt geen kaarten van 350-500 euro hoor.

Dit is wat ik denk tenminste..
dat betwijfel ik, degenen die werkelijk van plan zijn 300+ euro uit te geven aan een videokaart zullen toch echt wel even op zoek gaan naar prestatievergelijkingen.

als ze vervolgens zien dat ze voor misschien wel 100 euro minder een kaart hebben die even goed presteert, zullen ze al gauw afstappen van het idee van "meer MB is beter" want prijs is alles natuurlijk :+
[quote]Wel worden prijsverlagingen verwacht om zo extra druk te zetten op ATi.[/quote

Deze zin is nog wel het mest interesant. Maa geld dit ook voor de consument of geld dit alleen voor de fabrikanen die de G70 chip inkopen??

mocht dit voor de consument gelden dan overweeg ik toch om mijn GF6800GT te vervangen :)

@ deuZige:
Dat is een keuze van Asus om 2 GPU`s op in PCB te plakken als je 2 losse koopt dan zit je nu ook al zowat aan dat bedrag.
prijsverlaging mag ook wel,... toch niet normaal dat je dadelijk voor 1000 euri of meer aan vga's in je pc heb....
@deuZige:
prijsverlaging mag ook wel,... toch niet normaal dat je dadelijk voor 1000 euri of meer aan vga's in je pc heb....


kan je nagaan als je er 2 van §1000,- in hebt zitten... (2x GF7800GTX Dual-GPU + 512MB) }> :+

zou ik in eerste instantie niets op tegen hebben.. maar ik denk dat mij portomonee (hoe je het ook typt...) er niet bepaald mee eens zou zijn... :9
Nieuw PCB nodig, yeah right:
http://www.ixbt.com/video.../gf7800gtx-scan-front.jpg

Dit is het huidige, en als mijn ogen mij niet heel erg hard bedriegen, is er dus geen nieuw pcb nodig, alleen zullen andere chips moeten worden gebruikt.
Voordeel is wel dat de prijzen waarschijnlijk omlaag zullen gaan, dat is natuurlijk nooit verkeerd!
Meer dan 256mb zal voorlopig alleen zin hebben bij hele hoge resoluties: 1920x1200 en hoger. Op den duur zullen er spellen komen waarvan de textures zo complex zijn dat 1GB of 2GB video geheugen van pas zal komen. Vooral als in 2006 en 2007 grote LCD computer monitors met hoge resoluties goedp gaan worden.
op ''normale'' instellingen (1024x768 of 1280x960/1024) zul je idd niet gauw te weinig hebben aan 256mb..

maar als je op 1600x1200 draait (native 20-21''tft's), met wat aa/af erbij, en dan ook nog eens de ingame-settings vrij hoog, kun je zeker profijt hebben van 512mb...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True