Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties
Bron: Bit-Tech

XFX heeft naar eigen zeggen de eerste videokaart op de markt gebracht die een GeForce 8800 GTX-gpu bevat die standaard op een hogere kloksnelheid werkt. Ook een GTS-variant van de nieuwe videokaart is beschikbaar.

XFX GeForce 8800 GTX XXXDe XFX GeForce 8800 GTX XXX Edition loopt standaard op een kloksnelheid van 630MHz voor de chip en 2000MHz voor het geheugen. Ter vergelijking: de standaard kloksnelheid van een GeForce 8800 GTX-gpu is 575MHz, waarbij de geheugenkloksnelheid 1800MHz bedraagt. De langzamere GTS-editie in de XFX XXX-uitvoering loopt op een kloksnelheid van 550MHz met het geheugen op 1800MHz, een verhoging van 200MHz voor het geheugen en 50MHz voor de gpu ten opzichte van de standaard GeForce 8800 GTS. De exacte prijzen van de nieuwe XFX-videokaarten zijn nog niet bekend, maar deze zal niet extreem hoog zijn in vergelijking met standaard GeForce 8800 GTX-videokaarten, zo melden nieuwssites. De XXX Editions met GeForce 8800-gpu's zijn binnenkort beschikbaar in beperkte oplage.

Moderatie-faq Wijzig weergave

Reacties (96)

Laten we hopen dat er bij deze reeks van XFX beter getest wordt en een betere garantieafhandeling wordt voorzien. We willen geen herhaling van de overklokte 7900 rampenreeks van XFX waarbij het probleem lang niet adequaat werd aangepakt.
Terwijl de 7800's weer geen extra problemen hadden oiv de factory OC.

Dus ja, als ze kwalitatief te vgl zijn met de 7800's die XFX heeft uitgebracht. Dan is dit wel 'n interessant kaartje.

Was het overigens niet zo dat met name de 7900GT, bij bijna alle merken die 'n factory OC aan dat ding gaven, voor problemen zorgde?
Inderdaad deze neigden bij elke fabrikant (vooral XFX, BFG, EVGA) voor problemen te zorgen, wel was de support van XFX het meest belabberd...
Jep, kan ik bevestigen. Maar dat kwam door het feit dat de 7900GT zowiezo bij elke fabrikant al op 8 - 10% overclock stond. Dus om een speciale overclock-editie te maken, gingen ze boven de 15%, een standaardkoelertje is daar niet voor gemaakt...
Met wat voor nut... vraag ik mezelf dan af. Er is op dit geen enkel game dat gebruikt maakt van de capaciteiten van de 8800GTX en nu beginnen ze deze ook al op te voeren. Het lijkt me allemaal wat overkill...
Ik weet niet waar je het over hebt met dat geen enkele game gebruik maakt van de capaciteit van de kaart, ik game op 1920x1200 en de kaart heeft het bij meerdere games toch behoorlijk moeilijk. Ik heb deze kaart dus ook OC'ed naar de waardes van deze XFX
Er zijn toch ook altijd mensen die de 8800GTX in sli draaien, sommige mensen willen gewoon een hoog pats gehalte en net die frame extra }>
Oblivion op mijn 30" apple 2560x1600 met alle franje aan en boven de 30 fps.........ja dan moet je wel 2 opgevoerde 8800 GTX kaartjes in SLI hebben staan.

Straks komt Vanguard: Story of heroes, en ook die wil ik op mijn 30"appeltje spelen.

Dus nee voor sommige mensen is niks te veel.
Als je een hoog patsgehalte wilt hebben, waarom zou je dan een kaart van XFX willen?
* TD-er vind het nogal budget kaartjes met brakke fans.

@Shadow en Hedgehog:
Voor mij is het zelfs meer dan een maand loon en bij mijn papa voor geld aankloppen heeft niet echt veel zin.
Maar als je kijkt naar de kwaliteit van de fans van de XFX kaartjes tov de andere merken en de uitval, dan is het gewoon budget-spul.
Ook al betaal je er bij dit kaartje zo'n 600 euro voor en ook al is er waarschijnlijk geen keert die meer op de 3D-mark score neer kan zetten.
Waar vind jij dan een beter kaartje?
Naar mijn weten is dit op het moment de snelste kaart op de wereld.
Als dat je mening is gebruik je in ieder geval het begrip budget kaart verkeerd. Iets is een budget kaart als er goedkopere (en dus langzamere/slechter presterende) onderdelen gebruikt worden om de prijs te drukken.

In dit geval worden er (ik ga er nu even van uit, ben zelf niet bekend met XFX apparatuur) dus wel goedkopere/slechter presterende onderdelen gebruikt, maar drukken deze de prijs niet.
XFX is redelijke kwaliteit, en een echte patser heeft ook waterkoeling dus die brakke fan gaat met dag 1 de vuilnisbak in..
Het nut nu is inderdaad discutabel; maar over 2 jaar kan deze kaart net even wat meer hebben dan z'n broertjes op stock-settings.

Heb zelf een XFX 6800ultra van 2 jr terug, die loopt op 480MHz GPU en 1200MHz Mem.clock.
Het verschil met stock (350/1000) is dan aanzienlijk te noemen en inmiddels hard nodig in huidige games.
Eerlijk gezegd lezen jullie het allemaal verkeerd.

De reden waarom je een al overgeclockte kaart koopt : Je hebt nog steeds garantie :)

Koop een standaard kaart en clock deze over : garantie kwijt ;)

In dit geval dus niet :)
@Paddoswarm: Gaat dat joh, als je kaart het niet meer doet? :z
@Ackermans1973: Gaat volgens mij niet hardwarematig, overclocken. Kortom, je kunt je kaart niet op de ene computer overclocken om hem op die snelheden op een andere computer te gebruiken.
@Patriot: Mag je wat gaan lezen over flashen van GPU bios. :+
Ik heb zelf een Ati X800 RX thuis liggen die ik 20% overclock op de bios heb staan, en ja die settings pakt hij in elke computer.


Heb zelf een 8800GTS en OCen heeft geen nut. Zal eerst iets moeten doen aan me AMD X2 3800+.

Oblivion is makkelijk te draaien. Jammer dat het een CPU oriented game is. Je zal met een betere CPU in Oblivion een grotere performance increase krijgen dan met een OC van je GPU.
Ik weet wel wat een BIOS flash is, en in dat geval is het inderdaad iets blijvends. Mijn post insinueerd inderdaad een beetje dat alle OC's softwarematig zijn, dat is inderdaad niet zo.
Klok terug en niemand die het ooit merk..
Stock is een 6800Ultra toch een tikje sneller, namelijk 400/1100.
Draai Oblivion es volledig open met 16x AA en je krijgt de 8800GTX op de knieŽn hoor, no doubt :). Zelfde voor Gothic 3 en FSX.
Roep dat nou niet te hard..

ik draai oblivion met 16xAA (Coverage), 16xAF @ 1920x1200 (SINGLE GTX) met ongv. 30 fps outdoors en 60+ indoors/steden.

wat nou overbodig:
Wat Pine Mangoes roept is gewoon niet waar.

kijk maar op de volgende review:
http://enthusiast.hardocp...IxOCwxMCwsaGVudGh1c2lhc3Q=

1920x1200 4xMAA, 16xAF
Minimum framerate: 31FPS!
Gemiddeld: 45.8FPS
Max: 88FPS

16xCSAA heeft dezelfde performance impact als 4xMAA dus trek je conclusies.
30fps is redelijk te doen. Oblivion is een 3D RPG hŤ. 95% van de tijd zit je een beetje van de omgeving te genieten, te lullen (stilstaan) met NPC's, en je inventory te doorzoeken. Ligt toch iets anders dan een FPS, laat staan online Deathmatch of iets dergelijks.
Voor een RPG is het meer dan genoeg :)
sjees, tijd dat ik me 6800 LE (@GT) eens vervang dus. Of is het beter om toch nog te wachten op DX10 kaarten (kan me voorstellen dat als je nu met een 5xxx nvidia kaart zit dat je dan al wel wilt upgraden).
G80 (8800GTX/S) is directx 10
Ben ik de enige die 30 fps te laag vind voor een 3D game?
edit: eerst refreshen voordat je een reactie post!
Jij bent duidelijk niet gezegend met een 30" monitor waarop je al je spellen in een vrij hoge resolutie van 2560x1600 'moet' spelen. Op deze resoluties met FSAA en andere eyecandy aan zijn deze kaarten echt geen overkill hoor :)
en hoeveel games ondersteunen een 2560*1600 res? zeer weinig
Euhm zo'n beetje alle nieuwe games tegenwoordig ........
Heb zelf een 30" Dell hier en een 8800GTX, en draai een 20-tal games in 2560-1600. Tot nu toe eentje gehad die de resolutie niet kon draaien, en daar komt nu een patch voor uit.
Een gemiddeld spel wordt zo geprogrammeerd dat het op elke resolutie kan draaien. De beschikbare resoluties hoeven ook niet in het spel te worden geprogrammeerd, elke applicatie kan de beschikbare resoluties zo bij de videokaartdriver opvragen.
(reactie op Bergen)
Yep, behalve spellen van EA....

Sorry, offtopic, maar ik wordt zo moei van die lui. Ik wil zo graag wat Battlefield titels aanschaffen maar ik boycot heel EA zolang ze 'beseffen' dat mensen wel 's andere resoluties zouden kunnen willen... :Z

Maar goed.. het enigste wat eigenlijk nog zinnig is te zeggen op dit nieuwsbericht is: we wachten op de prijzen & benchmarks!
En bovendien meer stroom nodig! maar ik denk niet dat veel verschilt t.o.v. gewone 8800GTX
wist je niet dat xfx stiekem wordt gesponsordt door eneco? :?
Inderdaad, en hoeveel GTX'en zijn er al verkocht..

;)
Zo te zien allemaal als je de voorraad in de winkels bekijkt.
Wat dacht je van mensen met een 30" TFT die op 2560x1600 spelen zoals ik zelf, dan ben je wel wat nodig hoor. En als je dan ook nog AA etc aanzet helemaal.

En je hoeft het natuurlijk niet te kopen je moet er juist blij mee zijn dat ze de mogelijkheid hebben dat je een nog sneller kaart kan kopen. Het heeft vaak ook weer wat voordeel omdat de prijs van “slomere” kaarten daardoor omlaag gaan.
volgens mij heb jij niks aan die frames want jij ziet de helft van de frames niet omdat je eerst naar het linkerkant van je scherm moet kijken en dan je nek draaien omte zien wat er op het oostelijke helft van je scherm gebeurt
:+
Simpel: om je HD pr0n op te kijken, in 1080p resolutie. Het heet niet voor niks de XXX edition natuurlijk he :+
Man man, ik zit hier nog altijd met men gf4 TI4200 te gamen, en dat gaat ook nog ' vlotjes ' op 1450*1200 No SLI, no Pci-e, gewoon goeie ouwe oldskool :+
als je DX7 games speelt met alle details en effecten op minimaal, is dat niet zo verwonderlijk :+

btw, wat een rare resolutie :?
Die rare resoultie is waarschijnlijk omdat hij Dual Screen draait.. :Y)
Twee breedbeeldmonitoren een kwartslag gekanteld naast elkaar dan misschien ja :+
Volgens mij heb jij nog meers fps als ik je de frames stuk voor stuk mail ;)
Het verschil is dat veel spellen DirectX 9 zijn. Als je dan met een DirectX 8 kaart speelt mis je veel effecten, maar draait de game nog wel redelijk soepel. Ook ik zit nog met een overgeklokte Geforce4 Ti4200 welke met de juiste instellingen nog een acceptabel beeld kan vormen op 1024x768x32.

Wel ben ik op zoek naar een vervanger, maar hoogstwaarschijnlijk gelijk ook een nieuwe PC erbij.
Ik zit ook met een overgeclockte TI4200, het mooie aan zo'n ding is dat ie in opengl nog alle recente ati kaarten voorbij gaat ;) Je hebt alleen nieuwere kaarten nodig als je directX gebruikt en dat doe ik toch niet omdat ik tgeen MS software draai ;)

Het verschil (in opengl) tussen een TI4800 en een 6800 is al heel minimaal.
mwah, draai maar es doom3... dan zie je toch wel een groot verschil, zeker met AA
Misschien wel leuk maar zelf kan je zo'n kaart ook flink opvoeren.

Ik heb zo mijn vraagtekens bij de 8800gtx. Oblivion is tot nu toe het meest geavanceerde spel qua gebruik van shaders. En juist in die game presteert de 8800gtx best wel brak vergeleken met een 7900GTX en X1900XTX

Bron: http://www23.tomshardware...=529&model2=538&chart=208


Ook in supreme commander (beta) zou de 8800 serie erg zwak presteren. Dan vraag ik me af of nVidia het wel goed heeft gedaan? Of dat ze gewoon snel de eerste "Directx10" kaart op de markt wouden zetten.

Edit: die scores zijn indoor en op hoge resoluties is het verschil wel goed merkbaar }:O
Lol, je pakt een 1024x768 zonder AA benchmark, is nogal CPU limited. Pak dan minimaal deze:

http://www23.tomshardware...=529&model2=538&chart=211

(en zelfs deze is zonder AA, Tom had blijkbaar geen zin om met AA te testen. Met AA wordt het verschil nog groter btw.)
Ik mag aannemen dat je de drie CrossFire opstellingn die erboven staan buiten beschouwing hebt gelaten??
Als ik naar die chart kijk moet ik me proberen aan de indruk te onttrekken dat Ome Tom vooral bezig is geweest om ATi er gunstig uit te laten komen.
Wel CF op de nieuwste ATi kaarten maar geen SLI op de nieuwste nVidea kaarten?
Verder net wat Apple zegt over de instellingen, ook dat ziet er best wat biassed uit!
Ik zeg niet dat ATi geen goede kaarten maakt maar wel dat de vergelijking van Ome Tom niet echt goed wordt gemaakt.
Ik heb een Leadtek GTS gekocht van de week en die haalt zonder problemen 640 / 1000, XFX past dus verder niks aan dan de bios en vraagt daar uiteraard wel de hoofdprijs voor.

Het schijnt wel dat de ASUS niet zo ver komt, deze blijft onder de 600 grens voor de GPU, dat is ook de reden dat ik voor de Leadtek heb gekozen ondanks de meerprijs van 7 euro.
Toen ik vorig jaar rond deze tijd de 7800GTX Extreme van XFX kocht, was die net zo duur/goedkoop als de ASUS variant.
Komt wss doordat je bij de Asus 4 spellen ofzoiets erbij krijgt , zo was het met de X1900 :)
@Dutch_Razor: Asus geeft je Ghost Recon Advanced Warfighter, GTI Racing, 3DMARK06, Driver/Tools disk mee.
Ik vond het wel mooi dat ze een license voor 3DMARK06 meeleverden.
Was het niet zo dat nVidia gezegt had, dat het niet meer toegelaten werd om opgevoerde versies te leveren?
(Om fiasco's zoals bijvoorbeeld bij de opgevoerde 7900's te voorkomen)
Het is niet omdat nvidia geen ondersteuning meer biedt dat XFX dat niet overneemt van hen.
Op dit moment heb je er waarschijnlijk niet ZOVEEL aan ( heb er zelf geen, dus kan niet spreken uit ervaring :P ). MAAR op het moment dat een gewone 8800GTX het moeilijk begint te krijgen, zou die hoger geclockte kaart toch een hoop verschil kunnen maken. Zowieso dat je de standaard 8800GTX niet meer hoeft over te clocken, aangezien dat al gebeurt is. Scheelt toch weer in de garantie, want als de kaart meteen geclocked is, hoeft dat niet meer te gebeuren en behoud je dus je garantie :9 . Ik denk dat het "ondanks dat het weer extra gaat kosten" toch best een goed idee is om een hoger geclockte kaart uit te brengen.
Een "hoop" schelen is in dit geval max. zo'n 10%. Meer winst zal er niet inzitten. Dus als je spel met een standaard 8800 GTX 20 fps doet, zal het met deze XFX 8800 GTX 22 fps worden. In mijn ogen een marginale verbetering en nauwlijks een reden om hem daarom te kopen.
Ja past erop , als je een computercase hebt die groter is dan 28cm inwendig. 28cm nodig voor de kaart dus.
Dit is toch niet bijzonder? Dit doet XFX al jaren. Ik heb nog een 6600 GT liggen die op een hogere snelheid werkt dan z'n broertjes van andere merken...
De echte tweaker oc'ed zn kaart toch gewoon zelf? Bovendien is de performance increase nog niet eens 10%. Vrij zonde om daar nou extra voor te betalen, zeker omdat je kaart oc'en tegenwoordig niet meer werk is dan een programmatje installeren en twee sliders wat naar boven bijstellen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True