Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 132 reacties, 188.713 views •

Conclusie

De HD 7790 is geen indrukwekkende kaart, zoals Nvidia's GTX Titan, maar hij maakt wel degelijk een goede indruk. De nieuw ontworpen chip is klein en zuinig. Met slechts 160mm² kan AMD de chip goedkoop aan de man brengen. De chip verbruikt ook nog eens weinig energie in verhouding tot zijn prestaties. Zo liggen de prestaties veelal dertig tot veertig procent hoger dan die van de HD 7770, maar neemt het verbruik amper toe. Zonder overklok zal de HD 7790 nog steeds een stuk sneller zijn dan de HD 7770. Ook de GTX 650 Ti moet in een aantal spellen aardig in het stof bijten.

In onze test gebruikten wij een overgeklokt exemplaar van Sapphire, met een koeler die ook van Sapphire afkomstig is. De verwachting is dat er alleen maar overgeklokte modellen met zelf ontworpen koelers zullen verschijnen. De grote vraag is wat de videokaart moet gaan kosten. De HD 7790 heeft een adviesprijs van 150 dollar, maar hoe dit zich in euro's vertaalt, is nog niet bekend. De HD 7770 kost rond de 100 euro, terwijl de HD 7850 1GB rond de 150 euro kost. Volgens AMD gaat de HD 7850 1GB-versie uit de schappen verdwijnen, maar voordat het zo ver is, mag de HD 7790 niet meer dan 130 euro kosten, evenveel als de GTX 650 Ti.

Als AMD de HD 7790 voor 130 euro weet te verkopen, heeft Nvidia mogelijk een probleem met zijn GTX 650 Ti, die in een aantal spellen ruimschoots langzamer is dan de HD 7790. Een andere mogelijkheid is de 190 euro kostende GTX 660 in prijs te verlagen, aangezien die op zijn beurt een stuk sneller is dan de HD 7790. Begin april kunnen aspirant-videokaartkopers met een niet al te groot budget in ieder geval een goede koop doen met de HD 7790.

Pluspunten:

- Veel waar voor je geld
- Zuinig
- Stille koeler

Minpunten:

- Net niet krachtig genoeg voor de allernieuwste spellen op hoogste settings

Pluspunten

  • Veel waar voor je geld
  • Zuinig
  • Stille koeler

Minpunten

  • Wellicht te lang voor compacte systemen

Eindoordeel

Tweakers zegt: uitstekend!

Sub-beoordelingen

Prijs Score: 4
Featureset Score: 4
Prestaties Score: 5
Warmte en geluid Score: 5


Reacties (132)

Reactiefilter:-11320130+178+24+30
Moderatie-faq Wijzig weergave
1 2 3 ... 6
In mijn ogen is deze test nogal slecht. Je moet ook niet van deze kaart verwachten dat je op die settings gaat spelen, daar heb je tegenwoordig wel een 7970/7950 of een 680/670 voor nodig.
Wat ik dus liever gezien had waren lagere settings. In de resolutie kan ik me nog vinden, maar toch :/ Op lagere settings kun je tenminste zien wat deze laart echt kan. Het is me eigenlijk nu nog steeds vrij onduidelijk wat deze kaart kan...
We kiezen voor de hoogste settings, omdat we videokaarten dan goed op de proef stellen. Dan kun je dezelfde benchmark over een half jaar, met een snellere kaart nog steeds gebruiken. En 1920x1080 is de meest populaire resolutie, dus daar wijken we ook niet van af.

Anders gezegd, de review is niet bedoeld om advies te geven over welk spel met welke settings speelbaar is met deze videokaarten. Dat zou onmogelijk veel werk geven. Als we ook op Medium zouden testen, dan blijven de verhoudingen gelijk.

Of een dergelijke kaart het op Medium aankan, vind je terug in onze benchmark-tests van spellen, zoals deze: reviews: Crysis 3: welke hardware heb je nodig?
Dit is te begrijpen. Wat ik niet begrijp is dat er nog geen frame-time comparisons gedaan worden. Het is best relevant want je ziet elders nog steeds, zelfs met recente driver updates, dat de verschillen groot zijn tussen bepaalde engines/games en ook tussen AMD en Nvidia. Ook is het frame time meten niet echt meer van gisteren... En ook niet echt arbeidsintensief. Een paar runs met Fraps aan en je bouwt er een grafiekje van.

Is er al een officieel standpunt van Tweakers over het al dan niet toepassen van frametime metingen? Het is toch lullig als je voor de echt interessante informatie naar de buren moet, dit doet namelijk enorm af aan het belang en de waarde van de reviews op Tweakers.

[Reactie gewijzigd door Vayra op 22 maart 2013 13:21]

Het meten van frametimes is zelfs minder arbeidsintensief. Echter ben ik nog niet helemaal verkocht wat betreft frametimes. 'Ze' doen het voorkomen alsof frametimes de heilige graal zijn, en alhoewel de redenatie mooi klinkt, zitten er ook haken en ogen aan.

Op dit moment neig ik naar het vermelden van de frametimes naast de minima/gemiddelde aantal fps. Sterker nog, de frametimes komen vrij vaak vrij goed overeen met het gemiddelde aantal fps, behalve in enkele spellen.

En je kunt niet simpelweg stellen: frametimes gemiddelden van minder dan 30 = goed speelbaar. Met het 99e percentiel mis je zelfs de punten waarop een videokaart het echt zwaar heeft. Juist wanneer de boel ontploft en je 20 man tegenkomt in Battlefield 3, wil je niet dat een frame ineens 100ms nodig heeft om gerendered te worden, want dan kun je niet mikken en ben je dood.

Door meerdere runs te doen, weet je in ieder geval zeker dat bepaalde minima vaker voorkomen en dat het dus geen uitschieter is, omdat je pc net even aan het kloten is op de achtergrond. Anyways, ik ben er wel mee bezig, maar tot een correcte implementatie is het nog niet gekomen.
Helder verhaal, en er is ook zeker wat te zeggen voor jouw bedenkingen. Had het zo nog niet bekeken.

Ik zie het zo: in zekere zin is 'minimale framerate' ook al een indicatie van de 'dipjes'. Ik denk dat frametimes meer gezien moet worden als een controlemiddel op de framerate die gemeten wordt.

Of, om de stelling in een zin te vatten: Met frame times wordt de consistentie van de performance (FPS) vastgesteld. En om die reden zijn ze relevant - NIET om onderlinge performance te meten, dat kunnen we al, maar om de gebruikservaring in te schatten.

Inderdaad is het zo dat minder 30ms niet per definitie speelbaarder is. Het gaat om de pieken die je tegenkomt en hoe groot het verschil van die piek is, met je 'baseline'. Als je constant op 16ms of lager zit en je komt opeens een 30ms tegen, dan merk je dat. Speel je op 30ms en kom je een 35ms tegen, dan zie je er niks van en speelt het per saldo 'soepeler'.

[Reactie gewijzigd door Vayra op 22 maart 2013 16:51]

frametimes lijken me ook belangrijker als je SLI / Crossfire testen doet. Of je kijkt naar de timing van de frames, en als het OK is (geen gekke regelmatige uitschieters of zo) is het wat mij betreft niet het vermelden waard. Betekent gewoon dat het OK zit.

Juist gekke situaties zoals de latency-issues die de AMD 79xx hadden in bepaalde spellen (een paar drivers terug) en de grootte van de micro-stutter in multi-gpu oplossingen is het handig om te laten zien.

Frametimes zouden wat mij betreft minder belangrijk zijn, als het niet af en toe (goed) fout gaat :).

Juist met multi-gpu schaling is het een kunst, en meestal krijg je er net wat minder average-fps door als ze de timing van de frames goed weten te verdelen. Het idee dat ze er juist niet op letten om de average frames iets te boosten en dus in benchmarks bovenop te komen staat me tegen.

Basicly, je gebruikt frametimes om te kijken of de mooie fps waardes niet met een 'maar' komen. Zo niet -> toppie, zo ja -> laten zien :).
Tweakers komt t.z.t. wel met een roundup van 6 kaartjes 7790 lijkt me, die benchmarks krijg je nog wel:)
Bij de buren testen ze op medium enzovoorts, dus daar vond ik deze review toch een tikkeltje beter.
Het enige verschil wat je dan gaat zien is geluid, wattage en welke de stilste koeler heeft. Qua performance maakt het weinig uit.
Hoe verhoudt die zich tot een ATI HD5750?
Als je door gaat berekenen. De HD5770 is 20% sneller dan de HD5750, de HD7770 is weer 20% sneller dan de HD5770. Dus als deze kaart zo'n 40% sneller is dan kan je er van uit gaan dat hij toch wel minimaal 60% sneller is. Misschien is hij zelfs sneller maar dat zou je moeten uitzoeken door naar benchmarks te gaan kijken :P.

De prestatie/watt verhouding van deze kaart is echt indrukwekkend. Als je dan nog gaat kijken naar de diesize en je ziet dat deze tussen de HD7770 en de HD7850 ligt dan verwacht je dat de prestaties ertussen liggen, maar je ziet dat de prestaties vaker naar de HD7850 kant leunen.

Dit is een hele mooie kaart voor een budget game systeem, misschien een soort van nieuwe HD6850 die destijds ook erg populair was.
60% sneller dan mijn ruim 2 jaar oude 5750 vind ik een beetje teleurstellend. Ik had verwacht dat de 7790 minimaal 2x sneller zou zijn. Ik zie voor mezelf nu geen reden om te upgraden.

[Reactie gewijzigd door tinoz op 22 maart 2013 11:52]

Je moet de percentages niet optellen, maar vermenigvuldigen.
=> 1,2 * 1,2 * 1,4 = 2,016

Ongeveer 2 keer zo snel dus als de 5750.
Ik maakte alleen maar een schatting, het zal lang niet in alle gevallen zo mooi schalen en daarom tel ik het zo op :P.

Ik zei daarom ook dat je een benchmark moet doen om de twee goed te vergelijken.
60% sneller voor ongeveer hetzelfde geld als de 5750 bij introductie (iets goedkoper zelfs) is toch gewoon netjes? Ik vind 60% in twee jaar zonder dat het product duurder is geworden een prima introductie
Aan de onderkant van de markt blijft het spul relatief langzaam. Investeer net een paar tientjes meer voor bijvoorbeeld een HD7870XT en de prestaties gaan met reuze sprongen vooruit...
De 5750 is ook en echte budgetkaart.
HD5750 doet het slechter dan een HD7750
Nette prestaties voor een nette prijs. Ben wel nieuwsgierig hoe deze in crossfire draait.
Heb twee 7850's in Crossfire gehad. Ziet er leuk uit maar geeft een hoop problemen met stabiliteit, frame-rate, ondersteuning door spellen etc. Mijn advies als je 260 euro wilt besteden een enkele 7950 te nemen. Crossfire is alleen interessant bij de high-end kaarten zoals 7970 of een GTX680 in SLi.
Ik ben het hier niet mee eens. Ik heb twee 6850's in crossfire en het werkt prima. Ik had eerst een enkele 6850 en daar haalde ik allerlei gekkigheid mee uit qua overvolten, overklokken, bios flashen etc. En met CrossFire doe ik precies hetzelfde maar dan met dubbele framerates en zonder een enkel probleem. 100% stabiel, 25% overklok, 85% meer performance en 75% van de games ondersteunt CrossFire.
Ik heb momenteel ook hd7850 CF in mijn pc. Ik speel toch redelijk wat verschillende games en kwam enkel probleem tegen bij far cry 3. Voor een veel lagere prijs is mijn performance te vergelijken met een GTX680.
Ben het toch niet echt met je eens. Ik draai zelf 2x GTX 660 zonder enige problemen. Dwz ik ben nog geen game tegengekomen die geen SLI ondersteunt, en waar het gebrekkig was kon ik dat oplossen met vijf minuten tweaken of een driver update. Waar het niet mogelijk was (en dat gaat dan dus over 'echt' oude games, waarvoor een tweede gpu sowieso niets meer toevoegt) ga je gewoon single gpu.

Verder heb ik van microstutter vrijwel geen last. Onlangs weer eens geprobeerd op single card Far Cry 3 te spelen en het verschil in 'smoothness' is zo goed als nihil; beide oplossingen geven hele stabiele fps. Sinds kort laat PrecisionX ook de 'ms' frametimes zien, waar mijn ervaring wordt bevestigd :)

De andere kant van het verhaal is namelijk dat ik met mijn 2x GTX 660 al boven het prestatieniveau van een GTX 680 zit, voor aanzienlijk minder geld. De scaling is erg goed, in de meeste games 85 tot 95%. Far Cry 3 met alles open loopt tegen de 86 fps met dipjes naar 57 fps.

Let wel, er zijn verschillen tussen CF en SLI, CF ken ik minder goed, maar tot zover heb ik over SLI geen reden om te klagen.

[Reactie gewijzigd door Vayra op 22 maart 2013 13:11]

Tomshardware heeft de kaart in CF getest, lees het artikel en trek zelf je conclusie over deze kaart in CF. Ik blijf van mening dat je, wat deze kaart betreft, beter af bent met een enkele 7950 dan een CF 7790. (Tom denkt er hetzelfde over btw) of je moet alleen BF3 spelen.

De ervaringen met SLi zijn voor zover ik weet positiever dan die van CF, maar daar heb ik geen ervaring mee. Een SLI Titan set-up zal best lekker werken ;-)
Ik vraag me af waarom op tweakers altijd benchmarks worden gedaan met te hoge settings...

Het is leuk dat ik nu weet dat de 7790 32 fps haalt op ultra settings in BF3. maar ik weet met deze benchmark nog steeds niet of hij fatsoenlijk te draaien is.

Het is in mijn ogen daarom ook van belang dat dergelijke benchmarks 2 keer worden uitgevoerd. waarbij ook low settings worden getest. BF3 spelen op 32 FPS online is namelijk onspeelbaar.

Daarnaast heeft het spel een slechte AA functie waardoor het beeld niet scherper maar juist blurry wordt bij hoge settings.

Misschien is het zelfs nog beter om de settings van een bepaalde game weer te geven waarmee je minimale FPS van 60 hebt. zo kun je dus zien hoe hoog je met die kaart die game kan draaien.

Ik heb nog geen enkele review site gezien die het op die manier doet. erg jammer.
Dan zou ik wel wachten op een 2GB variant ;)
In Crossfire heb je toch juist genoeg aan de 1GB versie omdat de load verdeeld wordt? Of denk ik nu helemaal verkeerd?
Bij crossfire hebben de kaarten beide individueel netzoveel RAM en aangezien ook beide kaarten de hele scene moeten renderen, hebben ze ook net zoveel nodig als bij single card.

Het enige wat crossfire doet, is zorgen dat de kaarten om en om de frames renderen, zodat terwijl de ene kaart nog bezig is de frame te berekenen, de andere kaart al de eerdere frame kan leveren aan het beeldscherm.
Heel kort uitgelegd heb je gelijk maar crossfire kan op meerdere manieren werken.
De manier die jij noemt heet AFR(Alternate Frame Rendering).
Het grote nadeel hiervan dat je in sommige games last hebt van micro stuttering .

Zo worden ook nog Scissors en Checker board gebruikt door amd gpu's.
Het maakt in geen geval uit welk vorm van crossfire (en zelfs SLI) je gebruikt aangezien beide videokaarten het geheugen met elkaar synchroniseren.

Dit wil dus zeggen dat je met twee keer een 2GB kaart maar 2GB videogeheugen hebt en dus geen 4GB.
In hetzelfde geval heb je dus met één 2GB en één 1GB kaart maar 1GB videogeheugen beschikbaar en niet 3GB
Ik ben erg benieuwd hoe deze kaart zich in crossfire zou verhouden tot een 7970 of een GTX680. Afgaan op de benchmarks van deze single test, zou een crossfire setup behoorlijk dicht in buurt moeten komen. En dat voor een behoorlijke klap minder geld!
zullen ze wel 2GB versies moeten maken
anders heb je er nog niks aan de meeste high end games van nu hebben minimaal 2GB vram nodig om op 1080P te kunnen gamen.

en bij CF kun je VRAM niet bij elkaar optellen omdat het ge mirrored word
zoals hierboven al stond vermeld, het idee dat 2gb persee nodig is voor 1080p is onzin, of je moet aan 8xmsaa of zo zitten te denken (maar dan wil je toch andere hardware).

Een 6950 1GB zet bijvoorbeeld dezelfde bench resultaten neer bij BF3 als de 6950 2GB. Dus daar lijkt geen bottleneck te zitten.

Dan zal je ook wel met twee kaartjes van 1GB kunnen spelen hoor. Doe het nu met mijn 2x gtx560-ti en draait lekker.


Maar @ mcsluis: denk er wel aan dat je altijd iets van micro-stuttering hebt. Kort door de bocht: 1 kaart speelt _en voelt_ als 30fps, twee kaarten in crossfire levert een gemiddelde van 50fps, maar grote kans dat het nog steeds voelt als 30. Voornamelijk in multiplayer games is dat een ramp.

Koop een kaartje van 220 a 280 euro (2x 7790), en je krijgt 40 a 50 fps, maar het voelt ook als 40 a 50 fps.
@dipje
het is geen onzin heb zelf ook een GTX460 gehad in sli en heb ook ervaring gehad met de GTX560ti in sli

en die komen gewoon tekort voor ultra presets in 1080P zeker bij games zoals BF3

de constante FPS drops zijn zeer irritant en er was maar 1 reden VRAM tekort (zoek het maar op EVGA official forums daar hebben ze er genoeg ervaring mee)
want wat betreft gpu kracht zijn ze sterk genoeg in sli

de HD6950 is geen goed voorbeeld een GTX560 ti in SLI is krachtiger dan 1 HD6950
de GTX560 ti in sli is zelfs krachtiger dan een HD6970 en een GTX580

dus ik weet niet waar jij je verhalen op baseert.

[Reactie gewijzigd door firest0rm op 22 maart 2013 16:22]

dus als een willekeurige GPU met 1gb op 1080p @ ultra geen bottleneck heeft (dezelfde fps als de 2gb versie) zouden twee gpu's met 1gb in sli met dezelfde settings wel een bottleneck op de hoeveelheid ram hebben? Nee, dat snap ik niet :)
er is een verschil tussen Ultra MET Filters en Ultra ZONDER filters

het een ziet er mooi uit het ander minder

deze filters hebben erg veel invloed op VRAM gebruik
als je deze uit hebt staan dan maakt het vrij weinig uit hoeveel vram je nodig hebt om de game op ultra te spelen, immers Ultra detail is iets anders dan Ultra filters

het zijn dus 2 verschillende dingen en ieder hebben zo impact op een andere component van de videokaart

laat je daar niet mee verwarren

er zijn dus 2 mogelijkheden OF ze hebben de 2GB editie kaarten van de HD7790 in CF gedaan OF ze hebben de filters omlaag gegooid

maar het is en blijft een feit dat FILTERS in BF3 op ULTRA settings NIET genoeg hebben aan 1GB VRAM

en laat het nou net zijn de standaard ULTRA PRESET van BF3 ook de Filters mee omhoog gooit.

https://forums.geforce.co...60ti-sli-especially-bf3-/
kleine quote
Problem is mainly video memory of your graphic cards, 1GB only is not enough for ULTRA.
ook hier hebben ze het over extra VRAM
http://www.mmo-champion.c...i-vs-GTX-580-%28Single%29

[Reactie gewijzigd door firest0rm op 22 maart 2013 20:11]

De kunst is om net binnen die 1024MB te blijven. Daar heb je programma's voor zoals MSI Afterburner en EVGA Precision tool.

Vaak is het al voldoende om de texture kwaliteit op high te zetten ipv highest.
Dat scheelt vaak al honderden MB's (vaak omdat dan texture compressie wordt toegepast). En MSAA hebben we tegenwoordig ook 'aanvaardbare' alternatieven voor zoals SMAA en FXAA.

Crysis 3 draait hier bijvoorbeeld met 60fps op 'high' met twee HD5850's met elk 1GB. Dan hoor je mij niet klagen hoor... ;)

Kijk in de review zegt men al dat de HD7790 niet krachtig genoeg is voor de hoogste instellingen. Dat komt niet door het te kort aan videogeheugen maar vooral door pure rekenkracht. Als je niet maximum settings draait dan is 1GB videogeheugen zonder meer prima. Misschien dat 2GB in de toekomst wat comfortabeler is maar een echte strepentrekker zal het nooit worden. :Y)

[Reactie gewijzigd door db87 op 23 maart 2013 01:48]

tjah maar dan ben je ook niet juist aan het benchen

je hoort het spel te draaien zoals de developers het bedoeld hebben
msaa is in did geval gebruikt

zo kunnen we allemaal wel zeggen dat we de game op ultra hebben draaien terwijl de resolutie op 800x600 staat


die presets staan daar voor een reden :/
Ik heb meerdere generaties (4870, 4890, 6850) in CF gedraaid en nooit microstuttering ervaren. Ik heb hier op tweakers ook een aantal reviews (Met CF) geschreven met benchmarks. Jou opmerkingen (zonder benchmarks, en ongefundeerd) kan ik dan ook niet beamen.

Tegenwoordig draai ik een single card (GTX 670OC) omdat dit wat zuiniger is en makkelijker met driverondersteuning.

Dat neemt niet weg dat ik nog steeds benieuwd ben naar een CF test van deze nieuwe kaart.
Mwah, dat merk ik anders niet, ik zit hier nog met een 1GB 560Ti en ik kan vaak gewoon nog hoge instellingen draaien met 2 tot 4x AA.

Ja, het even passen en meten, even GPU-Z draaien en kijken wat er gebeurt bij de gekozen instellingen, maar ik heb alle toch een hoop nieuwe spellen gewoon uit kunnen spelen met m'n 1GB kaartje hoor.
Nee, dit is geen goede CF kaart, met 1GB geheugen en andere beperkingen loop je tegen grenzen aan als je CF echt wil gaan benutten (hoge settings dus).
ik vraag me af hoe het zit met frametimes met deze kaart/drivers t.o.v. de concurrentie. Ik heb de discussies daarover wat op afstand gevolgd en krijg het gevoel dat nVidia gemiddeld genomen net wat minder steekjes laat vallen op drivergebied in de zin dat een spel toch vloeiender kan zijn ondanks lagere fps. Daar draait het uiteindelijk toch om met deze vergelijkingen :)

Misschien is het goed om weer de discussie op het forum aan te zwengelen over hoe videokaarten getest worden?
Als je daar benieuwd naar bent, de buren hebben dat wel getest ;)
vroeg ik me ook af ja. Ik zat te kijken naar 78xx serie kaarten, totdat ik de metingen las over frame-latency problemen in de drivers. Ze (AMD) hebben ondertussen wel wat opgelost, maar het is maar voor bepaalde games en voor bepaalde 78xx / 79xx kaarten geloof ik.

Het zijn toch kleine dingetjes die je niet in min/avg/max fps grafiekjes kan zien maar wat toch echt een betere ervaring geeft. Ik begin met dit soort dingetjes toch langzaam mijn ATI-'fanboy'-gedachten te verliezen.

edit:

Heb het artikel van de buurtjes even door gescanned, want ik was op zoek naar de frametimes / frame-latency. Die lijkt gewoon OK te zijn. Als ik kijk naar de grafiekjes van A-Creed 3 en BF3:

Geen grote fluctuaties tussen de 10ms en de 20ms de hele tijd (zoals de 7950 had), maar een behoorlijk consistente 14ms de hele tijd. Dus speelt netjes soepel.

[Reactie gewijzigd door dipje2 op 22 maart 2013 12:43]

Lijkt mij een leuke kaart voor niet al te veel geld. Ik snap alleen het minpunt niet, je kan van een kaart als deze toch ook niet verwachten dat deze de nieuwste spellen op de hoogste settings draait? Wat zou dan nog het nut van de duurdere kaarten zijn? Of ligt dat aan mij?
Deze kaart is een typisch geval van "so close yet so far". De performance is er zeker, maar zoals je zie in de review haal je het gewoon niet om de hoogst mogelijke instellingen te gebruiken.
Je moet dus zelf schipperen en proberen een goede trade-off tussen snelheid en kwaliteit te maken.

Maar het gaat hier wel om een nieuwe generatie GPU. Een nieuwe budget chip die telkens net niet goed genoeg is om wat hogere instellingen vloeiende weer te geven. Dit is denk ik alles wat ze met het minpunt kunnen opmerken. Als dit ontbreekt dan zou je bijna denken dat het een perfecte gaming kaart is. Maar dat is het niet, het is een budget aanbod. Een zeer sterk budget kaartje, maar aan de andere kant, voor 1/4e meerprijs heb je een "echte" mainstream gamekaart.

Tja, waarom een boodschappen auto-tje als je ook exotische sport wagens kunt kopen? De ene doet 140 km/u max, de andere 270. Maar de limiet op onze snelweg is 130, tja. Maar het blijft een "minpunt'.
@djunicron:

Jij verwacht serieus een echte High-end kaart voor 125 euro en noemt het vervolgens een minpunt dat deze kaart niet alles op de hoogste settings kan draaien voor die 125 euro ?

Volgens mij begrijp je het hele concept van deze kaart dan niet:

"Meer dan goed genoeg voor heel weinig geld" ("bang for the buck").
Waar ik eigenlijk erg benieuwd naar ben is hoe deze kaart overclockt. Ik heb de 7850 en dat is een overclock monster. (van 860 naar 1200mhz 40%!!!)

Dit soort zuinige kaartjes willen vaak wel aartig lopen als je ze kietelt.
http://www.overclockers.c...u-ii-graphics-card-review

Leuke kaartje kan alleen de voltage nog niet verhogen met de meeste kaarten.
en ze gaan maar tot 1200mhz 1500mhz omdat dat de max is in ccc

Al kan je met de Asus dc II met gpu tweak zonder voltage verhoging tot 1250mhz 1700mhz
Ben wel benieuwt wat die doet met voltage verhoging

zie link

[Reactie gewijzigd door p-schoemaker80 op 22 maart 2013 10:08]

Nvidea is op dit moment bezig met de GTX 650 Ti Boost. Dit wordt de rechtstreekse concurrent van de HD 7790. Denk dat er verder niks zal veranderen in de videokaartland. Alleen de prijzen zullen natuurlijk zakken.

AMD heeft weer een erg goed kaartje voor een zachte prijs. Als het ze lukt om deze rond de 120 euro te laten kosten, hebben ze redelijk goud in handen voor het budgetgaming gebied.
Als de GTX650 Ti Boost het gat moet opvullen tussen de GTX 650Ti en de GTX 660, en komt met een 192 bit bus, kan je er donder op zeggen dat die sneller gaat zijn dan de HD 7790 en de GTX650 Ti. Ik denk dat het de tegenhanger gaat worden van de HD 7850.
Erg interessant kaartje voor die verwachte prijs. Speel amper spelletjes en heb daarom onlangs bij de vervanging van mn pc mijn oude 4000-serie kaart laten zitten. Dit zou nog wel een aardig vervanger zijn.
Alleen al voor het stroomverbruik zou je moeten upgraden. De 4000 serie gebruikt zo 60W terwijl die niets doet. Deze zit rond de 10W.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True