Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

Een Chinese site claimt de Nvidia GeForce GTX 465 in handen te hebben en heeft specificaties en benchmarks van de high-end kaart gepubliceerd. De GTX 465 zou over dezelfde gpu als de GTX 470 en 480 beschikken.

De site eNet heeft afbeeldingen geplaatst van een gpu met als typenummer GF100-030-A3, die de gpu van de  GeForce GTX 465 zou zijn. Ook de GTX 470 en GTX 480 hebben de op 40nm geproduceerde GF100 aan boord. De GF100 van de GeForce GTX 465 zou echter 352 cuda-cores, 1GB gddr5 en een geheugeninterface van 256bit hebben, terwijl bijvoorbeeld die van de GTX 470 448 cores, 1,25GB en een 320bit-interface heeft. De kloksnelheden van de GTX 465 voor de gpu en shaders zouden respectievelijk 607MHz en 1215MHz zijn, en dat zijn dezelfde snelheden als bij de GTX 470. Het gddr5-geheugen zou echter effectief op 3206MHz lopen, terwijl dat van de GTX 470 effectief op 3348MHz loopt.

De Chinese site heeft een beperkt aantal benchmarks gedraaid en deze laten een gemengd beeld zien. Bij FarCry 2 is de GTX 465 iets sneller dan de Radeon HD 5870, maar bij Crysis Warhead presteert de Nvidia-kaart zelfs aanzienlijk slechter dan de HD 5830. In de Heaven-benchmark van Unigine zet de komende kaart volgens eNet scores neer die tussen die van de HD 5850 en de HD 5870 liggen. Overigens heeft eNet de pagina weer offline gehaald, maar Tech Report wist de informatie daarvoor nog te bekijken.

Nvidia zou de kaart op 2 juni op de komende Computex-beurs introduceren. Het was al bekend dat Nvidia met een GTX 460-kaart zou komen; volgens eNet krijgt deze kaart de minder krachtige afgeleide van de GF100, namelijk de GF104. Eerder deze week dook deze kaart volgens Fudzilla echter bij onder andere de webwinkels Salland en MaxICT op voor prijzen van rond de 300 euro. Gekeken naar de specificaties zou de prijs van de GTX 465 nog hoger moeten liggen, maar dit lijkt onwaarschijnlijk.

GeForce GeForce GTX465 GeForce GeForce GTX465 GeForce GeForce GTX465 GeForce GeForce GTX465
Moderatie-faq Wijzig weergave

Reacties (57)

Ik hoop dat deze kaarten stiller zijn. En een lagere prijs zou ook wel leuk zijn.
Maar is dit helemaal de zelfde kaart maar dan met nog meer uitgeschakelde cores?
Dat zou dan best wel raar zijn.
Denk eerder dat het mislukte GTX470/480 GPU's zijn, waarvan de chip niet 100% perfect werkt.
Ik denk dat de GTX 460 en GTX 465 een en dezelfde kaart zijn. Want zoals de laatste zin van dit artikel stelt, het zou wel heel raar zijn als die GTX 465 meer dan €300,- zou kosten.
Nee, waarschijnlijk zijn het twee aparte kaarten. De GTX465 is gebaseerd op fermi's die niet volledig werken, en de GTX460 komt later en is gebaseerd op een nieuwere, kleinere GPU.
Deze kaarten dreigen dus ook weer te duur te worden vergeleken met het antwoord van Ati.
Moeten we nu medelijden hebben met nvidia? Ik denk het niet. In de vorige generaties videokaarten heeft nvidia het steeds beter gedaan als ati, en nu heeft ati een keer het beste ontwerp te pakken. Nvidia doet er volgens mij het beste aan deze generatie kaarten zo snel mogelijk te vergeten en te werken aan een nieuw ontwerp dat ati weer kan verslaan.
Al denk ik dat dat wel best moeilijk kan worden met de HD6xxx-serie op komst...
Nvidia dat dit jaar toch niet serieus gemaakt, of haal ik nu wat dingen door elkaar heen?
Nagoed, als deze kaart minder dan 300 kost en tussen een 5850 en en 5870 zit is dat nog wel vrij netjes vind ik. Voor een 5870 moet je toch 370 euro betalen wil je hem snel in huis hebben.
En wie weet, kun je nog wel cores unlocken of dergelijk ^^ .
Want het zijn volgens mij afgedankte/mislukte GF100 processors.
Eerst zien dan geloven, wil nog wat meer benchmarks zien!
Maar goed, lijkt me sterk dat deze tussen de HD5850 en de HD5870 in zit want dat zit de GTX470 al. Als je aanneemt dat de GTX465 toch weer een stukje minder is dan de GTX470 zal die wel tussen de HD5830 en HD5850 in liggen.

Maar inderdaad, eerst zien, dan geloven, ben ik met je eens. :) dit soort "uitgelekte benches" klopt meestal geen zak van.
Da's leuk, net als met de 6800 series kon je de LE versie (goedkoopste) de shader en vertex pipelines openknallen, en dan had je de 6800 Ultra (duurste) :P
Het klopt je kon dan all 16 open makken, maar dan kreeg je geen Geforce 6800 Ultra.

Want de Geforce 6800LE en Geforce 6800NU hebben GDDR2 en de Geforce 6800GT en Ultra heeft GDDR3, en daar door is de Geforce 6800GT en Ultra een stuk sneller.

Ik had een Geforce 6800NU en kon alle 16 open zetten, maar dan zelfs was hij nog een stuk langzamer dan de Geforce 6800GT en Ultra, en dat kwam door dat hij geen GDDR3 had.


Alleen was heet vaak dat de Geforce 6800LE vaak het niet kon alle 16 open zetten, want de Geforce 6800LE had er 8 open van de 16, en had je vaak dat er kapotte tussen zat, en daarom had ik hem om geruild voor de Geforce 6800NU die standaard 12 open had, en dan had je meer kans dat het goed lukte.

[Reactie gewijzigd door AmigaWolf op 15 mei 2010 21:33]

Klopt ja, de LE had vaak beschadigde pipelines. Hoewel het wel het geld waard was om een LE te kopen.
Niet helemaal mee eens, de 6800GT was ook voor een redelijk zacht prijsje op te kop te tikken (meen me te herrineren 150 voor de gt en 100 voor de LE).
Waarom is dat raar? Ze moeten toch van die chips af. Als je ze kan verkopen, verdien je er meer aan dan dat je ze weggooit.
Alles dat minder presteert dan een HD5870 is bij deze voor een gamer al afgeschreven naar mijn mening...Als je ziet dat de HD5870 bij mij al Bf Bad Company 2 met pijn en moeite draait op de hoogste settings. Dan wordt het nu echt al tijd voor een stapje hoger op grafisch gebied
je moet ook niet alleen je VGA upgraden. zolang je nog een pentium 4 gebruikt als processor zal geen enkele game het goed doen.

ik bedoel te zeggen dat bfbc2 heel erg processor intensief is. (duo/quad core is zowat vereist)

alleen een uber vga is niet genoeg zorg eerst maar dat je de rest ook op orde hebt
Nou ik weet niet, maar BFBC2 is een van de weinige games die nog meer FPS geeft als ik m'n i920 van de 24/7 3,15Ghz naar 4,04Ghz zet. (ofwel: 150BClock 1:10 mem, naar 193, 1:8 mem, +0.125V).

Ik heb geen FRAPS gedraaid, maar het is wel het verschil tussen 4xAA op 1680x1050 naar 8xAA 1680x1050 en toch vrijwel gelijk blijvende performance, zo niet soepeler. Alleen spijtig dat ik niet meer VGA heb om er meer uit te persen en dat m'n CPU zo vreselijk heet wordt daarvan.

Maar games die een dergelijk verschil geven, hebben volgens mij aan een i980 op 3,6 nog niet genoeg, en zijn dus eigenlijk gewoon niet zo lekker geprogrammeerd.

Of je er nou 3x 480 of 465 in gaat hangen, maakt dus niet uit...
Dan weet ik niet in wat voor systeem jij die HD5870 hebt hangen, want mijn GTX285 draait BFBC2 toch echt vlekkeloos met alles op de hoogste settings en op 1920x1200.
in een Core i7 860 op 3,0 Ghz systeem, met een Intel X25-M en 8 GB 1333 Mhz DDR3 geheugen. Op bijna hoogste settings heb ik toch wel behoorlijke framedrops hoor op sommige momenten. FPS komt geregeld onder de 30, en alles onder 60 vind ik eigelijk al slecht. En dat is @ 1680 x 1050, nog niet eens 1920x1200...

[Reactie gewijzigd door SuX DeLuXe op 14 mei 2010 15:28]

Mja, dat beetje resolutie verschil zal het hem niet zo heel erg doen, maar een 58x0 trekt 1680x1050 wel prima met 4xAA, alleen inderdaad zo nu en dan framedrops in BFBC2. Ik vraag me af waar het aan ligt, ik denk namelijk niet dat het door hardware komt.
(bij mij op een i920, 6GB 1500, Vertex SSD en een 5850).

Eerder Punkbuster die wel erg vaak wil kijken of er updates zijn en andere inspectie zaken van servers, een beetje strenge firewall geeft tientallen meldingen op dat spel.

Ik vind die 465 eindelijk een leukere prijs, maar is dit niet dodelijk voor de 470? Of geeft dit niet aan dat ze zelf ook niet tevreden zijn, als ze nu al een vrijwel identieke refresh uitbrengen tegen een lagere introductieprijs?

Wat een rommeltje maakt NV ervan. ATI is ook niet alles, maar ik ben blij dat ik een tijd geleden die 5850 heb opgepikt.
En je hebt dan wel de nieuwste drivers? :+

Zelf heb ik met de 5850 gespeeld en is vergeleken met mijn 8800 gtx toch echt wel 2 tot 3 keer zo snel :P (kan beetje overdreven zijn)

Wat ik wel jammer vind is dat ze bij nvidia de clocksnelheden amper verhogen, inplaats daarvan zetten ze er gewoon het dubbele aantal shaders in..
Is het echt al zo erg?

Ik heb videokaarten niet echt bijgehouden omdat ik nauwelijks nog spelletjes speel, maar ik herinner met nog dat ik vorig jaar erg onder de indruk was van wat m'n 4890 op het scherm toverde.

Naar mijn idee zijn games helemaal niet zoveel mooier geworden dat het gerechtvaardigd is dat ze zo gigantisch veel meer van de GPU vragen. Zo'n 5870 is toch bij wijze van spreken dubbel zo snel als mijn 4890 en games zien er nauwelijks (wel wat) beter uit dan een jaar geleden maar hebben wel zoveel meer GPU kracht nodig? Geen wonder dat consoles zo'n succes zijn!
vreemd, want mijn computer met een schamele 5770 draai BC2 ook 100% max.. nergens last van..

denk eerder dat jou compie dan iets niet goed doet.
Zou wel een verschil in perceptie zijn. De ene vind goed spelen pas beginnen bij 120fps, den ander vind alles best op 30fps.
120fps slaat sowieso nergens op tenzij je scherm ook echt zwaar boven de 100hz zit.
En een GTX285 draait BFBC2 niet op de hoogste settings aangezien het spel DX11 is en de GTX285 maar tot DirectX 10 gaat.
Daarnaast slaat het nog nergens op aangezien het het oog maar maximaal 60 fps kan waarnemen.

Over de benchmarks, even wachten op wat meer sites die benchmarks hebben :)

[Reactie gewijzigd door Dakreal op 14 mei 2010 17:10]

Ogen zien niet in fps en het ligt maar net aan de kleur van het licht, type effect e.d. hoe kort een flits mag zijn voor waarneming bv.
Een witte flits van 5 ms valt je op, je zou 200 fps moeten hebben om zo'n 5 ms flits met een scherm te doen.

Sommige andere kleuren 30 ms en meer enz.

Daarbij vergeet iedereen altijd even de basis waarop vloeiend bewegende beelden gebasseerd zijn, niet op zoveel mogelijk fps, zelfs 24 is vloeiend MITS de motionblur klopt. Daar kijkt je visuele cortex naar.

Met filmbeelden is dit relatief makkelijk omdat de camera dezelfde motion blur ondervind als je oog als het kijkt naar de wereld. Special effects en computer graphics zijn problematischer omdat je daar de juiste motion blur moet faken, dit wil nog wel eens rampzalig zijn in games imho waardoor ik in de helft van de games motion blur uit zet, erger met dan zonder motion blur als het niet klopt.

Als de motion blur helemaal klopt ben je overtuigd van vloeiend beeld vanaf 24 fps,
is er geen motion blur of klopt de motion blur niet heb je een stuk meer nodig, daarom merk je bij oudere games ook nog veel meer het verschil tussen 30 en 60 fps. geen motion blur.

Je oog kan meer dan de grens waarbij het voor de gek gehouden kan worden dat iets beweegt dit gaat alleen over 1 truc wat je met je oog kan uithalen 24 + frames per seconde laten zien die motion blur bevatten.

Grappig feit: een 1 ms flits zie je niet bewust maar je krijgt er wel een gevoel van dat er iets is/was. Je oog ziet het wel maar het is te kort om een beeld te vormen, de enige informatie die je brein krijgt van het gezichtscentrum is "er was iets".

Edit
Heb nog naar bronnen gezocht, ik had het oorspronkelijk uit een onderzoen in nature en onderzoeken gedaan door de amerikaanse luchtmacht.
Dit is wat wiki er nog over kwijt wil:

"The human visual system does not see in terms of frames; it works with a continuous flow of light/information.[citation needed] A related question is, “how many frames per second are needed for an observer to not see artifacts?” However, this question too does not have a single straightforward answer. If the image is switching between black and white each frame, then this image will appear to flicker when the pattern is shown at rates slower than 30 frames per second. In other words, the flicker-fusion point, where the eyes see gray instead of flickering tends to be around 60 Hz. However, for fast moving objects, frame rates may need to be even higher to avoid judder (non-smooth motion) artifacts." - bron: http://en.wikipedia.org/wiki/Frame_rate

[Reactie gewijzigd door Innsewerants op 16 mei 2010 12:09]

kun je even linken waar je vandaan haalt dat het oog maar 60 fps kan waarnemen ???...., anders is het gewoon bullshit.
Zonder link is het helemaal niet gewoon bullshit, het is enkel onbewezen, en dat zijn wat mij betreft de meeste claims over het oog en een bepaald FPS. Er zit veel meer aan vast dan enkel de frames per second, aan wat je waar kan nemen.

Feit is gewoon dat een niet heel erg veeleisende of ervaren gamer bij boven de 30 FPS een game als redelijk flu´de ervaart. Volgens de cinemamakers ligt de grens bij 24 FPS, maar gamers zetten die grens hoger.

60 FPS zou trouwens best veel zijn. Wat mij betreft als je het presteert te gaan klagen over 60 FPS zit je onder een zwaar placebo effect.
Films en game mag je niet vergelijken. Met een film heb je standaard al de nodige blur om de boel vloeiend te doen lijken. Zet maar eens een DVD op pause, je hebt gewoon geen scherp beeld. In games zou je dan echter 24 haarscherpe beelden hebben, waardoor alles er juist heel houterig uitziet. Wat dat betreft hebben games meer weg van een tekenfilm, omdat die dus hetzelfde werken.

30 FPS is redelijk vloeiend, maar als je het verschil met een stakke 60 niet merkt prijs je dan maar gezegend, want vele gamers vallen er wel over. Boven de 60, ik weet het niet, maar het lijkt mij dat je op een LCD scherm gewoon ruim boven de 60 wilt zitten om het te kunnen synchroniseren met de monitor (vSync).
Misschien heeft het ook te maken met het feit dat films een stabiele 24 frames per seconde genereert. Terwijl een game een onstabiele framerate heett; afhankelijk van wat op dat moment op het scherm gebeurd. Hierdoor heb je een wat hogere framrate nodig om de game ten alle tijde stabiel te laten lijken.
geen placebo effect hier , ik merk het wel als een game op 60 fps draait of op 120.

60 is inderdaad vloeiend genoeg (ligt ook aan de game, en het soort monitor waar je op speelt.)

Dus todat ik een wetenschappelijk ondezoek zie dat claimt dat 60 fps de grens is vind ik het gewoon een mythe gezien mijn eigen ervaring.

Edit: http://en.wikipedia.org/w..._can_the_human_eye_see.3F

Maar maakt ook niet uit het is allmaal oftopic :)

[Reactie gewijzigd door laurens91 op 14 mei 2010 22:07]

Klopt, best possible gameplay is vanaf 60+fps,meer is gewoon overbodige luxe.
het is op zich ook algemeen bekend dat het ook boven de 60 fps eigenlijk overbodig is, ik houd het meestal op 40 fps om ook in fp shooters goede fps te kunnen draaien.
Het is echter alleen bij fast paced games nodig om echt boven de 40 fps te draaien, een rts kan je op 25 fps ook prima spelen.
Het gaat vooral om de ondergrens waar je last van hebt, een lagspike op de drukke en daarom ook vaak kritieke momenten verkloot het spel ook aanzienlijk.
tuurlijk, meer fps is altijd soepeler...
maar dvdrips en dergelijke draaien naar mijn weten op 24 fps...zie jij haperingen?
daarom wordt als ondergrens vaak 30fps aangegeven, daarboven zie jij het verschil niet meer of je nou 31 fps hebt of 120...
Er zijn engines waarbij je bepaalde sprongen alleen met 125 fps kunt doen (bijv quake engine). Verder wil je als fanatieke speler wat hoger dan 60 fps gemiddeld uitkomen zodat je minimum fps niet onder de 60 valt.

[Reactie gewijzigd door sdk1985 op 16 mei 2010 20:07]

Dan zou ik je settup toch eens goed onder de loep nemen. Ik draai ook alles Full (@1920*1200) op een 4890 en zit rond de 50 frames stabiel!
Je zit dan ook niet in dx11 te spelen maar dx10.1... Dat maakt nogal een verschil. :)
nouja ik heb een gtx 285 en die draait battlefield met gemak op high
Ben benieuwd of hij sneller wordt dan de GTX285, dat lukte in sommige gevallen zelfs de 470 niet eens.

300 Euro is te duur voor een mainstream kaart, die tevens "vierdubbel gecastreerd" is (SP, mem, bus, clocksnelheid). Deze moet ook echt stiller en kouder zijn dan zijn voorgangers. Over het algemeen lijkt de 5850 een veel betere keuze.
vooral ook omdat de hd5850 ongeveer = gtx470 al is
Even heel kort door de bocht dan:

Hoe veel moet je verkeerd doen om een GPU met 352 shaders en GDDR5 slechter te doen zijn dan een 240 shader GDDR3 CPU.

Als het echt een achteruitgang op DX10 gebied zou zijn dan doen ze daar echt op game gebied iets heeeeeel erg verkeerd. Op DX11 niet mee kunnen komen met een 5850 is al erg genoeg. Nee als dit zo is dan heeft NV de gamers inderdaad links laten liggen toen dit ding bedacht werd en is het echt een Tesla design voor industrieel gebruik.
ja voor gemiddeld 30 euro meer heb je een 470, alhoewel de 470 vast een 'dikke' voeding vereist.
Tja wat is een dikke voeding, 500WATT is voor een GTX470 voldoende.
Voor een Geforce GTX 470 heb je Min een 550 Watt Voeding nodig, en voor een
Geforce GTX 480 heb je Min een 600 Watt Voeding nodig.


http://www.guru3d.com/article/geforce-gtx-470-480-review/13

En ja dat is heel veel voor 1 Grafische kaart .

Want 1 Geforce GTX 470 gebruikt bij GPU full load 215W, en de Geforce GTX 480 gebruikt bij GPU full load 250W :'(


Want de Ati HD5850 verbruikt 170W in Full load en de Ati HD5870 verbruikt 188W Watt in Full load, en dat is een STUK minder.

http://www.guru3d.com/article/radeon-hd-5870-crossfirex-test-review/5

[Reactie gewijzigd door AmigaWolf op 15 mei 2010 20:38]

Ik denk dat de prijzen redelijk snel zullen gaan dalen. In een vorig nieuwsbericht vermeldde nVidia dat ze al een aantal 100.000 WERKBARE fermi's hebben weten te produceren, dus de pricewar's on!!

ontopic: ik ben blij dat er ietsje goedkopere grafische kaarten komen van nVidia, hiermee kunnen ze weer een verloren stuk marktaandeel veroveren! Ik ben sterk aan het overwegen om deze te halen in SLI, met als concurrent de 5850 als ie weer daalt naar NORMALE prijs en de 5970 als me voeding het trekt xD
Ik denk dat de prijzen redelijk snel zullen gaan dalen. In een vorig nieuwsbericht vermeldde nVidia dat ze al een aantal 100.000 WERKBARE fermi's hebben weten te produceren, dus de pricewar's on!!
Het zou natuurlijk heel mooi zijn als ze inderdaad 100.000 goed gebakken Fermi's hebben gemaakt. Maar zoals je zelf al aangeeft gaat het over Werkbare Fermi's en dat kan alles betekenen; van fermi's die volledig goed werken tot fermi's die net voldoende kracht hebben om in een rekenmachine gestopt te kunnen worden.
Nee die 100.000 werkbare fermi's betekend helemaal niets totdat een ander objectief bedrijf de woorden van nVidia bevestigt.
Wat een flut test. Zo kan ik een kaart ook wel in een goed dachtlicht zetten.

FC2 en Heaven zijn twee dingen die extreem veel sneller draaien op de GTX4xx kaarten. In bijna alle andere apps zijn de verschillen veel en veel kleiner. Kortom in normale games verliest hij het van de HD5850 en zit hij dichter op de HD5830.

Een bagger kaart dus net als de HD5830 totaal niet interessant.
Er is gewoon te veel gechopt in de chip om hem nog interessant te laten zijn idd, en als het voltage hoger moet zoals ook bij de 5830 is het idd een kat in de zak kopen, de chip was al onzuinig en dat zal deze kaart niet veel kopers opleveren.

Er zijn echter ook wel meerdere flut-tests op het internet te vinden, het beste kun je het nog altijd zelf ondervinden, ik heb bijvoorbeeld al vaker meegemaakt dat het voor ati van geen kant leek te kloppen wat men op internet meldde, daar heeft men ook een spreekwoord voor: goedkoop is duurkoop.

Dit kan best een leuk kaartje worden mits de prijs goed ligt, maar dat gebeurd toch niet dus nvidia heeft zichzelf alweer in de vingers gesneden
Ik vraag me af of ze nog gaan komen met iets in de 150-200 euro classe, dat verkoopt volgens mij ook wel aardig namelijk. (aan mij ook) en dat is de klasse waarin je later upgrade naar een SLI setup oid.
De NVidia mid-range kaartjes komen op zijn vroegst deze zomer uit. Meer info daarover in het [url="gepland voor de zomer, meer info in het"]NVidia-topic[/url]. Die kaarten zullen nu toch niet zo veel vertraging hebben als de GTX480 en GTX470 hadden, kleinere GPU's en nu inmiddels wat ervaring met TSMC's 40nm. Dus ga maar uit van ergens in de zomer.
Het zal afwachten wezen of de prijzen wel zoveel gaan dalen.
De geldpersen draaien volop bij de FED en ECB........er is geen geld en dus kunnen ze niks anders meer doen als geld bijdrukken ( het Europese noodfonds, de bank bailouts, enzv. )........gevolg, stevige inflatie en de oude regel dat dingen vanzelf goedkoper worden gaat niet meer op. Je hoeft maar naar de grondstofprijzen ( goud, zilver, enzv. ) te kijken en dan weet je genoeg, die zijn ook allemaal aan het stijgen ten opzichte van alle valuta.
Lijkt mij overattributie. Het bijdrukken van geld staat practisch gezien los van prijsverlagingen.
@Chewing,

Als er veel geld wordt bijgedrukt, dan wordt de waarde door een teveel aan geld minder.......prijzen dalen door een betere beschikbaarheid van bv. GPU chips en zo werkt het dus ook met geld, komt er teveel van, dan verliest het z`n waarde en kun je met hetzelfde bedrag minder kopen ( niemand wil jouw Euro nog, omdat een ander deze wel aanbied voor minder, omdat die er ook vanaf wil )........daarnaast is het nog zo, dat de gebruikte grondstoffen hierdoor ook stijgen en dus stijgen de productiekosten........prijsverlagingen die normaal gesproken wel plaatsvonden, door het goedkoper worden van de productiekosten, worden dat nu niet meer en dus kan het wezen dat de prijzen gelijk blijven, dan wel omhoog gaan of veel minder dalen dan voorheen.......wat er precies gaat gebeuren, hangt af van de sterkte van de inflatie, hoe meer er bijgedrukt wordt, deste meer zullen prijzen gaan stijgen. Als er teveel geld wordt bijgedrukt ( en er dus teveel geld in omloop is ), zoals nu al het geval is, dan zul je gaan zien, dat men dit geld wil gaan omzetten in goederen ( als geld minder waard wordt, dan kun je het beter omzetten in iets tastbaars ) , met als gevolg dat het teveel aan geld, dezelfde goederen begint na te jagen en dit zorgt voor prijsstijgingen ( denk maar aan een veiling ).
Ik wil hier 2 van hebben voor in SLI, dan ben je hoop ik sneller dan 1 Geforce GTX 480 :)

Mooi om te hebben 2x Geforce GTX 465, of 2x Geforce GTX 460.


Het zou me niks verbazen dat de Geforce GTX 495 2x Geforce GTX 460 of 2x Geforce GTX 465 op een board is.


Want 2x Geforce GTX 470 of 2x Geforce GTX 480 op 1 Board woord veelte veel Watt.

Want 1 Geforce GTX 470 gebruikt bij GPU full load 215W, en de Geforce GTX 480 gebruikt bij GPU full load 250W :'(

http://www.guru3d.com/article/geforce-gtx-470-480-review/13

En dan zal 2x Geforce GTX 465, of 2x Geforce GTX 460 rond de 300W Max verbruiken.

[Reactie gewijzigd door AmigaWolf op 15 mei 2010 19:57]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True