Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 175, views: 22.662 •

Op de Turkse website DonanimHaber.com is een powerpoint-slide opgedoken, met daarop Nvidia's referentie-exemplaar van de GTX 480. De gpu zou de snelste ter wereld zijn. Tevens maakt de slide melding van een tdp die onder de 300W ligt.

De slide claimt dat de GTX 480 de snelste gpu ter wereld aan boord heeft. De gpu zou een tdp krijgen van minder dan 300W. Anonieme bronnen noemen tegenover Tweakers.net een tdp van 295W. De videokaart moet dan ook worden voorzien van een zespins- en een achtpins-pci-e-connector. De kaart is al met al 26,67cm lang en neemt inclusief koeler twee uitbreidingsslots in beslag.

De foto van de videokaart toont verder een koeler met veel ventilatiegaten, opdat niets een goede airflow in de weg staat. Vier heatpipes van elk 8mm dik moeten de warmte van de gpu naar de vele aluminium vinnen verplaatsen. Als laatste zijn er nog twee dvi-poorten en een mini-hdmi-poort te zien, waarmee maximaal twee beeldschermen kunnen worden aangesloten.

Prijzen zijn nog niet officieel bekendgemaakt, maar anonieme bronnen zetten de GTX 470 en de GTX 480 op respectievelijk 349 en 499 dollar. Het aantal Cuda-cores bij de GTX 480-gpu zou 512 bedragen, maar er gaan ook geruchten over de aanwezigheid van slechts 480 Cuda-cores. De hoeveelheid geheugen, 1536MB, was al bekend, evenals de 384bit-geheugenbus waarmee het geheugen in contact staat.

Nvidia GTX 480

Reacties (175)

Reactiefilter:-11750171+199+23+30
Dus zoals ze nu aangegeven is hij sneller als een HD5970. Ben erg benieuwd naar de benchmarks... Als hij inderdaad sneller is dan is de prijs ook meteen gerechtvaardigd... Heeft wel lang op zich laten wachten...
Nee, volgens het bericht is de GPU het snelst, niet de videokaart. De HD5970 heeft 2 GPU's aan boord. Of de 480 sneller is moeten we afwachten

[Reactie gewijzigd door M.E.Amrani op 18 maart 2010 15:50]

Inderdaad snelste GPU, niet videokaart, dat zal de HD5970 met gemak blijven.
Van de GTX470 wordt verwacht dat die net iets sneller is dan een HD5850, maar trager dan een GTX480. En van de GTX480 wordt verwacht dat die net iets sneller is dan de HD5870, maar veel trager dan een HD5970, terwijl het verbruik ongeveer gelijk is als een HD5970...
Hoe kun je zulke voorspellingen al doen?

Afgezien van specificaties en een paar "inhouse" benchmarks is er nog niet veel bekend over de performance.

De 5970 zal ie miss niet verslaan, maar dat "met gemak" mag wel weg denk ik.
Idd, ik gok dat hij de 5870 met gemakt zal inmaken, dit mag ook wel met deze TDP, met mijn 600Watt voeding is het met deze kaart zelfs nog krap aan. Als deze in Dual GPU kom dan zal dit zeker de topper zijn boven alle ati kaarten, maar zal het ook de zelfde prijs of lager kunnen geven?
Of blijft Nvidia zoals altijd heer en meester in te hoge prijzen.
Sneller dan de HD5870 is leuk, maar het zal vooral ook een pluspunt zijn als hij ook beter leverbaar is dan de HD5XXX serie. Ik wacht al ruim 4 maanden (!) op de levering van mijn HD5970. :O
@d3vlin
wij hebben de HD5870 hier in de winkels gewoon liggen :?

ik blijf toch liever bij ati , nvidia heeft altijd wel mankementen, is het de videokaart zelf niet dan zijn het de drivers wel... ati heeft misschien zo ook wel zijn nadelen, maar als gebruiker merk ik daar zelf maar al te weinig van, dus ook deze GTX 480 zal mij passeren tot dat nvidia iets doet aan de kwaliteit/prijs. Voor deze prijzen kan je veel beter spul vinden.
Wat een onzin zeg, alle Fabrikanten hebben wel mankementen, Ati heeft dat en Nvidia heeft dat.

Ik heb zelf all 23 maanden 2x Geforce 8800GT en ik heb nooit problemen met mijn kaarten gehad, en ook zo goed als nooit problemen gehad met drivers.
@AmigaWolf, Niet lullig bedoelt, maar wacht maar dat die 8800 kaarten door een bekende produktie fout dood gaan, gezien de leeftijd kan dat al vrij snel zijn. Op GoT loopt overigens ook een topic hierover. Nee Nvidia, mag zich eerst weer gaan bewijzen dat zij degelijke produkten op de markt kan zetten. (ik verwijs naar het hele G84, G86 en G92 debakel)
Ik heb hier 2 8800GTX'en en ze draaien nog prima :).
ATi heeft anders op dit moment behoorlijke driver problemen met hun HD58xx's. Zoals AmigaWolf al aangeeft hebben beide bedrijven genoeg problemen gehad.

Ontopic: wat een beest. Ik vrees dat deze alleen vrij lastig te temmen is. Bijna 300w voor 1 GPU, waar gaat 't toch naar toe zeg...
Ontopic: wat een beest. Ik vrees dat deze alleen vrij lastig te temmen is. Bijna 300w voor 1 GPU, waar gaat 't toch naar toe zeg...
bij tri- & quad-sli: Naar 'n huis zonder verwarming van de cv-installatie? :+
't is maar goed dat EVGA gisteren dit bord aankondigde: http://www.evga.com/articles/00537/
Nu de vraag passen 4 van dit type kaarten op zo'n bord?
(ik denk van niet)

[Reactie gewijzigd door rj1093 op 18 maart 2010 21:17]

Denk het ook niet, want zoals in het artikel staat; de kaart neemt inclusief koeler twee uitbreidingsslots in beslag. Kan me niet voorstellen dat het EVGA bord genoeg ruimte bied tussen de PCI x16 sloten om ze allevier te kunnen gebruiken met een dubbelslots kaart. Wordt een flink moederbord dan.
Het is met name Ati die bekend staat om brakke drivers en falende support voor oudere kaarten/games;).
Drivers zelf zijn wel goed tegenwoordig.
Maar wel brak ja...
Moest wel 40 keer de drivers instaleren.
Op het laats maar de drivers + apparte CCC geinstaleerd ben er 1 uur mee bezig geweest.
Er gaan geruchten dat hij 5 - 10% sneller word dan de 5870... snap je nu wat er bedoelt word met "met gemak" ? Als die geruchten gebaseerd zijn op oudere drivers dan de 10.3, betekend dat dus nog minder aangezien deze gemiddeld al 5% winst boeken in veel games.
Wat performance betreft kunnen we maar beter afwachten tot de eerste reviews. Het feit dat er nog niets van cijfers gelekt is stelt wat dat betreft niet echt gerust. Maar we zullen zien.

Ik zeg nu al dat er geen dual kaart van uit komt, dit kan simpelweg niet omdat die dan zeker meer dan 300 watt zal trekken, 300 watt is de limiet voor een kaart volgense de PCIe of de ATX specs.
AMD heeft het met de 5970 voor elkaar gekregen op 294W of zo te blijven, maar dat enkel door de lagere snelheden per core en de lagere voltages. Als deze kaart alleen al 300 watt gebruikt dan hoeven we geen dual kaart te verwachten.

Dat filmpje is ook leuk, nou doen ze net of ze tesselation hebben uitgevonden... dat zat al op de Radeon 9800PRO, sindsdien heeft ATI geprobeert dat in de DirectX specs te krijgen...
Eigenlijk zat het al op de Ati 8500, maar is het niet/nauwelijks gebruikt aangezien het (terecht) nooit erg populair geweest is om voor 1 specifieke kaart te programmeren.
Wat nog leuker aan dat filmpje is, is dat Nvidia hier zelf al aangeeft dat de GTX480 GELIJK presteert aan een 5870!

Alleen als je een benchmark draait die extreme tesselation gebruikt presteert de 480 beter. (dat zijn niet mijn woorden, maar de woorden van die Nvidia figuur over die grafiek...)
Hoeveel spellen kennen we die in die mate tesselation gebruiken?
Hoeveel spellen zijn er aangekondig die dat doen?
(bedenk daarbij dat een game developer die draak er ook op een DX10 kaart goed wil laten uitzien)

Als je dan nog bedenkt dat Nvidia uiteraard het allerbeste best-case scenario gebruikt voor zo'n video, dan ziet de toekomst voor de GTX 480 er bepaald niet rooskleurig uit.

(er is neem ik aan niemand die denkt dat de 480 dezelfde prijs zal krijgen als de 5870?)

[Reactie gewijzigd door mjtdevries op 18 maart 2010 19:34]

jongens hou even in het achterhoofd dat deze kaarten niet alleen gemaakt worden voor gamers ;)
De HD5970 is twee GPU's.
Ik zou zeggen dat, tenzij de 480 ook 2 GPU's heeft, een vergelijking met de HD5870 beter is.
moet je voorstellen dat van de nieuwe nVidia een dual GPU komt, dat ding verslindt alles!!
Inderdaad. Ook je stroomrekening...
En je bankrekening...
Pff reden 1 om deze kaart niet te kopen
Hmm... als je bankrekening niet veel groter is dan een kleine €1000,- dan is Fermi het laatste waar ik me zorgen om zou maken...
En tegen welke prijs? Voor dat geld (ongeveer) heb je 2 iets minder snelle GPU's die samen dat nVidia ding opvreten en niet eens veel meer verbruiken ;) (owja ik ben geen fan boy, ik koop gewoon het beste op dat moment voor de mooiste prijs)

Owja en de prijzen zijn helemaal nog niet zo zeker, ik denk dat het rustig 100 dollar hoger uit valt door al die cuda cores enzo, de core zal aardig groter zijn als een ati tegenhanger, en dus duurder :)

[Reactie gewijzigd door watercoolertje op 18 maart 2010 16:04]

Ik dacht dat pci-ex specs niet meer dan 300W toe lieten voor een grafische kaart. Een reden waarom de 5970 op 5850 clocks draait.
Als n 480 al net geen 300W doet dan zou er (indien mijn gedacht over de pci-ex specs juist is) geen 'officile' 480x2 kunnen komen.

Misschien dat iemand mij eventueel kan verbeteren ivm de max 300W van pci-ex, ik lees bv hier dat pci-ex 3.0 tot 300W mag, en dat is dan neem ik aan met extra connectors en dus niet dat ze bedoelen alleen uit het slot.
75watt uit je slot,
75watt van de 6pins connector
150watt van de 8pins als ik het goed heb.
Dan zou je precies op 300watt uitkomen.

Ik zie trouwens niet waarom je maar 300watt aan een videokaart kan geven, je kan toch als kaartenbakker gewoon 2 8pins connectors erop zetten? Dan heb je 375 watt max.
je kan toch als kaartenbakker gewoon 2 8pins connectors erop zetten? Dan heb je 375 watt max.
Alleen dan kun je hem niet als PCI-e videokaart verkopen, aangezien die niet aan de specificaties van de PCI-SIG houden. :)
En deze kaart dan:
nieuws: Cebit: Asus toont HD 5970 Ares en 3DMark Vantage-score

De speciale HD5970 van asus die (in theorie) 450 watt trekt... 2x 8pins en 1x 6pins.
Ik denk dat deze ook gewoon als PCI-e kaart wordt verkocht.

Daarnaast heb ik even http://www.pcisig.com/spe...ciexpress/specifications/ doorgelezen, maar volgens mij wordt daar niks vermeld over hoeveel watt die mag verbruiken. Alleen mag er maximaal 75 Watt uit het PCI-e slot worden gehaald en moet het aan die specificaties voldoen. Wat de fabrikant er daarna nog aan PEG stekkers op duwt maakt volgens mij in principe geen snars uit...
De standaard staat 300W toe (zie dit document: http://www.pcisig.com/spe...tions/ECN_Power_Limit.pdf er wordt niets genoemd boven 300W, je mag er dus van uit gaan dat dat de upper limit is), dat is de reden dat AMD en nVidia daar niet overheen zullen gaan. De 5970 is wel gemaakt om meer te kunnen verbruiken, maar het concept moet wel aan de standaard voldoen bij verkoop.
Zo ver hebben we enkel 5970's gezien volgens het standaard AMD ontwerp. Maar een bedrijf als Asus staat het vrij om er meer mee te doen.

AMD hoeft wee geen garantie te geven op kaarten die kapot gaan door overklokken. Daar heb je meteen de reden dat die hoog geklokte kaarten rond de 1000 euro moeten gaan kosten (iig die van Asus).

Voor een dual 480 kaart zou je 3 8-pins en 1 6-pins power connector nodig hebben. en dan moet de zaak nog gekoeld worden... Ik zie hier al 3 heatpipes, met een dubbele kaart zou er een flinke koeler nodig zijn.
No offense, maar wie koopt nu een kaart van 375W? 300W is al een dealbreaker voor mij.
Zegt hij dat?
Hij vraagt zich af waarom ze niet x aantal y connectors aansluiten zodat er een 375W kaart kan worden geproduceerd. Mijn antwoord: Er is tegenwoordig weinig tot geen markt voor zo een enorme energie slurper.
Want?
Het enige wat je hier leest is dat het de snelste GPU is. ALS dat bijvoorbeeld 1% is op een HD5870 dan is dat in theorie 2% op een HD5970 als ze 2 cores laten samenwerken. Verslinden? En dat meer dan 4 maanden NA dat de ATI kaart er is...nee, sorry echt niet. Die GPU moet wel erg veel sneller zijn dan de HD5xxx-serie om een nette indruk achter te laten. Dat gecombineerd met het extreme stroomgebruik lijkt mij die kans niet erg groot.
Uhm, als dat 1% is op een HD5870, dan is dat in theorie 1% op een HD5970. Als 1 core 1% sneller is, dan zijn 2 cores nog steeds 1% sneller. Daarnaast is dat wel heel theoretisch. Ten eerste zijn de clocks van de HD5870 en de HD5970 niet gelijk en daarbuiten zijn er vele factoren waaronder de drivers die de praktijk aanzienlijk van de theorie af kunnen laten wijken.

Verder ben ik wel met je eens dat ze geen grote indruk zullen maken met een kaart die enkele procenten sneller is dan een HD5870, maar dat moeten we nog afwachten.

[Reactie gewijzigd door jvo op 18 maart 2010 16:58]

Moet je voorstellen dat er een dual-GPU komt van deze kaart, dan heb je een TDP van bijna 600W :| Die verslind inderdaad alles als je minstens waterkoeling hebt... Bijna n paardenkracht :P

En degene boven me heeft het bij het juiste eind, 300W is het maximum. Als je een dual-GPU maakt (met dus een TDP van 600W als je de kloksnelheden ongewijzigd laat) zul je de clocks zover omlaag moeten schroeven dat je uiteindelijk een kaart hebt die nauwelijks sneller is dan de single-GPU. Oftewel: dit gaan ze niet doen. Misschien dat er nog een retailer met een custom dual-GPU komt (zoals de asus mars en ares die beiden een TDP van over de 300W hebben) maar NVidia zal zich daar niet aan wagen. De mars had al genoeg hitteproblemen trouwens, buiten de PCIe-specs werken is riskant.

Nee, zowel een single-GPU als dual-GPU versie van fermi zullen niet over de prestaties van de HD5970 heen komen helaas.

Dat 'ie sneller is dan de HD5870: nou, wat een nieuws :+ het is veel duurder, groter en heeft een veel hoger verbruik. Dan is het niet knap dat dit ding sneller is. Sterker nog, als hij maar 20-30% sneller is vind ik het al een aardige fail. Maar goed, er is nog steeds niks bekend over de uiteindelijke prestaties. De ne 'betrouwbare bron' zegt 40% sneller en de andere bron zegt maar 20% sneller. :P

[Reactie gewijzigd door bwerg op 18 maart 2010 16:34]

Dat zou ik niet te hard zeggen, de overclockte HD5970 is er ook nog he ;)

Daarintegen loopt Nvidia gewoon achter op het moment, en totdat de reviews en benchmarks er zijn is het gewoonweg nutteloos om hierover te gaan speculeren.
Ja, behalve als ze net als AMD (waarschijnlijk) niet kunnen leveren. Die chips worden in dezelfde fabriek gemaakt, met dezelfde problemen.
Plus de extra problemen die een complexe chip met zich mee brengt
Volgens mij geven ze dat niet aan... ze hebben het over de snelste GPU en niet de snelste kaart... de 5970 is een dual GPU, dus volgens deze slide hoeft hij enkel de 5870 voorbij te gaan.

[Reactie gewijzigd door belstrekkie op 18 maart 2010 15:51]

Helemaal mee eens. Sinds de 8800gt werd ingehaald door de budgetkaarten van ATi hebben zij al de price/performance crown. Ik hoop dat op basis van deze cores niet veel later een goedkoper model a la 8800gt toentertijd uit zal komen die de 5770 in elk geval verslaat voor een lagere prijs.
Ik ben geen fan boy maar eerlijk is eerlijk. Ik heb met regelmaat gewisseld tussen ATI en Nvidia. De minste problemen heb ik gehad met Nvidia (Geforce 1, 2 en 8800GTS).
Meeste performance boost voor mijn gevoel met mijn ATI X800 XT (kon je eenvoudig unlocken). Maar dat is maar net wat je ervoor er in had zitten. Wat ik jammer vind is dat het lang duurt voor dat er games zijn die echt goed gebruik maken van multi core CPU en bv. SLI of CF. Ik had n van de eerste 8800GTS-en maar heb lang moeten wachten op de DX10 games. Hoe zit het nu met DX11, is dat al de moeite om van een GTX 260 over te stappen naar een snellere en DX11 kaart?
Lijkt mij nog lang niet nodig, alle games zullen voor nu nog DX10 blijven omdat meeste gamers nog niet een DX11 kaart hebben, makers weten ook wel wat ze doen, DX10 zal ondersteuning blijven krijgen voor denk ik nog makkelijk 1-2jaar. Dus jouw kaart is meer dan goed.
Nee meeste games zullen tot 2012 zelfs nog Dx9 blijven omdat pas dan de consoles eindelijk eens doorhebben dat de wereld niet samen met hen stilstaat.
Gemiddeld spel is ook 2-3jaar ontwikkeling. Daarom zie je al sinds vorig jaar een Dx11 update van de UnrealE en kan je binnen 2-3jaar 90% ondersteuning voor Dx11 verwachten.

Developers gaan ook meer geneigd zijn om met Dx11 te experimenteren voor de toekomstige consoles ipv bij Dx10 wat niet zo interessant was voor iedereen.
Ik had n van de eerste 8800GTS-en maar heb lang moeten wachten op de DX10 games. Hoe zit het nu met DX11, is dat al de moeite om van een GTX 260 over te stappen naar een snellere en DX11 kaart?
DX10 ging langzaam omdat het totaal anders is dan DX9. Dit betekende dat games 2x ontwikkeld moesten worden om beide standaarden te ondersteunen. Uiteindelijk kozen alle games DX9 en maakte een flauw aftreksel van een DX10 versie.
DX11 zal veel sneller gaan omdat een DX11 spel ook super zal draaien op DX10.1 en DX10. Dit keer zal de DX9 een slap aftreksel zijn wat perfect is omdat DX9 gamers niet veel verwachten.
Nou dat laten ze tactisch in het midden omdat de 5970 een 2 gpu's aan boord heeft op 1 kaart. Ik denk dat ze hier dus suggereren dat de nieuwe GTX 480 sneller moet zijn dan de 5870 met beide 1 GPU aan boord

[Reactie gewijzigd door Jaapoes op 18 maart 2010 15:52]

Het zou wat zijn als hij trager was. Een geschat stroomverbruik dat aardig op 5970 niveau ligt en dan nog niet sneller zijn als een 5870 - laat maar zitten dan. Dat ding raken ze aan de straatstenen niet kwijt. Dat zal dus wel meevallen, hij zal f een aardig eind sneller moeten zijn, f dat geschatte stroomverbruik moet in de praktijk veel lager blijken, maar anders wordt dit natuurlijk niks.
Het zou wat zijn als hij trager was. Een geschat stroomverbruik dat aardig op 5970 niveau ligt en dan nog niet sneller zijn als een 5870 - laat maar zitten dan.
Dat is ook precies wat ik dacht. De allersnelste ATI van dit moment zit volgens mij ook rond de 300W en gebruikt 2 GPU's. Als deze kaart 300W trekt en met n GPU de dual-GPU-kaart van ATI voorbij gaat: soit. Trekt hij echter 300W en gaat hij niet voorbij de 5870, dan zie ik weinig hoop voor andere kaarten van nVidia....

Ik heb 10 jaar lang met veel plezier en minimale problemen nVidia-kaarten gebruikt. (TNT2 Pro, GeForce 2 Ti, Ti-4600, 7600GT, en mjin huidige 9600GT). Als deze GPU echter 2x zoveel stroom trekt als de GPU van ATI zonder sneller te zijn, dan is het best wel een GeFarce. De ATI's gebruiken vl minder stroom. Ik zit daarom al een tijdje te kijken naar een passieve HD5750, om mijn (ook passieve) 9600GT te gaan vervangen.

Maar ja. Op mijn huidige 1280x1024-scherm en te spelen spellen heb ik nog niets snellers nodig. Volgend jaar rond deze tijd verkoop ik mijn hele systeem n scherm, en dan komt er een nieuwe computer en een 24+ inch monitor. Ik zie wel wat er dan te koop is.
Ik zit daarom al een tijdje te kijken naar een passieve HD5750
Misschien komt er ook wel een passive fermi, waarom niet? O-)
Ja, die "komt" er al bijna een jaar.

De HD5750 is er -nu-.

Als ik besluit een nieuw systeem te gaan kopen, dan kies ik mijn hardware uit de spullen die er op dat moment zijn. Ik ga niet maanden wachten omdat fabrikant X misschien wel eens met goed product Y zou kunnen komen.
psst, het was een grapje, een passive kaart met TDP van 295W wordt heter dan de gemiddelde over ;)
De 5970 was rond de 600 dollar dacht ik, dan zal de 480 dus goedkoper zijn bij de release.
Maar we weten allemaal dat de prijzen en de verkrijgbaarheid van ATI veel beter zullen worden als de nieuwe Nvidia kaarten een tijdje op de markt zijn.
Volgens officiele videos op youtube was hij duurder.
Retail prijs van SabrePC, de GTX 470 kost $499,- , de GTX 480 kost $678,-
Dat was een grap... ;)
Een 5870 kan je nu met de slechte vraag/aanbod verhouding voor ongeveer €340 krijgen binnen 10 werkdagen, de 5850 voor €245. Als de geruchten kloppen zal de GTX 480 voor ongeveer €450 verkrijgbaar zijn, de GTX 470 voor ongeveer €320.

Dus zelfs met de verhoogde prijzen van AMD zou de GTX 470 maar €20 goedkoper worden dan de 5870 terwijl de verwachtte prestaties daar bij lange na niet in de buurt zitten. De GTX 480 zou op zijn beurt ruim 30% sneller moeten zijn dan de 5870 en natuurlijk nog meer wanneer de prijzen van AMD gaan dalen.

Ik hoop dat de geruchten ergens niet kloppen, want op deze manier bied Nvidia straks veel te weinig concurrentie.
Als de kaart al goedkoper word als een 5850, dan hoef je echt niet te verwachten dat ie wel sneller is.

Dat is niet echt de tactiek van nVidia imo, als de 470 sneller is word ie ook duurder
Ik denk niet dat deze sneller is als de 5970. Dat is namelijk een dual GPU kaart.
Dus een kaart met 2 GPU's tegenover de GTX480 met 1 GPU
ze geven niet aan dat ie sneller is dan de 5970, ze zeggen dat het de snelste GPU ter wereld zou zijn, en de 5970 is een dual-GPU.
Ze claimen dus dat ie sneller is dan de 5870 lijkt mij.
Jawel maar ATI's 5970 is een dual-gpu op n PCB. Ik ben benieuwd of deze kaart veel sneller zal zijn dan de 5870
Wauw, ik heb momenteel een XFX 550M (9500GT) en die moet worden vervangen.
Nu ik de prijzen zie zit ik erg te twijfelen tussen een hd5770 CF of een 470 single.
5850 is denk ik dan de betere keus ;)
Als een Single 470 amper sneller is als een 5850 (5-10%) kan je beter voor 5770CF gaan aangezien dat sneller is als een 5850 (als alles goed schaalt)

(let op dit zijn geruchten)

[Reactie gewijzigd door Sinester op 18 maart 2010 17:25]

ik heb de 5770CF en ben er tot nu toe erg blij mee. alles werkt strak en geen driver problemen.
Lijkt me sterk dat hij zo gaat uitzien, een referentie design heeft nog nooit heatpipes gehad die uitstaken over de pcb rand, het lijkt er meer op dat ze heatpipes van de hr-3 van thermalright er in gephotoshopped hebben, net zoals die ventilatiegaten aan de bovenzijde, die lijken toch wel erg op die van de 9800gx2 :/
Als laatste zijn er nog twee dvi-poorten en een mini-hdmi-poort te zien, waarmee maximaal twee beeldschermen kunnen worden aangesloten.
2+1=2?
Vaak is het of HDMI of DVI. Niet beide tegelijk
Je kan volgens mij maar 1 DVI poort tegelijk gebruiken
Jij weet er volgens mij niets van. Ik heb al jaren 2 monitors aangesloten op m'n 2 DVI poorten.
De HDMI poort deelt met 1 van de DVI poorten, dus als er gebruikt gemaakt wordt van HDMI dan valt een van de DVI poorten uit. Zelfde verhaal van EyeFinity
Nee maar waarschijnlijk bedoelen ze dan dat net zoals in het verleden met 3 aansluitingen er maar 2 tegelijk gebruikt kunnen worden.

Edit: spuit 11 ofzo ... hier zou toch een knop "bekijk bericht" moeten komen :s

[Reactie gewijzigd door kluyze op 18 maart 2010 16:08]

>De gpu zou een tdp krijgen van minder dan 300W

Klinkt bijna alsof 300W weinig is .... ( of kom ik nu vanonder een steen gekropen? )
Mijn GTX295 heeft ook een tdp van 295, dus op zich verstookt deze kaart aardig wat energie! Dat wordt een hoge bijtelling ;-)

Daarnaast ben ik wel benieuwd wat de nieuwe generatie van Nvidia gaat brengen. Als trouwe "The way it's meant to be played" fan, kijk ik naar de volgende 495GTX uit.
jE zou toch op zijn minst verwachten dat Nvidia de nieuwe generatie een stuk zuiniger heeft gemaakt.

Het is toch belachelijk dat jouw dualcore videokaart nog steeds net zoveel verbruikt als een nieuwe generatie single core 480.
Viel me ook al op.

" Snelste kaart ter wereld, maar hij vreet wel 107 watt meer dan de 5870" LOL
Gaat dit nu de nieuwe Nvidia bash worden?
Hoezo bash? Gewoon de feiten op tafel neerzetten. Iedereen kan een snelle kaart bouwen, maar dan moet dit niet ten koste gaan van het verbruik.
Iedereen doet alsof het ding eigenhandig het broeikaseffect met 50% verergert ofzo. Kom op, het is een maximumverbruik van misschien dus 300 Watt, maar hoeveel van je tijd draait je CPU op max? Het idle verbruik lijkt mij veel belangrijker. Stel dat het inderdaad 100Watt scheelt en je gebruikt een keer 2 uur per dag de GPU volledig (wat mij al veel lijkt) dan is dat nog geen 20 euro per jaar aan stroomverschil. Denk je nou echt dat een hardcore gamer die 400 euro of meer wil uitgeven aan een GPU daar moeilijk over gaat doen?
Voor de warmteproductie maakt het natuurlijk niet zoveel uit hoe vaak je dat ding gebruikt. Verbruik verminderen is niet alleen leuk om milieubewust te zijn, het zorgt er ook voor dat die kaart niet overhit raakt of een zwaardere koeling nodig heeft. Ook heb je er een dikkere voeding voor nodig. Al draai je maar vijf minuten per dag voluit.
Dergelijke kaarten worden door echte gamers gekocht die graag veel mooie sprankeltjes op zijn scherm willen zien. 700 watt voeding is tegenwoordig de minimum voor dat.

Personen die af en toe een spelletje spelen die kijken toch niet naar dit segment videokaarten.
Dat is niet waar. Op de eerste plaats heb je voor een enkele kaart geen 700 watt voeding nodig, op de tweede plaats draait een HD5870 alles en met genoeg sprankeltjes aan.
Recommended Power Supply
So here's my power supply recommendation:

GeForce GTX 295

A GeForce GTX 295 requires you to have a 700 Watt power supply unit at minimum if you use it in a high-end system. That power supply needs to have (in total accumulated) at least 50 Amps available on the 12 volts rails.

Bron: http://www.guru3d.com/art...gtx-295-review-engtx295/5
Warmte is een non-issue sinds de uitvinding van de heat exhaust die de warmte direct de kast uit blaast...
Alsof je 300W aan warmte door dat kleine gat krijgt... :)

Warmte = verhoogde kans op neveneffecten (lawaai, vastlopers, defecten,..). Dus het is altijd een issue.
Zoals je in een eerdere reactie van mij kunt lezen, heb ik 10 jaar lang nVidia-kaarten gehad. Omdat Dragon Age op mijn 9600GT maar krap 30 FPS haalt op full settings en 1280x1024 in de drukkere gebieden, overwoog ik een nieuwe grafische kaart (en cpu) als tussenstap voordat ik volgend jaar een geheel nieuw systeem ga halen.

Kort gezegd ben ik de laatste 1,5 jaar zo not-impressed met nVidia dat ik een HD5750 overwoog (en nog overweeg). OK, de GTX295 is tijdenlang de snelste kaart geweest. Hij kan nog steeds meekomen met een HD5870.

ATI heeft echter het stroomverbruik flink teruggebracht. Zo uit mijn hoofd trekt een HD5870 ongeveer evenveel stroom als een GTX260... 175W of iets in die richting toch?

Een HD5750 is toch weer een stukje sneller dan een 9600GT. Hij zit zo iets boven de GTS250, en net onder de GTX260. Echter, hij gebruikt met ongeveer 80W zelfs minder stroom dan de 9600GT, en kan net als die laatste passief gekoeld worden. Dit, in combinatie met de driververbeteringen die ik door de jaren bij ATI heb gezien (bij vrienden, ik heb zoals gezegd altijd nVidia gehad), doet mij voor mijn volgende kaart zeer zeker wl een ATI overwegen als ze zo doorgaan.

Het enige waar ik een beetje mee zit is dat er geen PhysX inzit, en dat wordt toch wel gebruikt. (En zit er aspect ratio scaling in de driver? ATI heeft dat gehad, toen eruit gesloopt, later weer erin gedaan.... ik weet even niet hoe het daar nu mee staat.)
Ik heb nu een ATi 5850, hiervoor 8600GT.
PhysX mis ik niet - alles ziet er prachtig uit, ook spellen met PhysX zoals Batman en Mirrors Edge.

Zover ik weet doet ATi gewoon aan aspect ratio scaling - als ik 4:3 apps start krijg ik automatisch zwarte balken links/rechts die het verschil compenseren.
over physX zou ik me echt geen zorgen maken, de games die het gebruiken (hardware matig) zijn op een hand te tellen, en het bied imo nu nog weinig extra.

pas als physics echt invloed gaat hebben op de gameplay, ga ik het interessant vinden.
maar het lijkt me duidelijk als dat gebeurd, dat het via een open standaard gaat, aangezien ze anders alleen het spel aan nVidia gebruikers kunnen verkopen
Huh?? Heb je wel het verschil gezien in bijv Batman en Mirror's Edg tussen physx en geen physx? Het is verschil is groot en duidelijk merkbaar. In tegenstelling tot bijv grafische verschillen tussen DX10 en 10.1 en 11, daar kun je uren naar het plaatje turen om soms minimale verschillen te spotten. Bij games met physx merk je duidelijk grote grafische verschillen. Dus ja, voor een aantal games is het wel degelijk een relevante keuze, een kaart met of zonder physx. Het aantal games zal bovendien alleen maar toenemen. Ik heb Mirror's Edge gespeeld op een oude 8800GTS 512MB, en op een HD5870. Nou voor dit specifieke spel , doe mij maar de GTS :) Ik swap dus ook op dat moment echt meteen terug naar de GTS, de HD5870 is gevoelsmatig een vreselijke achteruitgang in zo'n game.
Of je hebt niet opgelet of je bent een freak met onwijs veel vingers :+ .

http://www.nzone.com/object/nzone_physxgames_home.html
Tsja wel als ik je overwegingen zo bekijk hoef je hier niet op te wachten want dit is voor de high end en de geruchten dat nVidia ook voor middle range kaarten gaat uitbrengen, is just that, geruchten waarmee het waarschijnlijk minimaal een half jaar duurt al ZOU nvidia ze ontwikkelen.

Dus ja, of je nu wilt of niet, op de mid range heb je momenteel (ok, je kan voor een verouderde high end van de vorige generatie gaan) geen keus.
Even sidenote, de GTX295 ( door dual gpu ) presteerd beter dan de 5870 in vrijwel alle benchmarks. dus het is eerder dat de 5870 mee kan komen met de GTX295.
Bash? Het is toch gewoon de waarheid?
Waarschijnlijk is de GTX480 ongeveer 10% sneller voor minstens 50% meer stroomverbruik.
We zullen moeten wachten op de reviews om te zien wat de cijfers precies zijn, maar dat de performance/watt kroon bij ATi blijft is wel zeker.
Er staat nergens hoeveel sneller die is. Dus gaarne eerst de reviews afwachten en daarna gaan zeggen dat het "de waarheid is" misschien presteerd ie wel 50% sneller waardoor het stroomverbruik ook 50% hoger is.
Verbaast me toch nog altijd hoeveel animo er nog is voor high end pc kaarten. Het is nou niet bepaald zo dat er veel goede spellen uitkomen voor de pc, meestal zijn het consoleports.
Juist omdat het (crappy) console ports zijn heb je brute kracht nodig :P

maar de laatste tijd komen er toch veel goeie spellen uit hoor voor de pc, okal zijn het console ports
Ben ik het zeker niet met je eens, ik weet nu echt niet wat ik moet gaan spelen, MW2, Dirt 2 of Bad company 2, drie spellen die korte tijd op elkaar zijn uitgekomen waar ik voorlopig echt nog niet mee klaar ben.

Of je daar nu wel of niet een high -end kaart voor nodig hebt is een tweede, speel dit soort spellen nog steeds op volle settings vlotjes op twee 4850 kaarten in crossfire, oh'ja dat op een 20" 1680x1050.
Al de drie de spellen die je nu noemt zijn toch consoleports ?
Ja en heb je Battlefield Bad Company 2 wel eens gezien op die speelgoed consoles? de consoles zijn oude pc's in een custom behuizing.

Het beeld suckt, en full-hd met lowres textures en de helft van het aantal spelers met kutbediening is ook niet echt leuk.
Pop-up bij bomen, wrakstukken etc.
Nee geef mij maar de PC waar je fatsoenlijk een FPS kunt spelen;

1920x1200, op high detail goed speelbaar op een gtx285, maar sneller mag wel.
Graphics waarvan je roept pfff bwoa vette shit :D
Gameplay waarbij je snel kunt aimen met muis en toetsenbord.
Meer spelers online, en makkelijk samen aan de klets via xfire op de achtergrond (hoe flik je dat op een console eigenlijk?)

Consoles = speelgoed, je haalt het bij o.a. de Bart Smit!
Kort door de bocht: door 2 groepen gebruikers. De ene groep maakt spellen en heeft de power nodig om te zien hoe een spel werkt, de andere groep speelt spellen op de pc. En die willen ook wel eens op resoluties spelen die met consoles onmogelijk zijn.

Op dit item kan niet meer gereageerd worden.



Populair: Desktops Vliegtuig Luchtvaart Crash Smartphones Laptops Apple Games Besturingssystemen Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013