Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 175 reacties

Op de Turkse website DonanimHaber.com is een powerpoint-slide opgedoken, met daarop Nvidia's referentie-exemplaar van de GTX 480. De gpu zou de snelste ter wereld zijn. Tevens maakt de slide melding van een tdp die onder de 300W ligt.

De slide claimt dat de GTX 480 de snelste gpu ter wereld aan boord heeft. De gpu zou een tdp krijgen van minder dan 300W. Anonieme bronnen noemen tegenover Tweakers.net een tdp van 295W. De videokaart moet dan ook worden voorzien van een zespins- en een achtpins-pci-e-connector. De kaart is al met al 26,67cm lang en neemt inclusief koeler twee uitbreidingsslots in beslag.

De foto van de videokaart toont verder een koeler met veel ventilatiegaten, opdat niets een goede airflow in de weg staat. Vier heatpipes van elk 8mm dik moeten de warmte van de gpu naar de vele aluminium vinnen verplaatsen. Als laatste zijn er nog twee dvi-poorten en een mini-hdmi-poort te zien, waarmee maximaal twee beeldschermen kunnen worden aangesloten.

Prijzen zijn nog niet officieel bekendgemaakt, maar anonieme bronnen zetten de GTX 470 en de GTX 480 op respectievelijk 349 en 499 dollar. Het aantal Cuda-cores bij de GTX 480-gpu zou 512 bedragen, maar er gaan ook geruchten over de aanwezigheid van slechts 480 Cuda-cores. De hoeveelheid geheugen, 1536MB, was al bekend, evenals de 384bit-geheugenbus waarmee het geheugen in contact staat.

Nvidia GTX 480

Reacties (175)

Reactiefilter:-11750171+199+23+30
Moderatie-faq Wijzig weergave
En nog een bron voor de 300W voor de GTX 480.

http://vr-zone.com/articl...ricing-revealed/8635.html

Daarnaast weer een aanwijzing dat hij gemiddeld 5-10% sneller is dan de 5870.

Maar de nieuwe preview Catalyst 10.3a laat verbeteringen van 5% zien en in HAWX en Dirt 2 zelfs 20% !

http://www.hardocp.com/ar...3a_catalyst_driver_update

Het lijkt er dus op dat de GTX480 ongeveer even snel zal zijn als een 5870. Alleen is de GTX480 twee keer zo groot en heeft een TDP van 300W!
Komen er dan geen driver update's voor de 480? :?
Tuurlijk, maar de sites die de GTX480 mogen reviewen gebruiken de huidige ATI en Nvidia drivers voor een vergelijking. ATI heeft nu dus net op tijd een nieuwe driver uit met een flinke performance winst.

Ik verwacht dat dat betekent dat de GTX480 nagenoeg hetzelfde performed als een 5870. En dat is denk ik iets wat niemand echt verwacht had.
Tuurlijk wel. Maar je verwacht toch wel dat een nieuwe generatie kaarten toch zonder driver-updates de huidige generatie mag voorbij gaan in prestaties. ATI is nu bezig met een nieuwe generatie kaarten, die zeker ATI's huidige generatie kaarten voorbij gaat in prestaties, en dus ook meteen nvidia's nieuwste generatie. Dat betekent dus dat nVidia zeker een generatie lang geen voordeelpositie heeft, tenzij ze de prijzen echt goed kunnen krijgen (als in: meer winst dan ATI maken voor dezelfde kosten). Dat lijkt er niet in te zitten met dit soort matige prestaties.
Zet er 4 in SLI en je hebt geen verwarming meer nodig. :+
Ai.... 300W voor de GTX480.

Dat betekent dat NVidia in grote moeilijkheden zit. Er is geen enkele marge voor het uitbrengen van een dual GPU kaart, tenzij deze enorm omlaag geklokt wordt. Dit betekent dat ATI in elk segment NVidia flink pijn kan doen.
Ze kunnen de prijzen laten zakken zodat alleen Ati zelf nog winst maakt en NVidia verlies moet nemen, tenzij ze marktaandeel loslaten.
Als laatste zijn er nog twee dvi-poorten en een mini-hdmi-poort te zien, waarmee maximaal twee beeldschermen kunnen worden aangesloten.
2+1=2?
Vaak is het of HDMI of DVI. Niet beide tegelijk
Je kan volgens mij maar 1 DVI poort tegelijk gebruiken
Jij weet er volgens mij niets van. Ik heb al jaren 2 monitors aangesloten op m'n 2 DVI poorten.
De HDMI poort deelt met 1 van de DVI poorten, dus als er gebruikt gemaakt wordt van HDMI dan valt een van de DVI poorten uit. Zelfde verhaal van EyeFinity
Nee maar waarschijnlijk bedoelen ze dan dat net zoals in het verleden met 3 aansluitingen er maar 2 tegelijk gebruikt kunnen worden.

Edit: spuit 11 ofzo ... hier zou toch een knop "bekijk bericht" moeten komen :s

[Reactie gewijzigd door kluyze op 18 maart 2010 16:08]

Wacht.. wat is er gebeurd met de 300 serie? Komt er geen GTX 380 ofzo?
Juah, dat gerucht is al ik weet niet hoeveel weken geleden ontkracht :P

Het is nu GTX470 en GTX480 geworden, het zou eerst GTX360 en GTX380 worden, wat mij eigenlijk logischer lijkt, de GT3** kaartjes zijn dan de budget kaarten. en de GTX3** kaarten voor de high end markt. Nu hebben ze er weer een compleet nieuwe serie van gemaakt, omdat het dan 'duidelijker zou worden'
Grappig hoe NVIDIA elke serie andere manieren zoekt om het te benoemen, iedereen compleet mindfucken en dan alsnog claimen dat alles duidelijker word :P
Mensen zoeken ook wat om te zeiken heb ik het gevoel. Eerst was het argument dat NVIDIA zowel oude als nieuwe architectuur chips in een productserie had. Nu beginnen ze met een schone lei en nu gaan mensen zeiken dat ze een serie over slaan. Wat willen jullie nou? 8)7
Dat ze uberhaupt niet een hele serie uit rebrands laten bestaan :+

De gehele GF300-serie was al uit als GF2xx. Tuurlijk is het dan onduidelijk.

[Reactie gewijzigd door bwerg op 18 maart 2010 16:54]

Nvidia was eind 2009 alvast begonnen met budget modellen voor de GF300-serie, dus met kleine DX10.1 GPU's. Dat zou nogal wat verwarring gaan geven, de ene helft van de serie fermi met DX11 en de andere helft een variant op de g92. Dus hebben ze de GF300-high end maar overgeslagen. Overigens zijn sommige van die kaarten (of zelfs allemaal?) al uitgebracht onder een GF2xx-naam, de gehele GF300-serie bestaat dus uit rebrands.
Hebben ze dat dan niet eerder gedaan met rebrands? Ik denk dat het niet eens zoveel zou gaan uitmaken met DX10.1 vs DX11 aangezien de lage GF300 kaarten allemaal onboard en zeer low-end waren en dus toch geen DX9+ zouden kunnen tonen in games.
Volgens mij werd de 300 serie gebruikt voor laptop modellen.

- kan er alleen even geen bron van vinden :/
Hoe bedoel je, normaal zijn er binnen elke serie onderscheidingen tussen laptop en desktop modellen. Dus M voor laptop (mobile), lage nummering voor onboard chips en midden- en hoge nummeringen voor mid- en high-end. Dus dat ze 300 overslaan is erg onlogisch.
Jawel, maar dat zijn nu budgetkaartjes geloof ik. Allemaal weer rebrand troep, zoals zo vaak uit het groene kamp de laatste tijd.
Dus zoals ze nu aangegeven is hij sneller als een HD5970. Ben erg benieuwd naar de benchmarks... Als hij inderdaad sneller is dan is de prijs ook meteen gerechtvaardigd... Heeft wel lang op zich laten wachten...
Nee, volgens het bericht is de GPU het snelst, niet de videokaart. De HD5970 heeft 2 GPU's aan boord. Of de 480 sneller is moeten we afwachten

[Reactie gewijzigd door M.E.Amrani op 18 maart 2010 15:50]

moet je voorstellen dat van de nieuwe nVidia een dual GPU komt, dat ding verslindt alles!!
Ik dacht dat pci-ex specs niet meer dan 300W toe lieten voor een grafische kaart. Een reden waarom de 5970 op 5850 clocks draait.
Als één 480 al net geen 300W doet dan zou er (indien mijn gedacht over de pci-ex specs juist is) geen 'officiële' 480x2 kunnen komen.

Misschien dat iemand mij eventueel kan verbeteren ivm de max 300W van pci-ex, ik lees bv hier dat pci-ex 3.0 tot 300W mag, en dat is dan neem ik aan met extra connectors en dus niet dat ze bedoelen alleen uit het slot.
75watt uit je slot,
75watt van de 6pins connector
150watt van de 8pins als ik het goed heb.
Dan zou je precies op 300watt uitkomen.

Ik zie trouwens niet waarom je maar 300watt aan een videokaart kan geven, je kan toch als kaartenbakker gewoon 2 8pins connectors erop zetten? Dan heb je 375 watt max.
je kan toch als kaartenbakker gewoon 2 8pins connectors erop zetten? Dan heb je 375 watt max.
Alleen dan kun je hem niet als PCI-e videokaart verkopen, aangezien die niet aan de specificaties van de PCI-SIG houden. :)
En deze kaart dan:
nieuws: Cebit: Asus toont HD 5970 Ares en 3DMark Vantage-score

De speciale HD5970 van asus die (in theorie) 450 watt trekt... 2x 8pins en 1x 6pins.
Ik denk dat deze ook gewoon als PCI-e kaart wordt verkocht.

Daarnaast heb ik even http://www.pcisig.com/spe...ciexpress/specifications/ doorgelezen, maar volgens mij wordt daar niks vermeld over hoeveel watt die mag verbruiken. Alleen mag er maximaal 75 Watt uit het PCI-e slot worden gehaald en moet het aan die specificaties voldoen. Wat de fabrikant er daarna nog aan PEG stekkers op duwt maakt volgens mij in principe geen snars uit...
De standaard staat 300W toe (zie dit document: http://www.pcisig.com/spe...tions/ECN_Power_Limit.pdf er wordt niets genoemd boven 300W, je mag er dus van uit gaan dat dat de upper limit is), dat is de reden dat AMD en nVidia daar niet overheen zullen gaan. De 5970 is wel gemaakt om meer te kunnen verbruiken, maar het concept moet wel aan de standaard voldoen bij verkoop.
Zo ver hebben we enkel 5970's gezien volgens het standaard AMD ontwerp. Maar een bedrijf als Asus staat het vrij om er meer mee te doen.

AMD hoeft wee geen garantie te geven op kaarten die kapot gaan door overklokken. Daar heb je meteen de reden dat die hoog geklokte kaarten rond de 1000 euro moeten gaan kosten (iig die van Asus).

Voor een dual 480 kaart zou je 3 8-pins en 1 6-pins power connector nodig hebben. en dan moet de zaak nog gekoeld worden... Ik zie hier al 3 heatpipes, met een dubbele kaart zou er een flinke koeler nodig zijn.
No offense, maar wie koopt nu een kaart van 375W? 300W is al een dealbreaker voor mij.
Zegt hij dat?
Hij vraagt zich af waarom ze niet x aantal y connectors aansluiten zodat er een 375W kaart kan worden geproduceerd. Mijn antwoord: Er is tegenwoordig weinig tot geen markt voor zo een enorme energie slurper.
Want?
Het enige wat je hier leest is dat het de snelste GPU is. ALS dat bijvoorbeeld 1% is op een HD5870 dan is dat in theorie 2% op een HD5970 als ze 2 cores laten samenwerken. Verslinden? En dat meer dan 4 maanden NA dat de ATI kaart er is...nee, sorry echt niet. Die GPU moet wel erg veel sneller zijn dan de HD5xxx-serie om een nette indruk achter te laten. Dat gecombineerd met het extreme stroomgebruik lijkt mij die kans niet erg groot.
Uhm, als dat 1% is op een HD5870, dan is dat in theorie 1% op een HD5970. Als 1 core 1% sneller is, dan zijn 2 cores nog steeds 1% sneller. Daarnaast is dat wel heel theoretisch. Ten eerste zijn de clocks van de HD5870 en de HD5970 niet gelijk en daarbuiten zijn er vele factoren waaronder de drivers die de praktijk aanzienlijk van de theorie af kunnen laten wijken.

Verder ben ik wel met je eens dat ze geen grote indruk zullen maken met een kaart die enkele procenten sneller is dan een HD5870, maar dat moeten we nog afwachten.

[Reactie gewijzigd door jvo op 18 maart 2010 16:58]

Ja, behalve als ze net als AMD (waarschijnlijk) niet kunnen leveren. Die chips worden in dezelfde fabriek gemaakt, met dezelfde problemen.
Plus de extra problemen die een complexe chip met zich mee brengt
En tegen welke prijs? Voor dat geld (ongeveer) heb je 2 iets minder snelle GPU's die samen dat nVidia ding opvreten en niet eens veel meer verbruiken ;) (owja ik ben geen fan boy, ik koop gewoon het beste op dat moment voor de mooiste prijs)

Owja en de prijzen zijn helemaal nog niet zo zeker, ik denk dat het rustig 100 dollar hoger uit valt door al die cuda cores enzo, de core zal aardig groter zijn als een ati tegenhanger, en dus duurder :)

[Reactie gewijzigd door watercoolertje op 18 maart 2010 16:04]

Moet je voorstellen dat er een dual-GPU komt van deze kaart, dan heb je een TDP van bijna 600W :| Die verslind inderdaad alles als je minstens waterkoeling hebt... Bijna één paardenkracht :P

En degene boven me heeft het bij het juiste eind, 300W is het maximum. Als je een dual-GPU maakt (met dus een TDP van 600W als je de kloksnelheden ongewijzigd laat) zul je de clocks zover omlaag moeten schroeven dat je uiteindelijk een kaart hebt die nauwelijks sneller is dan de single-GPU. Oftewel: dit gaan ze niet doen. Misschien dat er nog een retailer met een custom dual-GPU komt (zoals de asus mars en ares die beiden een TDP van over de 300W hebben) maar NVidia zal zich daar niet aan wagen. De mars had al genoeg hitteproblemen trouwens, buiten de PCIe-specs werken is riskant.

Nee, zowel een single-GPU als dual-GPU versie van fermi zullen niet over de prestaties van de HD5970 heen komen helaas.

Dat 'ie sneller is dan de HD5870: nou, wat een nieuws :+ het is veel duurder, groter en heeft een veel hoger verbruik. Dan is het niet knap dat dit ding sneller is. Sterker nog, als hij maar 20-30% sneller is vind ik het al een aardige fail. Maar goed, er is nog steeds niks bekend over de uiteindelijke prestaties. De éne 'betrouwbare bron' zegt 40% sneller en de andere bron zegt maar 20% sneller. :P

[Reactie gewijzigd door bwerg op 18 maart 2010 16:34]

Inderdaad. Ook je stroomrekening...
En je bankrekening...
Pff reden 1 om deze kaart niet te kopen
Hmm... als je bankrekening niet veel groter is dan een kleine €1000,- dan is Fermi het laatste waar ik me zorgen om zou maken...
Dat zou ik niet te hard zeggen, de overclockte HD5970 is er ook nog he ;)

Daarintegen loopt Nvidia gewoon achter op het moment, en totdat de reviews en benchmarks er zijn is het gewoonweg nutteloos om hierover te gaan speculeren.
Inderdaad snelste GPU, niet videokaart, dat zal de HD5970 met gemak blijven.
Van de GTX470 wordt verwacht dat die net iets sneller is dan een HD5850, maar trager dan een GTX480. En van de GTX480 wordt verwacht dat die net iets sneller is dan de HD5870, maar veel trager dan een HD5970, terwijl het verbruik ongeveer gelijk is als een HD5970...
Hoe kun je zulke voorspellingen al doen?

Afgezien van specificaties en een paar "inhouse" benchmarks is er nog niet veel bekend over de performance.

De 5970 zal ie miss niet verslaan, maar dat "met gemak" mag wel weg denk ik.
Idd, ik gok dat hij de 5870 met gemakt zal inmaken, dit mag ook wel met deze TDP, met mijn 600Watt voeding is het met deze kaart zelfs nog krap aan. Als deze in Dual GPU kom dan zal dit zeker de topper zijn boven alle ati kaarten, maar zal het ook de zelfde prijs of lager kunnen geven?
Of blijft Nvidia zoals altijd heer en meester in te hoge prijzen.
Sneller dan de HD5870 is leuk, maar het zal vooral ook een pluspunt zijn als hij ook beter leverbaar is dan de HD5XXX serie. Ik wacht al ruim 4 maanden (!) op de levering van mijn HD5970. :O
@d3vlin
wij hebben de HD5870 hier in de winkels gewoon liggen :?

ik blijf toch liever bij ati , nvidia heeft altijd wel mankementen, is het de videokaart zelf niet dan zijn het de drivers wel... ati heeft misschien zo ook wel zijn nadelen, maar als gebruiker merk ik daar zelf maar al te weinig van, dus ook deze GTX 480 zal mij passeren tot dat nvidia iets doet aan de kwaliteit/prijs. Voor deze prijzen kan je veel beter spul vinden.
ATi heeft anders op dit moment behoorlijke driver problemen met hun HD58xx's. Zoals AmigaWolf al aangeeft hebben beide bedrijven genoeg problemen gehad.

Ontopic: wat een beest. Ik vrees dat deze alleen vrij lastig te temmen is. Bijna 300w voor 1 GPU, waar gaat 't toch naar toe zeg...
Ontopic: wat een beest. Ik vrees dat deze alleen vrij lastig te temmen is. Bijna 300w voor 1 GPU, waar gaat 't toch naar toe zeg...
bij tri- & quad-sli: Naar 'n huis zonder verwarming van de cv-installatie? :+
't is maar goed dat EVGA gisteren dit bord aankondigde: http://www.evga.com/articles/00537/
Nu de vraag passen 4 van dit type kaarten op zo'n bord?
(ik denk van niet)

[Reactie gewijzigd door rj1093 op 18 maart 2010 21:17]

Denk het ook niet, want zoals in het artikel staat; de kaart neemt inclusief koeler twee uitbreidingsslots in beslag. Kan me niet voorstellen dat het EVGA bord genoeg ruimte bied tussen de PCI x16 sloten om ze allevier te kunnen gebruiken met een dubbelslots kaart. Wordt een flink moederbord dan.
Wat een onzin zeg, alle Fabrikanten hebben wel mankementen, Ati heeft dat en Nvidia heeft dat.

Ik heb zelf all 23 maanden 2x Geforce 8800GT en ik heb nooit problemen met mijn kaarten gehad, en ook zo goed als nooit problemen gehad met drivers.
@AmigaWolf, Niet lullig bedoelt, maar wacht maar dat die 8800 kaarten door een bekende produktie fout dood gaan, gezien de leeftijd kan dat al vrij snel zijn. Op GoT loopt overigens ook een topic hierover. Nee Nvidia, mag zich eerst weer gaan bewijzen dat zij degelijke produkten op de markt kan zetten. (ik verwijs naar het hele G84, G86 en G92 debakel)
Ik heb hier 2 8800GTX'en en ze draaien nog prima :).
Het is met name Ati die bekend staat om brakke drivers en falende support voor oudere kaarten/games;).
Drivers zelf zijn wel goed tegenwoordig.
Maar wel brak ja...
Moest wel 40 keer de drivers instaleren.
Op het laats maar de drivers + apparte CCC geinstaleerd ben er 1 uur mee bezig geweest.
Er gaan geruchten dat hij 5 - 10% sneller word dan de 5870... snap je nu wat er bedoelt word met "met gemak" ? Als die geruchten gebaseerd zijn op oudere drivers dan de 10.3, betekend dat dus nog minder aangezien deze gemiddeld al 5% winst boeken in veel games.
Wat performance betreft kunnen we maar beter afwachten tot de eerste reviews. Het feit dat er nog niets van cijfers gelekt is stelt wat dat betreft niet echt gerust. Maar we zullen zien.

Ik zeg nu al dat er geen dual kaart van uit komt, dit kan simpelweg niet omdat die dan zeker meer dan 300 watt zal trekken, 300 watt is de limiet voor een kaart volgense de PCIe of de ATX specs.
AMD heeft het met de 5970 voor elkaar gekregen op 294W of zo te blijven, maar dat enkel door de lagere snelheden per core en de lagere voltages. Als deze kaart alleen al 300 watt gebruikt dan hoeven we geen dual kaart te verwachten.

Dat filmpje is ook leuk, nou doen ze net of ze tesselation hebben uitgevonden... dat zat al op de Radeon 9800PRO, sindsdien heeft ATI geprobeert dat in de DirectX specs te krijgen...
Eigenlijk zat het al op de Ati 8500, maar is het niet/nauwelijks gebruikt aangezien het (terecht) nooit erg populair geweest is om voor 1 specifieke kaart te programmeren.
Wat nog leuker aan dat filmpje is, is dat Nvidia hier zelf al aangeeft dat de GTX480 GELIJK presteert aan een 5870!

Alleen als je een benchmark draait die extreme tesselation gebruikt presteert de 480 beter. (dat zijn niet mijn woorden, maar de woorden van die Nvidia figuur over die grafiek...)
Hoeveel spellen kennen we die in die mate tesselation gebruiken?
Hoeveel spellen zijn er aangekondig die dat doen?
(bedenk daarbij dat een game developer die draak er ook op een DX10 kaart goed wil laten uitzien)

Als je dan nog bedenkt dat Nvidia uiteraard het allerbeste best-case scenario gebruikt voor zo'n video, dan ziet de toekomst voor de GTX 480 er bepaald niet rooskleurig uit.

(er is neem ik aan niemand die denkt dat de 480 dezelfde prijs zal krijgen als de 5870?)

[Reactie gewijzigd door mjtdevries op 18 maart 2010 19:34]

jongens hou even in het achterhoofd dat deze kaarten niet alleen gemaakt worden voor gamers ;)
De HD5970 is twee GPU's.
Ik zou zeggen dat, tenzij de 480 ook 2 GPU's heeft, een vergelijking met de HD5870 beter is.
Helemaal mee eens. Sinds de 8800gt werd ingehaald door de budgetkaarten van ATi hebben zij al de price/performance crown. Ik hoop dat op basis van deze cores niet veel later een goedkoper model a la 8800gt toentertijd uit zal komen die de 5770 in elk geval verslaat voor een lagere prijs.
Ik ben geen fan boy maar eerlijk is eerlijk. Ik heb met regelmaat gewisseld tussen ATI en Nvidia. De minste problemen heb ik gehad met Nvidia (Geforce 1, 2 en 8800GTS).
Meeste performance boost voor mijn gevoel met mijn ATI X800 XT (kon je eenvoudig unlocken). Maar dat is maar net wat je ervoor er in had zitten. Wat ik jammer vind is dat het lang duurt voor dat er games zijn die echt goed gebruik maken van multi core CPU en bv. SLI of CF. Ik had één van de eerste 8800GTS-en maar heb lang moeten wachten op de DX10 games. Hoe zit het nu met DX11, is dat al de moeite om van een GTX 260 over te stappen naar een snellere en DX11 kaart?
Lijkt mij nog lang niet nodig, alle games zullen voor nu nog DX10 blijven omdat meeste gamers nog niet een DX11 kaart hebben, makers weten ook wel wat ze doen, DX10 zal ondersteuning blijven krijgen voor denk ik nog makkelijk 1-2jaar. Dus jouw kaart is meer dan goed.
Nee meeste games zullen tot 2012 zelfs nog Dx9 blijven omdat pas dan de consoles eindelijk eens doorhebben dat de wereld niet samen met hen stilstaat.
Gemiddeld spel is ook 2-3jaar ontwikkeling. Daarom zie je al sinds vorig jaar een Dx11 update van de UnrealE en kan je binnen 2-3jaar 90% ondersteuning voor Dx11 verwachten.

Developers gaan ook meer geneigd zijn om met Dx11 te experimenteren voor de toekomstige consoles ipv bij Dx10 wat niet zo interessant was voor iedereen.
Ik had één van de eerste 8800GTS-en maar heb lang moeten wachten op de DX10 games. Hoe zit het nu met DX11, is dat al de moeite om van een GTX 260 over te stappen naar een snellere en DX11 kaart?
DX10 ging langzaam omdat het totaal anders is dan DX9. Dit betekende dat games 2x ontwikkeld moesten worden om beide standaarden te ondersteunen. Uiteindelijk kozen alle games DX9 en maakte een flauw aftreksel van een DX10 versie.
DX11 zal veel sneller gaan omdat een DX11 spel ook super zal draaien op DX10.1 en DX10. Dit keer zal de DX9 een slap aftreksel zijn wat perfect is omdat DX9 gamers niet veel verwachten.
Nou dat laten ze tactisch in het midden omdat de 5970 een 2 gpu's aan boord heeft op 1 kaart. Ik denk dat ze hier dus suggereren dat de nieuwe GTX 480 sneller moet zijn dan de 5870 met beide 1 GPU aan boord

[Reactie gewijzigd door Jaapoes op 18 maart 2010 15:52]

Het zou wat zijn als hij trager was. Een geschat stroomverbruik dat aardig op 5970 niveau ligt en dan nog niet sneller zijn als een 5870 - laat maar zitten dan. Dat ding raken ze aan de straatstenen niet kwijt. Dat zal dus wel meevallen, hij zal óf een aardig eind sneller moeten zijn, óf dat geschatte stroomverbruik moet in de praktijk veel lager blijken, maar anders wordt dit natuurlijk niks.
Het zou wat zijn als hij trager was. Een geschat stroomverbruik dat aardig op 5970 niveau ligt en dan nog niet sneller zijn als een 5870 - laat maar zitten dan.
Dat is ook precies wat ik dacht. De allersnelste ATI van dit moment zit volgens mij ook rond de 300W en gebruikt 2 GPU's. Als deze kaart 300W trekt en met één GPU de dual-GPU-kaart van ATI voorbij gaat: soit. Trekt hij echter 300W en gaat hij niet voorbij de 5870, dan zie ik weinig hoop voor andere kaarten van nVidia....

Ik heb 10 jaar lang met veel plezier en minimale problemen nVidia-kaarten gebruikt. (TNT2 Pro, GeForce 2 Ti, Ti-4600, 7600GT, en mjin huidige 9600GT). Als deze GPU echter 2x zoveel stroom trekt als de GPU van ATI zonder sneller te zijn, dan is het best wel een GeFarce. De ATI's gebruiken véél minder stroom. Ik zit daarom al een tijdje te kijken naar een passieve HD5750, om mijn (ook passieve) 9600GT te gaan vervangen.

Maar ja. Op mijn huidige 1280x1024-scherm en te spelen spellen heb ik nog niets snellers nodig. Volgend jaar rond deze tijd verkoop ik mijn hele systeem én scherm, en dan komt er een nieuwe computer en een 24+ inch monitor. Ik zie wel wat er dan te koop is.
Ik zit daarom al een tijdje te kijken naar een passieve HD5750
Misschien komt er ook wel een passive fermi, waarom niet? O-)
Ja, die "komt" er al bijna een jaar.

De HD5750 is er -nu-.

Als ik besluit een nieuw systeem te gaan kopen, dan kies ik mijn hardware uit de spullen die er op dat moment zijn. Ik ga niet maanden wachten omdat fabrikant X misschien wel eens met goed product Y zou kunnen komen.
psst, het was een grapje, een passive kaart met TDP van 295W wordt heter dan de gemiddelde over ;)
Volgens mij geven ze dat niet aan... ze hebben het over de snelste GPU en niet de snelste kaart... de 5970 is een dual GPU, dus volgens deze slide hoeft hij enkel de 5870 voorbij te gaan.

[Reactie gewijzigd door belstrekkie op 18 maart 2010 15:51]

De 5970 was rond de 600 dollar dacht ik, dan zal de 480 dus goedkoper zijn bij de release.
Maar we weten allemaal dat de prijzen en de verkrijgbaarheid van ATI veel beter zullen worden als de nieuwe Nvidia kaarten een tijdje op de markt zijn.
Een 5870 kan je nu met de slechte vraag/aanbod verhouding voor ongeveer €340 krijgen binnen 10 werkdagen, de 5850 voor €245. Als de geruchten kloppen zal de GTX 480 voor ongeveer €450 verkrijgbaar zijn, de GTX 470 voor ongeveer €320.

Dus zelfs met de verhoogde prijzen van AMD zou de GTX 470 maar €20 goedkoper worden dan de 5870 terwijl de verwachtte prestaties daar bij lange na niet in de buurt zitten. De GTX 480 zou op zijn beurt ruim 30% sneller moeten zijn dan de 5870 en natuurlijk nog meer wanneer de prijzen van AMD gaan dalen.

Ik hoop dat de geruchten ergens niet kloppen, want op deze manier bied Nvidia straks veel te weinig concurrentie.
Als de kaart al goedkoper word als een 5850, dan hoef je echt niet te verwachten dat ie wel sneller is.

Dat is niet echt de tactiek van nVidia imo, als de 470 sneller is word ie ook duurder
Retail prijs van SabrePC, de GTX 470 kost $499,- , de GTX 480 kost $678,-
Volgens officiele videos op youtube was hij duurder.
En wederom krijgen we een totaal nutteloos stukje info van nVidia, omdat we de referentiekoeler met heatpipes al kenden. Scores hebben we nog niet, behalve hun claims dat ie sneller is (en een benchmark/tech demo die *speciaal* voor die kaart is geschreven). Ik ken auto's en films die met minder poespas zijn aangekondigd.

Maar dan komt het schokkende nieuws: je kunt er 4 beeldschermen mee aansluiten - in theorie. 2 met de mini-HDMI, en 2 met elk een DVI-adapter. Ik durf er op te wedden dat er straks ook een versie komt waarop meer dan 4 beeldschermen aan te sluiten zijn, zoals ATI's Eyefinity. Met een meerprijs uiteraard.

Ook leuk: Via de PCI-E slot krijgt de kaart 75 watt, via de 6pins 75 watt en via de 8pins 150 watt (correct me if I'm wrong). Als mijn hoofdrekenkunsten nog steeds werken, is dat 300 watt maximaal. Da's veel power voor een enkele GPU.

[Reactie gewijzigd door TheGreatAtuin op 18 maart 2010 16:07]

Scores hebben we nog niet, behalve hun claims dat ie sneller is (en een benchmark/tech demo die *speciaal* voor die kaart is geschreven). Ik ken auto's en films die met minder poespas zijn aangekondigd.
Dat heet marketing ;) :+

Wat ik me afvraag is waarom de kaarten van ATi een geheugen bus hebben van 256 bit en 128 bit en nVidia hier met 384 bit komt , maakt dit echt zo veel verschil?
Met deze kaart zou je zowieso duurder uit zijn bij een systeempje want je zult ook een krachtigere voeding moeten aanschaffen voor het allemaal van "juice" te voorzien.
Bandbreedte maakt wel een verschil. Wat ik vreemd vind is waarom Nvidia zich niet "gewoon" aan de standaard van x^2 houd. Maar daar precies tussenin gaat zitten. Het lijkt wel haast of ze geen 512 bit kunnen maken maar wel meer dan 256 willen.
Waarom zou je je aan die standaard moeten houden? 512bit bus is heel erg duur heb ik me laten vertellen maar om de brute kracht van hun GPU af te kunnen zetten hebben ze waarschijnlijk wel meer nodig dan 256, dus ja.
Je moet gewoon zorgen dat je de hoeveelheid geheugenbandbreedte goed op de GPU afgestemd is, hoe je dat aanpakt zal me eigenlijk een zorg zijn. Nvidia kiest voor een grote geheugenbus, net als bij de GF200's, waar ATI hun geheugen op een hogere kloksnelheid draait (dacht ik ten minste, kan het even niet terugvinden). Zo had de HD4870 een behoorlijk kleine geheugenbus, maar wel als enige GDDR5-geheugen. Het resultaat is hetzelfde. In dat opzicht is er helemaal geen standaard.
Nee, met meerdere uitgangen kan je nog steeds maar 2 beeldschermen aansturen. Voor elk beeldscherm is niet alleen een uitgang nodig maar de GPU moet ook al die beelden kunnen leveren. Meeste kaarten kunnen dus maar 2 beeldschermen aansturen, tenzij je daar een aparte implementatie voor maakt zoals bij eyefinity.

Mocht er een feature als eyefinity komen, dan moet de GPU er dus echt op aangepast worden. Dus misschien bij fermi 2, maar bij deze zeker nog niet.

[Reactie gewijzigd door bwerg op 18 maart 2010 16:59]

Daarom zal er ook geen dual GPU kaart komen gok ik, dan zal het verbruik rond de 500watt liggen...
4870 sneller dan GTX280? Nee, net zo snel (in games vaak wat langzamer) als GTX260 toch?
Om precies te zijn zat de HD4870 qua prestaties tussen de GTX260 en GTX280 in, waarop gereageerd is met de G200b die in de GTX285 en de GTX260 core216 zitten. Die core216 was inderdaad ongeveer even snel als de HD4870.
HD4870 en GTX260 192 gingen head to head. Daarna de HD4870 1GB en de GTX 260 core 216. Je kon alleen door de lage prijs van de HD4850 en HD4870 makkelijk 2 kopen en nog geld overhouden(En er was al een goeie installed base dankzij het feit dat Intel Crossfire ondersteunde). Hierdoor zijn de prijzen van Nvidia rap naar beneden gegaan.
>De gpu zou een tdp krijgen van minder dan 300W

Klinkt bijna alsof 300W weinig is .... ( of kom ik nu vanonder een steen gekropen? )
Mijn GTX295 heeft ook een tdp van 295, dus op zich verstookt deze kaart aardig wat energie! Dat wordt een hoge bijtelling ;-)

Daarnaast ben ik wel benieuwd wat de nieuwe generatie van Nvidia gaat brengen. Als trouwe "The way it's meant to be played" fan, kijk ik naar de volgende 495GTX uit.
jE zou toch op zijn minst verwachten dat Nvidia de nieuwe generatie een stuk zuiniger heeft gemaakt.

Het is toch belachelijk dat jouw dualcore videokaart nog steeds net zoveel verbruikt als een nieuwe generatie single core 480.
Viel me ook al op.

" Snelste kaart ter wereld, maar hij vreet wel 107 watt meer dan de 5870" LOL
Gaat dit nu de nieuwe Nvidia bash worden?
Zoals je in een eerdere reactie van mij kunt lezen, heb ik 10 jaar lang nVidia-kaarten gehad. Omdat Dragon Age op mijn 9600GT maar krap 30 FPS haalt op full settings en 1280x1024 in de drukkere gebieden, overwoog ik een nieuwe grafische kaart (en cpu) als tussenstap voordat ik volgend jaar een geheel nieuw systeem ga halen.

Kort gezegd ben ik de laatste 1,5 jaar zo not-impressed met nVidia dat ik een HD5750 overwoog (en nog overweeg). OK, de GTX295 is tijdenlang de snelste kaart geweest. Hij kan nog steeds meekomen met een HD5870.

ATI heeft echter het stroomverbruik flink teruggebracht. Zo uit mijn hoofd trekt een HD5870 ongeveer evenveel stroom als een GTX260... 175W of iets in die richting toch?

Een HD5750 is toch weer een stukje sneller dan een 9600GT. Hij zit zo iets boven de GTS250, en net onder de GTX260. Echter, hij gebruikt met ongeveer 80W zelfs minder stroom dan de 9600GT, en kan net als die laatste passief gekoeld worden. Dit, in combinatie met de driververbeteringen die ik door de jaren bij ATI heb gezien (bij vrienden, ik heb zoals gezegd altijd nVidia gehad), doet mij voor mijn volgende kaart zeer zeker wél een ATI overwegen als ze zo doorgaan.

Het enige waar ik een beetje mee zit is dat er geen PhysX inzit, en dat wordt toch wel gebruikt. (En zit er aspect ratio scaling in de driver? ATI heeft dat gehad, toen eruit gesloopt, later weer erin gedaan.... ik weet even niet hoe het daar nu mee staat.)
over physX zou ik me echt geen zorgen maken, de games die het gebruiken (hardware matig) zijn op een hand te tellen, en het bied imo nu nog weinig extra.

pas als physics echt invloed gaat hebben op de gameplay, ga ik het interessant vinden.
maar het lijkt me duidelijk als dat gebeurd, dat het via een open standaard gaat, aangezien ze anders alleen het spel aan nVidia gebruikers kunnen verkopen
Huh?? Heb je wel het verschil gezien in bijv Batman en Mirror's Edg tussen physx en geen physx? Het is verschil is groot en duidelijk merkbaar. In tegenstelling tot bijv grafische verschillen tussen DX10 en 10.1 en 11, daar kun je uren naar het plaatje turen om soms minimale verschillen te spotten. Bij games met physx merk je duidelijk grote grafische verschillen. Dus ja, voor een aantal games is het wel degelijk een relevante keuze, een kaart met of zonder physx. Het aantal games zal bovendien alleen maar toenemen. Ik heb Mirror's Edge gespeeld op een oude 8800GTS 512MB, en op een HD5870. Nou voor dit specifieke spel , doe mij maar de GTS :) Ik swap dus ook op dat moment echt meteen terug naar de GTS, de HD5870 is gevoelsmatig een vreselijke achteruitgang in zo'n game.
Of je hebt niet opgelet of je bent een freak met onwijs veel vingers :+ .

http://www.nzone.com/object/nzone_physxgames_home.html
Ik heb nu een ATi 5850, hiervoor 8600GT.
PhysX mis ik niet - alles ziet er prachtig uit, ook spellen met PhysX zoals Batman en Mirrors Edge.

Zover ik weet doet ATi gewoon aan aspect ratio scaling - als ik 4:3 apps start krijg ik automatisch zwarte balken links/rechts die het verschil compenseren.
Tsja wel als ik je overwegingen zo bekijk hoef je hier niet op te wachten want dit is voor de high end en de geruchten dat nVidia ook voor middle range kaarten gaat uitbrengen, is just that, geruchten waarmee het waarschijnlijk minimaal een half jaar duurt al ZOU nvidia ze ontwikkelen.

Dus ja, of je nu wilt of niet, op de mid range heb je momenteel (ok, je kan voor een verouderde high end van de vorige generatie gaan) geen keus.
Even sidenote, de GTX295 ( door dual gpu ) presteerd beter dan de 5870 in vrijwel alle benchmarks. dus het is eerder dat de 5870 mee kan komen met de GTX295.
Bash? Het is toch gewoon de waarheid?
Waarschijnlijk is de GTX480 ongeveer 10% sneller voor minstens 50% meer stroomverbruik.
We zullen moeten wachten op de reviews om te zien wat de cijfers precies zijn, maar dat de performance/watt kroon bij ATi blijft is wel zeker.
Er staat nergens hoeveel sneller die is. Dus gaarne eerst de reviews afwachten en daarna gaan zeggen dat het "de waarheid is" misschien presteerd ie wel 50% sneller waardoor het stroomverbruik ook 50% hoger is.
Hoezo bash? Gewoon de feiten op tafel neerzetten. Iedereen kan een snelle kaart bouwen, maar dan moet dit niet ten koste gaan van het verbruik.
Iedereen doet alsof het ding eigenhandig het broeikaseffect met 50% verergert ofzo. Kom op, het is een maximumverbruik van misschien dus 300 Watt, maar hoeveel van je tijd draait je CPU op max? Het idle verbruik lijkt mij veel belangrijker. Stel dat het inderdaad 100Watt scheelt en je gebruikt een keer 2 uur per dag de GPU volledig (wat mij al veel lijkt) dan is dat nog geen 20 euro per jaar aan stroomverschil. Denk je nou echt dat een hardcore gamer die 400 euro of meer wil uitgeven aan een GPU daar moeilijk over gaat doen?
Voor de warmteproductie maakt het natuurlijk niet zoveel uit hoe vaak je dat ding gebruikt. Verbruik verminderen is niet alleen leuk om milieubewust te zijn, het zorgt er ook voor dat die kaart niet overhit raakt of een zwaardere koeling nodig heeft. Ook heb je er een dikkere voeding voor nodig. Al draai je maar vijf minuten per dag voluit.
Dergelijke kaarten worden door echte gamers gekocht die graag veel mooie sprankeltjes op zijn scherm willen zien. 700 watt voeding is tegenwoordig de minimum voor dat.

Personen die af en toe een spelletje spelen die kijken toch niet naar dit segment videokaarten.
Dat is niet waar. Op de eerste plaats heb je voor een enkele kaart geen 700 watt voeding nodig, op de tweede plaats draait een HD5870 alles en met genoeg sprankeltjes aan.
Recommended Power Supply
So here's my power supply recommendation:

GeForce GTX 295

A GeForce GTX 295 requires you to have a 700 Watt power supply unit at minimum if you use it in a high-end system. That power supply needs to have (in total accumulated) at least 50 Amps available on the 12 volts rails.

Bron: http://www.guru3d.com/art...gtx-295-review-engtx295/5
Warmte is een non-issue sinds de uitvinding van de heat exhaust die de warmte direct de kast uit blaast...
Alsof je 300W aan warmte door dat kleine gat krijgt... :)

Warmte = verhoogde kans op neveneffecten (lawaai, vastlopers, defecten,..). Dus het is altijd een issue.
Is dat ding nog wel te overklokken dan?

Of moet je zelf op een of andere manier voor meer stroomtoevoer zorgen als je dat wilt?
Zit waarschijnlijk nog wel wat rek in de 6 pins maar toch.

@ Spots
Sterker nog, die 300 laptopserie zijn geloof ik allemaal rebranded 200 serie.

http://www.hexus.net/content/item.php?item=21520
http://www.tcmagazine.com/comments.php?id=31367&catid=2

[Reactie gewijzigd door TheStonedOne op 18 maart 2010 16:31]

Of het goed overklokt is nog een raadsel. Met zo'n verbruik zal er dan sowieso een hele lompe koeler voor nodig zijn maar met waterkoeling o.i.d. krijg je zo'n ding wel gekoeld. Dan moet ook de GPU nog zo ver kunnen gaan, er waren nogal wat productieproblemen bij TSMC waardoor de kloksnelheden omlaag moesten dus misschien gaat overklokken niet zo best. Aan de andere kant, meer lekstroom geeft ook een betere OC-kaart dus dat zou ook kunnen (dan vliegt het verbruik wel omhoog bij een OC, maar goed, dat maakt voor een 3D-mark-record niet uit :))

Maar goed, is dus maar afwachten. Dat dit ding zo 50% overklokt zie ik echter niet gebeuren :P

[Reactie gewijzigd door bwerg op 18 maart 2010 16:45]

Op dit item kan niet meer gereageerd worden.



LG Nexus 5 (2015) Apple iPhone 6s FIFA 16 Microsoft Windows 10 Home NL Star Wars: Battlefront (2015) Samsung Gear S2 Skylake Samsung Galaxy S6 edge+

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True