Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties

Nvidia heeft tijdens een demonstratie het een en ander losgelaten over een nieuwe videokaart, die dinsdag uitkomt. De videokaart, vrijwel zeker de GTX 580, wordt gekoeld door middel van vapor-chamber-koeling en zou stiller zijn dan de GTX 480.

De demonstratie vond plaats tijdens de Pdxlan en is terug te kijken op YouTube. De videokaart zou, bij zijn verschijnen op dinsdag, de snelste DirectX 11-gpu ter wereld zijn en beschikt over een nieuwe koeler. Het kan dan ook bijna niet anders of het gaat over de GTX 580, waarvan de specificaties al zijn uitgelekt.

De GTX 480 staat bekend als een heethoofd, die het nodige lawaai produceert als hij de gpu probeert te koelen. Aangezien de GTX 580 nog sneller is dan de GTX 480 en waarschijnlijk ook meer energie verbruikt, besloot Nvidia om een nieuwe koeler in te zetten. De koeler maakt gebruik van een vapor-chamber en zou effectiever zijn dan de koeler van de GTX 480. Dit moet resulteren in een geluidsafname van omstreeks 7 decibel.

Tijdens de demonstratie wordt ook ingegaan op tesselation en er zijn gameplay-beelden te zien van Call of Duty: Black Ops, wat overigens geen DirectX 11-spel is. Het is nog maar de vraag hoe lang de gpu de snelste ter wereld blijft, aangezien ook AMD deze maand een nieuwe high-end gpu zal introduceren.

Moderatie-faq Wijzig weergave

Reacties (109)

Ik had gisteren ergens gelezen dat nVidia aan het terugkomen was van gpgpu, hierdoor het aantal transistors met 300milj had laden zakken, en zich terug meer was gaan specifieren op echte FPS... Waardoor deze nu dus beter presteert en minder verbruikt :)

Even kijken of ik deze bron nog terugvind!
=> http://www.megagames.com/news/geforce-gtx-580-forgoes-gpgpu

[Reactie gewijzigd door mendel129 op 8 november 2010 09:47]

Elke DX11 kaart is per definitie goed geschikt voor gpgpu.

Dat Fermi specifiek voor gpgpu was gemaakt was gewoon een marketingtruuk. Als game-kaart kon dat ding niet tegen de Radeons op, dus heeft Nvidia de marketing focus gericht op het enige punt waarop ze het wel goed deden: Cuda.

Wat betreft hardware was het echter gewoon een normale game-kaart.

Er is dus ook niets weg te halen in het ontwerp om zich weer meer te richten op games.
vapor-chamber-koeling??

Wat moet ik me daarbij voorstellen?

Dat er een warm/koud vloeistof circulatie door de pijpleidingen van de koeler heengaat, doormiddel van het verdampen van water?
Wordt de koeling dan niet wat groot?
Het is een soort platte omnidirectionele heatpipe. Dus ipv dat de warmte van het ene naar het andere uiteinde word getransporteert gaat het vanuit het midden naar buiten.

Het is ook niet nieuw sapphire (oa) gebruikt ze al jaren.
Ahzo, geeft het ook een betere koeling, of is die hetzelfde en alleen stiller?

Aan de andere kant, fabrikanten zullen toch wel weer hun eigen koelers erop zetten, als dan niet met of zonder damp-kamer :)
'NVIDIA has revealed a new vapor chamber cooling system, which reminds us of Shuttle's ICE CPU cooler -- basically, water sealed within the chamber gets boiled by the hot elements (a copper plate in NVIDIA's case), which forces it to transfer heat away to the bits that are being cooled by the fan, where it chills out and recycles itself back to the boiling plate. The end result, according to NVIDIA, is about seven decibels less vroom relative to the GTX 480, along with lower operational temperatures. '

aldus Engadget
Mooi ding, maar is dit net zo'n over-rated ding als de GTX 480 ??
Waarneer zal AMD het weer verslaan is nu de vraag..

[Reactie gewijzigd door xdooma op 8 november 2010 09:04]

Het zal altijd een kat en muis spelletje blijven tussen AMD en nVidia, alleen is er van de GTX580 op het moment nog niks bekend, en de topkaarten van AMD van de 6xxx serie is ook nog weinig van bekend dus speculeren heeft geen zin.
Er is best wel veel bekend over de Cayman als je kijkt naar Barts.

Barts is per mm2 ongeveer 40% sneller dan Cypress.
Als je dan kijkt naar Cayman met zijn +400mm2 en laten we voorzichtig zeggen tussen de 30~40% sneller per mm2 dan Cypress, en plus nog eens 30% groter is, is er een redelijke kans dat Cayman minimaal zo een 70% sneller is dan Cypress.

Je kan dan zelf beoordelen of de, naar de eerste berichten 20% snellere GTX580 dan GTX480, genoeg is om ATi's HD6970 te verslaan.

[Reactie gewijzigd door player-x op 8 november 2010 10:51]

Hier is nog wel het een en ander meer over te zeggen, natuurlijk. :) Ten eerste heb je schaling effecten, die bij Cayman natuurlijk erger zijn dan Barts. Daarnaast neem ik aan dat je met die 40% de 6870 met de 5850 vergelijkt? Zo ja, herinner je dan dat bij de HD 5850 niet alle shaders zijn ingeschakeld en bij de HD 6870 wel, waardoor de performance per mm berekening niet meer klopt.

Tot slot gaan de geruchten dat Cayman een nieuwe shader architectuur zal hebben. Fermi was naast dat ie zo lomp was en 40 nm niet lekker werkte ook wat traag omdat hij deels voor GPGPU is geoptimaliseerd. Ook AMD gaat waarschijnlijk die kant op (dat is het idee achter Fusion), dus wellicht dat de nieuwe architectuur zich ook wat minder richt op gamen.

Niet dat ik geen vertrouwen in AMD heb of zo, ze gaan vast weer een super produkt neerzetten. Maar laat je hoop realistisch zijn. ;)
Wat nou gpgpu optimalisaties?
Al die shaders zijn zonder aanpassing al geschikt voor gpgpu. Daar is (vrijwel) geen optimalisatie voor nodig.
Daar is (vrijwel) geen optimalisatie voor nodig.
De 480 heeft tussen de 10 en 20% extra transistors voor GPGPU optimalisatie, het is niet perse nodig, maar nVidia verspild echt die ruimte, niet als het geen nut heeft.

De 580 heeft geen, of veel minder GPGPU optimalisaties dan de 480, en is daarom iets kleiner en heeft minder last van lekstroom dan de 480.

Het zal interessant worden om de eerste GPGPU benchmark's te zien van 480 vs 580, ik denk dat de 580 redelijk zwaar zal verliezen.

Simpel ge zegt nVidia heeft met de 580 voorlopig zijn GPGPU plannen in de koelkast gezet, omdat ze gewoon nog niet goed voor elkaar hebben gekregen.

Wil niet zeggen dat van uitstel, afstel komt, ik heb geen toegang tot nVidia's toekomst plannen, wie anders zegt, die meer dan ik ;)

[Reactie gewijzigd door player-x op 8 november 2010 12:53]

Maar wat dacht je van ECC? Cache hierarchy? Een GPU is meer dan shaders, en ja, ook de shaders zelf kunnen voor GPGPU geoptimaliseerd worden - bij AMD kunnen slechts één op de vijf shaders dubbele precisie berekeningen uitvoeren (door het 5D gebeuren, maar een op de vijf shaders is "complex"). nVidia engineers zelf hebben al gezegd dat (met name ECC, dacht ik) "damn hard" was om te implementeren. Het zal dan ook zeker hebben bijgedragen aan de vertraging.
tsja, dat zijn schattingen en aannames. De vraag is of je kan stellen dat deze chip lineair schaalt, of er grenzen zijn mbt het verbruik, waar de prioriteiten van AMD lagen enz enz. Je kan er vanuit gaan dat Cayman sneller is dan Cypress. Hoeveel is echter koffiedik kijken.
Waarschijnlijk met hun 69xx serie? Of hoe die high-end serie van de 6xxx ook gaat heten ;)

Ben benieuwd of dit nou een compleet nieuwe chip is of dat dit een gepimpte 480 is :X
ATI/AMD komt met de HD6970 als nieuwste highend kaart (Single GPU kaart, dus niet zoals de HD5970 een dual GPU kaart).

Toch zal deze niet veel sneller worden als een HD5870, waardoor (waarschijnlijk) de HD5970 de snelste kaart van ATI/AMD zal blijven.

Dus tenzij ATI/AMD niet met een nog snellere kaart komt als de HD5970, zal de GTX580 waarschijnlijk nog wel even de snelste kaart blijven. Daarintegen zul je bij Nvidia wel weer de hoofdprijs betalen voor die kaart, zoals wel vaker gebeurt bij Nvidia...
Er komt ook een HD6990; dit is een dual GPU kaart.
Volgens het Radeon forum is het al weken duidelijk dat er een nieuwe dual-core gpu komt. Ik weet niet hoe jij aan het nieuws komt dat er alleen een Single-Core GPu komt.
Hoe kom je er bij dat de 6970 niet veel sneller gaat worden als een 5870?
Volgens de laatste geruchten verschilt de Cayman toch wel veel van Cypress, en het lijkt me ook stug dat hij amper sneller als de 5870 gaat zijn.

Later komt ook nog Antilles (waarschijnlijk dual 6850) en die gaat uiteraard sneller zijn dan de 5970
koeler en stiller klinkt altijd beter.... :P maar ff afwachten wat amd uitbrengt want ik ben nog wel opzoek naar een goed directX11 kaartje

[Reactie gewijzigd door Kaizokured op 8 november 2010 09:01]

Natuurlijk, maar ik wil ook het verbruik weten.
Het is natuurlijk nog te vroeg en het enigste wat we kunnen is speculeren. Maar als ik Nvidia zie roepen dat hun nieuw product koeler en stiller wordt, dan kan je als kritisch lezer tussen de lijnen lezen dat het verbruik van de nieuwe kaarten niet aanzienlijk zal dalen en mogelijk eerder gelijk zal blijven. Anders hadden ze daar ook wel mee uitgepakt.

Aan de andere kant hebben ze mogelijk enkel hun 'Vapor Chamber' technologie uit de doeken gedaan, en kunnen dus alleen met "koeler en stiller" uitpakken, dat zijn namelijk de voordelen van die technologie, niet zozeer verbruik.

Het was nu eenmaal een presentatie over NV Tech, niet zozeer over de volgende line-up van Nvidia kaarten.

Dus het blijft koffiedik kijken tot we meer informatie krijgen en voornamelijk: benchmarks te zien krijgen.
Ik snap echt niet waarom dit telkens aangehaald wordt. Als je een gamer bent, en je wilt graphics ga je niet naar het verbruik kijken.
Dat is jouw mening. Ik ken genoeg mensen die anders denken. Alsook, als je bijvoorbeeld een kwaliteitsvolle 450Watt voeding hebt. Dan kun je een HD6850 X-fire configuratie redelijk gemakkelijk aan, echter één GTX480 gaat niet. GTX460 SLI gaat niet. ...

Alsook kan een zware load, vooral bij goedkopere voedingen (die veel te veel mensen nog altijd aanschaffen!), leiden tot instabiliteit, bluescreens, ...
En dat mag ook, maar ga dan niet afgeven op goeie gamekaarten omdat die niet in jouw idee van een gaming computer past.

Ik draai op mijn 2e pc ook een 4850 op 450 watt. Werkt idd ook, maar die komt niet in de buurt van mijn game pc.

Gezien deze site: http://nl.hardware.info/r...850-review-stroomverbruik

Ga je ook niet een 6850 X-fire neerzetten op een 450Watt.
Je realiseert je wel dat het daar om het totale stroomverbruik van het systeem gaat.
En een 6850 schijnt, ruim genomen zo'n 100 Watt nodig te hebben.

Dan zou een crossfire opstelling zo'n kleine 350 Watt nodig hebben, goed te doen voor een redelijke 450 Watt voeding, een 6870 opstelling zou ook nog moeten kunnen.
Zoals je in het stuk kunt lezen ( de bron ) is er te zien dat de 6850 maar liefst 232 watt gebruikt op een spelletje als Far Cry 2.

Als jij met 450 watt die videokaarten gaat aansturen + MB, + hdd's en andere randapparatuur dan zul je ongetwijfeld een hoop BSOD's krijgen.

Simpelweg omdat je wattage niet toereikend is.

[Reactie gewijzigd door Dakreal op 9 november 2010 10:52]

Zoals hij al eerst zei verbruikt HET TOTALE SYSTEEM 232 Watt, niet enkel de grafische kaart.
Ook als je een lekker compact gamebakkie voor bv lanparties wil bouwen is het van belang dat de kaart niet te veel hitte produceert. Hoe goed de koeler ook is, als je het de kast niet uit krijgt schiet je er nog niks mee op.
Ook geluidsproductie is toch voor veel mensen belangrijk, niet alle games zijn even lawaaiig of de pc staat bv in de huiskamer en huisgenoten stellen die stofzuiger onder jouw buro toch minder op prijs.
Zelf ben ik daarom erg happy met mijn 5770, vrij stil, koel en hij kan prima tijdelijk dienst doen in mijn stille zuinige pc/server met 300 watt voeding.

edit: correctie, het is zelfs maar een 300 watt voeding, de bekende be quiet...

[Reactie gewijzigd door Finraziel op 8 november 2010 15:53]

Er zijn genoeg kaarten met een exhaust dus dat argument gaat al geruime tijd niet meer op.
Niet mee eens, ik denk bij alles verantwoord na en vind het verbruik naast prestatie erg belangrijk. Ik zou liever wat meer betalen voor een kaart die zuiniger is.
Zo was ik eerst ook maar na het 8800 drama nooit geen nVidia heethoofd meer...
Het is maar net wat voor drama je er zelf van maakt hoor.

Ik draai hier nu een GTX 470 met Zalman VF3000F koeler er op.

Ik was ook klaar met het standaard zielige stock koelertje van nVidia.
Niet omdat ie te luid was maar de koel prestaties leken nergens op.
Dat werd ook wel duidelijk toen ik de koeler er af had en eens goed naar de heatsink keek.
Die heatpipes zitten hier en daar echt slecht gesoldeerd op de koelvinnen.
De linker heatpipe op het plaatje in de link hierboven raakte bij mij met 3 prutserige soldeerpuntjes een beetje de koelvinnen. |:(
Dus zo wordt het zaakje wel heet ja.

Nu met die Zalman koeler gaat het stukken beter en is hij van 45 graden idle naar 28 graden gegaan met interne kast temp van 25 graden.
Full load is ie ongeveer 48 graden i.p.v. rond de 60.
De 2 fans hangen aan mijn fancontroller met 1200RPM.
Dat is voldoende voor zowel idle als full load.
En ook mooi stil.

Waar je wel op moet letten is natuurlijk een goede airflow in de kast want de kaart blaast nu niet meer de lucht naar buiten.
Wat ocdaan bedoelt, is het hele G84, G86, G92 en misschien opvolgende GPU's, maar dat is nog niet te zeggen aangezien de nieuwere GPU's nog niet lang genoeg op de markt zijn, drama. Het probleem hier is niet de hoge temperaturen, maar de fluctuatie in de temperatuur waar de Nvidia GPU's niet tegen kunnen en eerder dan bedoeld sterfen. SDit veroorzaakt door een produktie/design ontdekt in November 2006 en pas erkent door Nvidia in Juli 2008, maar nooit echt verholpen.

Op papier heeft Nvidia zeker leuke technologie in handen, maar doordat zij gewoon enkele jaren stug zijn door gegaan met produceren van GPU's met produktie fouten, lijkt het mij dat ze eerst maar eens moeten aantonen iets degelijks op de markt te kunnen zetten.

Mijn advies is zowel prive als zakelijk koop alleen een Nvidia kaarrt/GPU wanneer strikt noodzakelijk, de concurrent heeft namelijk goede alternatiefen zonder deze produktie fouten.
Mijn PC staat heel vaak aan en wordt misschien 5% van de tijd voor gamen gebruikt. Als ik ga gamen wil ik wel een goede videokaart en dan vind ik het verbruik minder belangrijk inderdaad. Maar met name als ik niet aan het gamen ben wil ik dat de videokaart zuinig en stil is. Ik heb gekozen voor een 5850 en ben redelijk tevreden (nog wat stiller bij idle zou fijn zijn).
Groot gelijk. Ik game gemiddeld een paar uur per week. De rest van de computertijd staat de videokaart te idlen. Als de kaart tijdens gamen 400 watt verbruikt is dat in mijn geval niet zo erg, als hij bij 2D werk maar zuinig is. AMD kaarten hebben wat dat betreft goede papieren. Zelfs de topkaarten zitten geloof ik rond 20-30 watt idle.

(Bij echte die hard gamers/verslaafden, kan het totale energievebruik natuurlijk wel flink uit de klauwen lopen. As a side note, ik heb wel eens gelezen dat de energie benodigd voor de productie, meer is dan het energieverbruik tijdens gebruik. Don't know if that's true. Vooral het geheugen is erg 'kostbaar', http://www.lowtechmagazin...igitale-technologie-.html)

Een vijftal jaren terug was het verschil tussen idle en game verbruik nog erg slecht.

Bij xbitlabs maken ze vaak goede vergelijkingen van het verbruik van videokaarten. Zij meten alleen de vermogensopanme van de kaart in plaats van het hele systeem.
Tenzij je een All-In-One gebruikt die in de woonkamer staat en ook meestal aanstaat voor internettoegang, media center, etc...
En een All-in-One is een gamesysteem?

In een all-in-one zet je gewoon een passief gekoelde kaart met zo min mogelijk bewegende delen in de kast.

Ik snap deze vergelijkingen echt niet hoor ...
Je kunt ook een Game PC als een all-in-one gebruiken... dan is het wel zo fijn als het energiegebruik beperkt blijft en daarnaast ook de geluidsproductie.
op een all-in-one moet het zeker mogelijk zijn om een casual spelletje te spelen.
Als gamer heb je ook niet persee een quad-sli met 4 high-end kaarten nodig.

Gamers willen 60fps+ op fatsoenlijke settings, hoge resolutie en eventueel AA erbij. Daar heb je echt niet altijd een gtx799 of een ati 8999 voor nodig.

Ik heb gtx280 in sli gehad, maar ik irriteerde me mateloos aan de herrie en aan het feit dat ik mijn raam moest open doen in de winter omdat de kamer anders zomerse temparaturen kreeg. ( spaargeld misbruikt, 800 euro armer )

Na half jaar verkocht voor 500 euro en teruggegaan naar een 9800gt, settings van extreem naar high en ik kon nog steeds prima gamen, alleen had ik geen enorme herrie meer...en had nog 400 euro over.

Op dit moment, al weer een tijdje verder, ben ik een tevreden ati 5870 gebruiker.
Koeler en stiller klinkt over het algemeen inderdaad beter, maar als ik tussen de regels door lees heeft het in dit geval helemaal niets te maken met een betere GPU en alles met de koeling. Durf te wedden dat als je dezelfde koeling op een 480 zou zetten je een nog stillere en koelere kaart overhoudt.
Precies waar ik dacht. Het lijkt me onwaarschijnlijk dat een volledige Fermi met 512SP en op 775mhz minder zou verbruiken als een GTX480 op lagere snelheid en met minder SP's.
Tuurlijk wel ooit wel eens aan verkleinen van de core gehoord?
gpu's worden nu nog op grote wafers gebakken 40nm . maar volgens mij zijn de volgende generatie van ati en nvidia 32/28nm products.
De presentator beweert dat 10dB harder ongeveer 2x zo hard is. echter, 10dB harder is ongeveer 10x zo hard omdat de bell schaal logaritmisch is. 3dB komt overeen met ongeveer 2x zo hard. Hij beweert dat de kaart bijna half zo stil is en van 52 naar 47 dB gaat. Dat is dus 5 dB en is dus veel stiller dan half zo luid. Goed nieuws als het waar is.
Tja, 10dB is inderdaad 10x zoveel power, maar aangezien ons gehoor ook logaritmisch werkt, lijkt het 2x zo hard. Vandaar dus :)
Ben benieuwd of de geluidsproductie echt gaat meevallen. Daarnaast is de vapor chamber techniek niet echt een nieuwe koeler? Vapor-X van Sapphire is er al een tijdje toch?

Ook heel erg benieuwd naar het verbuik van de gtx580. Als nvidia de 580 ook nog minder kan laten verbruiken, dan heb je dubbel effect van de koeler. GPU zelf is koeler en de koeler hoeft minder hard te werken --> nog stiller. Gezien verbruik tegenwoordig wel een onderwerp van belang is in marketing, was het in deze presentatie een grote afwezige.

Ik hoop voor de consument en misschien ook wel een beetje voor nvidia, dat deze 580 het kan opnemen tegen de 69xx series. Heb zelf een lichte ATI voorkeur, veel kaarten van gehad en altijd heel tevreden over geweest, alleen de 29xx en de 38xx overgeslagen en toen voor nvidia gegaan.

Nu ben ik zelf niet echt een gpu processes buff, maar is Tessalation echt het nieuwe truukje voor GPU's? Er wordt nogal een nadruk op gelegd in de presentatie.

offtopic: Stereotype Amerikaanse over de top imho. Niet echt mijn ding.
Tot nu toe is Nvidia de betere van de 2 op het gebied van Tesselation. Het is idd de nieuwe manier om modellen "ronder" eruit te laten zien. Maar naar ik het heb begrepen kost het veel rekenkracht.
Sterker nog, AMD past zelf al vapor chambers toe sinds de Radeon 2900 (zie hier: http://www.legitreviews.com/article/1462/1/ ). :| De AMD kaarten nu ook niet bepaald fluisterstil door die techniek. We zullen wel zien (horen) wat het resultaat is, de TDP lijkt ongeveer hetzelde te zijn. nVidia is overigens ook afgestapt van de "grill" ten behoeve van SLI koeling, helaas zal dat voor een enkele kaart weer wat minder zijn.

[Reactie gewijzigd door E.Ross op 8 november 2010 11:14]

Ik mag aannemen dat er een nieuwe koeler op zit. Sterker nog, ik zou mij aardig bekocht voelen als Nvidia er een 2ehands op zet. Nieuwsbericht klopt ook w.d.b. niet helemaal, was beter geweest als er "nieuw model" of "nieuw type" koeler had gestaan. Afwijkend of "ander type koeler" was nog beter geweest eigenlijk.
Is de 580 nou een een refresh van de 480, is het een dubbele 460 (in deze gevallen heeft het rebrand virus weer toegeslagen) of is het de eerste kaart van een hele nieuwe serie?
Hij heeft andere specs dus is het per definitie GEEN rebrand. Het is pas een rebrand als een oude kaart een nieuwe naam krijgt. Dat is hier niet het geval. De specs zijn dan identiek, inclusief transistorgrootte. Dus als een GPU eerst 55nm was en hij wordt opnieuw uitgebracht op 40nm, dan is het eigenlijk al geen rebrand meer. Niet al te kwistig met dat woord rondstrooien.
Het is wel een soort van rebrand als de kaart eigenlijk een GTX 490 is (die zich verhoudt tot de GTX 480 zoals de HD 4890 tot de HD 4870), maar hij toch de naam GTX 580 krijgt, dan denken mensen misschien dat Nvidia een gloednieuwe serie heeft om de HD 6xxx serie mee te bestrijden maar dat is dan gewoon bedrog. Dat wou ik dan maar zeggen.

Wat is dan het verschil tussen een "echte" GTX 580 en een gerebrande GTX 490? Als de GTX 580 minder dan 50%, of zelfs maar 30% beter presteert dan de GTX 480 (en dat is zeer waarschijnlijk het geval) kun je er vrij zeker van zijn dat het eigenlijk een GTX 490 is.
Weet je waarom het niet eigenlijk een GTX490 is? Omdat er geen GTX490 bestaat :) Een kaart kan niet een gerebrande versie zijn van een kaart die niet bestaat.. Ik begrijp heel goed wat je bedoelt hoor en zelf vind ik het ook niet een compleet nieuwe naam waard. Wat mij betreft had het ook net zo goed een GTX490 kunnen heten. Er wordt alleen op hardware sites naar mijn smaak te vaak onterecht 'rebrand' geroepen, daar wou ik even op reageren.
De nVidia fans kunnen dan wel "klappen als zeehonden", maar de Ati-zeehonden kennen ook maar een kunstje lijkt het en dat is zeuren op het verbruik.

My point being, zodra er nieuws als dit gepost wordt begint iedereen gewoon zomaar wat te roepen om hun favoriete merk te verdedigen, in plaats van even te kijken wat de verschillen zijn en waarom de een beter zou kunnen zijn dan de ander.

Het stroomverbruik, de exacte prestaties, en de prijzen zijn de punten waar het meeste
ongefundeerde schreeuwen over gaat, en over alle drie is nog niks bekend.

Ik denk dat de 580 wel veruit de snelste single-GPU kaart gaat worden, maar mogelijk gaat de nog te releasen 6990 daar vanwege 2 GPU's weer overheen alsof het niks is.
De specs tot nu toe wijzen erop dat zelfs de 6970 (single gpu) al sneller is dan de 580.
Hoe kun je dat nu zien qua specs? de manier waarop nvidia kaarten en ati kaarten is compleet anders
Daarom wordt er natuurlijk vergeleken met de vorige generatie van hetzelfde merk, en daarvan zijn de exacte resultaten natuurlijk bekend... De verwachtte winst is minstens 40% t.o.v. de HD5870. Van de GTX580 is de indicatie iets minder goed bekend, maar ik zet mijn geld voor de snelste GPU in op de HD6970. De GTX580 lijkt het te moeten hebben van een kloksnelheid rond de 770MHz en een 512-cores versie van de GTX480, als je dat vergelijkt met de prestaties van de GTX480 moeten ze nog wel met trucjes komen willen ze meer dan 40% sneller zijn dan de HD5870.
Volgens mij is de 6970 marginaal beter/sneller dan de 5870
Get ur facts straight. En ga daarna onzin posten.
Wie post er nou onzin?, kom eerst is met een bron voordat je zulke meldingen maakt en andere er op beticht onzin te posten

ik ben echt nergens tegen gekomen dat de 6970 maar marginaal sneller gaat worden dan de 5870, integendeel de geruchten laten juist het tegenovergestelde horen.

Als je een beetje nadenkt: De 6870 is iets langzamer als de 5870.
Als de 6970 iets sneller zou zijn als de 5870 zou er wel heel weinig ruimte tussen de 6870 en de 6970 zitten, vooral als je bedekt dat de 6970 een vernieuwde architectuur krijgt

[Reactie gewijzigd door Sinester op 8 november 2010 11:55]

De HD6970 gaat veel meer shaders krijgen dan de HD6870, en de HD6870 is nagenoeg even snel als een HD5870. Dan is het toch te verwachten dat de HD6970 veel sneller is dan de HD5870...

Voor bronnen, lees de nieuwsdiscussie-topics maar door, iedereen die over de HD6970 bericht lijkt het eens te zijn dat hij veel sneller dan de HD5870 gaat worden. Hoe veel is natuurlijk deels speculeren (en deels de betrouwbare leaks gebruiken) maar slechts "marginaal sneller" is heel erg onwaarschijnlijk, gezien de resultaten van de HD6870.

Tevens zeg je eerst dat iemand anders onzin post, dan zegt hij dat jij juist onzin post en dan klaag je dat hij aan het afgeven is op mensen die performance boven verbruik kiezen terwijl hij daar geen woord over zegt. En dan klagen dat je op -1 komt. Dat klopt natuurlijk niet.

[Reactie gewijzigd door bwerg op 8 november 2010 12:57]

Dus ik moet met een bron komen terwijl diegene waarop ik reageer ook iets uit de duim zuigt?
Jij zegt
"get your facts straight"
maar produceert juist geen feiten maar opinie.
En ik denk trouwens dat degene op wie je reageerde meer gelijk heeft dan jij of hij dat nou uit zijn duim zuigt of niet.
Alleen maar mooi, grote kans weer dat deze kaart nog meer de kosten gaat drukken van de kaarten die eronder vallen om zelf nog een beetje "betaalbaar" over te komen ;) + laat nvidia en AMD lekker vechten, als wij consumenten maar lekkere snelle kaartjes voor een leuk prijsje krijgen

[Reactie gewijzigd door Scrtz op 8 november 2010 09:08]

Ik ben zeker benieuwd, naar dit product. Het is natuurlijk een feit dat de GTX serie wel een goede prestatie kan leveren. Ook al is het natuurlijk algemeen bekend dat deze erg veel herrie en hitte maakt.

Laten we hopen dat dit nu een stille en een wat minder heethoofd is.
Laten we het verbruik niet vergeten dat stukken hoger ligt.
Is dat koeler/stiller op idle of load? Had graag gezien dat er naast koeler en stiller ook zuiniger op de lijst van nieuwe features stond, maar dat heeft wat tijd nodig voor het zover zal zijn...kleinere technologie, 32 nano enz....is minder warmte.

Tja...AMD en Nvidia blijven zo lekker concurreren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True