Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Specificaties nVidia GeForce 6800 Ultra online

Digit-Life heeft minder dan 24 uur voor het verlopen van de NDA het persmateriaal van nVidia over de GeForce 6800 Ultra al online gezet. Het origineel is inmiddels weer offline gehaald, maar gelukkig zijn enkele personen zo slim geweest om een mirror te bouwen. Naast de logo's en mooie plaatjes van chips en kaarten wordt bevestigd dat de 222 miljoen transistors tellende chip op 0,13 micron geproduceerd wordt door IBM, en een kloksnelheid van 400MHz haalt. Het GDDR3-geheugen werkt zoals voorspeld op 1,1GHz. Het lijkt erop dat nVidia bij het ontwerpen van deze enorme chip één van de grootste zwakke punten van NV3x recht heeft willen zetten, door extra aandacht te besteden aan de pixel- en vertexshaders.

De NV40-core heeft zestien pipelines die per kloktik acht shaderinstructies op een pixel uit kunnen voeren, voor een totale pixelshaderkracht van 128 instructies per kloktik. De NV35 kon met zijn vier pipelines in totaal slechts twaalf instructies per kloktik verwerken. Ook zijn er in NV40 zes vertexshader-units aanwezig als vervanging van het dynamische systeem van NV3x dat het equivalent van twee à drie vertexshader-units aan performance opleverde. De GeForce 6800 is bovendien de eerste met ondersteuning voor pixel- en vertex-shader versie 3.0, waarmee niet alleen sommige bestaande effecten efficiënter gedaan kunnen worden, maar ook nieuwe grafische hoogstandjes mogelijk zijn dankzij de ondersteuning van if-then constructies.

De shaders zijn echter niet het enige punt waar aandacht aan geschonken is. De GeForce 6-series ondersteunt displacement mapping, floating point textures, 16x anti-aliasing, adaptive AF (anisotropic filtering), UltraShadow II (een feature waar met name spellen als Doom 3 van zullen profiteren) en betere compressietechnieken om geheugenbandbreedte te sparen. Verder is het referentiemodel voorzien van uitgebreide mogelijkheden op het gebied van ViVo. Naast twee DVI-poorten vinden we een MPEG-decoder, WMV9-accelerator, NTSC/PAL-decoder en DVD/HDTV-decoder. Dit alles wordt aangestuurd door ForceWare-driver 60.xx.

Een mogelijke domper op het grafische geweld is echter de hoeveelheid vermogen die het apparaat moet opnemen om zijn kunstjes te kunnen doen. Het is zeker dat de kaart twee molex-connectors vereist en er gebruik gemaakt wordt van een koeler met een heatpipe. nVidia wil ons met de persfoto's laten geloven dat het mogelijk is om deze koeling in de bescheiden ruimte van één slot te realiseren, maar de kaarten die het bedrijf aan reviewers heeft gestuurd werden geleverd met een koeler die met gemak een extra PCI-slot in beslag neemt. De reviewers zijn bovendien aangeraden om tenminste een 480 Watt-voeding te gebruiken om de testexemplaren te benchmarken. Of de productiekaarten die uiteindelijk in de winkels terecht zullen komen ook zulke zware eisen aan koeling en voeding stellen is nog even afwachten.

Door

138 Linkedin Google+

Bron: Digit-Life

Lees meer

Reacties (138)

Wijzig sortering
Hier een 8-tal Ultra highres pics, van de NV40 zoals de reviewers em in handen hebben.
Model op die foto's lijkt zeker 2 sloten in te nemen.
Wat ik mij nu afvraag is hoeveel lawaai dat ding dan zal gaan maken... Er is dan wel koeling dmv heatpipes gebruikt , alleen is dat alleen nog geen garantie voor een relatief stille kaart. Als ik die fan zo zie moet hij toch redelijk wat toeren draaien om voor koeling te zorgen... Ook het vermogengebruik is behoorlijk (waarom anders 2 molexen gebruiken?)

Dat is iets wat ik uberhaupt niet snap , kan 1 molex dan niet genoeg stroom leveren? Lijkt me sterk. Lijkt me eerder dat dit zorgt voor minder banen. (koperbanen that is ;) )

Desondanks denk ik dat het behoorlijk spannend gaat worden. 222 M transistors is niet niks :o
Of de prestaties hiervan tegen het verbuik opwegen moeten we nog afwachten natuurlijk :P
Een connector kan wel genoeg stroom leveren, maar dan zou er dus een grotere energiestroom door dezelfde banen op de kaart moeten waardoor het geheel weer warmer wordt. Door 2 connectoren te gebruiken kan het energieverbruik beter verspreid worden over beiden waardoor de connecties minder warm worden.
Vreemd om te zien dit ontwerp op alle mogelijke manieren worden goedgepraat. De XGI Volari Duo heeft ook twee molex-aansluitingen en dat werd door Hardware.info een ontwerpfout genoemd.
En laten we eerlijk zijn, of deze truc nu uitgehaald wordt door nVidia of XGI dat blijft het.

Iemand met een simpele computer zal er misschien niet zoveel last van hebben, één of twee molex-stekkers hebben die wel over?
Deze kaart zul je echter niet snel aantreffen in een simpele computer, of bij een simpele computergebruiker. Dus die heeft al vier schijven in zijn systeem hangen, een dvd brander en een dvd speler (of iets dergelijks) als je dan één molex in je videokaart moet steken, vooruit. Een Antec Truepower 550 Watt heeft er precies zeven.

Geen probleem zeg je dan? idd niet voor ons tweakers (wij modden er wel één bij met een splitter of gewoon netjes solderen), maar ik denk dat een ander al gauw voor de concurrentie zal gaan die bij het topmodel nog wel genoeg hebben aan één molex aansluiting (die is misschien nog wel zuiniger en minder luidruchtig ook, want je ogen geven op zo'n moment de doorslag).
Waarom zitten te zeveren over splitters, maar ik weet niet wanneer jij jouw laatste grafische kaart hebt gekocht, maar ik heb vorige maand een nieuwe Sapphire R9800Pro gekocht (voor maar 230¤ :)) en daar zat een splitter in, en het was een light retail version. Dus ik denk wel dat nVidia die er ook wel zal bijleveren.

Ook vind ik een 480W voeding veel, want mijn 250W voeding :Y) trekt vrij veel vind ik: P4 2.4GHz, R9800Pro, Audigy2, 1 DVD, 1 CDRW, 1 HDD, en ik geen last van een onstabiele voeding. En vraag me niet wel merk het is, het is een standaard Dell voeding :D
Goedpraten wil ik het niet noemen.
Helaas is er weinig aan te doen.

Toch, ik heb zat connectors over, er bungelen er nog 3 los in mijn kast. Ondanks dat zitten er 2 harde schijven, 1 CD-RW, 1 DVD, 1 floppy en 1 LS-120 in. Dus ik zie het probleem niet helemaal.

Bovendien, de splittertjes zijn ook niet zo moeilijk te krijgen.
Dan mogen ze die kaart houden :P
Er zijn namelijk veel voedingen waar maar drie kabels uitkomen, lachen als je er dan al twee (met alle aansluitingen) kwijt bent.
Heb je nog 2 molexen en 1 fdd molexje over..
Tenzij de verhalen kloppen dat je geen splitters mag gebruiken en dat de twee connectors rechtstreeks van de voeding moeten komen via twee aparte kabels en zonder dat er andere aparaten aan zitten.

Even afwachten nog...
Wat betreft het geluid van de koeling denk ik dat je daar zelf wel een oplossing voor kan bedenken. Ik heb zelf al een tijdje zo'n zalman cooler voor m'n geforce 5900 en deze kun je er gewoon af schroeven en meenemen naar zo'n kaart als dit.. Ik denk dat hij ruimschoots voldoende koelt met stille zalman fan.....
Dus als jij een mercedes koopt laat je er ook andere stoelen in zetten en later het dashboard vervangen omdat het niet zint?
Voor dat geld wat je voor die kaart neer moet leggen moet gewoon alles goed zijn!
En waarom denk jij dan dat ie ruimschootsvoldoende koelt?

Er is namelijk alle reden om aan te nemen dat de eisen voor de koeling veel hoger zijn dan bij de 5900. Er worden namelijk niet voor niets twee molex connectors op die kaart gezet.

Wat ruimschoots voldoende was voor de 5900 kon dus wel eens ruimschoots te weinig zijn voor de 6800 Ultra.
Verbazingwekkend, dat dat verbruik echt klopt. Nogal een gok imho om het zo te doen. Benchmarks is wat ik nu wel wil weten, van de X800 en deze.

Maar ik kan me dus heel moeilijk voorstellen dat allerlei kant en klaar-bouwers en merknamen een dure 480Watt voeding erin gaan zetten in hun top-systeempjes met deze kaart. Van de andere kant, als je zoveel poen hebt voor zo'n kaart, zal een forse voeding misschien ook wel geen probleem zijn.

Maar m.i. zal vooral de losse verkoop te lijden hebben van die kaarten. Nvidia zal meer moeten presteren dan Ati om een goeie prestatie/prijs verhouding te krijgen, want die voedings-eis betekent simpelweg 100 euro boven de kaart erbij tellen, en dan moet je wel heel erg erbovenuit steken in de benchmarks wil je mensen dan aan de koop krijgen.
Maar m.i. zal vooral de losse verkoop te lijden hebben van die kaarten. Nvidia zal meer moeten presteren dan Ati om een goeie prestatie/prijs verhouding te krijgen, want die voedings-eis betekent simpelweg 100 euro boven de kaart erbij tellen, en dan moet je wel heel erg erbovenuit steken in de benchmarks wil je mensen dan aan de koop krijgen.
Dan veronderstel je wel dat de ATi-kaart minder zou verbruiken dan de nVidiakaart en gezien de specs ziet het ernaar uit dat het verbruik op hetzelfde niveau zal komen te liggen: het geheugen is hetzelfde, de core draait zelfs sneller en er zullen in de zwaarste versie ook 16 pipelines aanwezig zijn.
Mss is het aantal pixel -en vertexshaders kleiner, maar toch kunnen we al afleiden dat de ATi-kaart eveneens niet mild zal zijn voor je voeding. }:O

Verder betekent deze nieuwe generatie kaarten hoogstwaarschijnlijk een enorme sprong voorwaards qua performance, en dus moet je maar leren leven met het verbruik ervan... Prik een mobileproc in je desktop als je perse je verbruik laag wil houden. :)

Dus de conclusie is gewoon, het wordt wachten op de benchmarks en definitieve kaarten die in productie gaan, eer we beginnen te klagen over vanalles en nog wat. Mss staat de GDDR3 nog niet geheel op punt: deze zou immers aanvankelijk nog niet gebruikt worden in deze generatie kaarten, en normaalgezien ging nVidia de GDDR3 ook op 1,2GHz laten draaien. De enige reden waarom ze dit volgens mij niet doen, is een te hoog verbruik, maar hierin kan nog verandering komen (GDDR3 is immers ontworpen om een laag verbruik te bekomen). :Y)
Asus heeft al een variant op de nieuwe core? het is wel een concept zoals je ziet mist het nog 1 en ander :)

en als deze kaart van asus er zo uit komt te zien is het een genot voor het oog.

linkje
Als je goed kijkt zit er wel een D-sub aansluiting links onder maar er zit een consensator voor waardoor het totaal onmogelijk is om er een aansluiting op te solderen.
Op het grote model zie je zelfs dat er helemaal nergens genoeg ruimte is voor een D-Sub of DVI aansluiting.
Ik zou deze tekening maar niet al te serieus nemen...

(Grote afb: http://www.ixbt.com/short/2k4-04/V9999_1.jpg )
die cooler begint verdacht veel te lijken op een arctic cooling vga silencer. En die zijn heel goed en stil maar nemen wel een extra slot
http://www.arctic-cooling.com/en/products/vga_silencer/
Ja is inderdaad mooie kaart van Asus.
Errug handig dat er geen enkele aansluiting op zit :?
480 watt voeding en voor de overclockers onder ons nog meer! en dan zitten de CPUs ook in een stijgende lijn als het gaat om vermogen, RAID is ook een steeds meer voorkomend fenomeen enz enz. met andere woorden als dit zo door gaat hebben we binnenkort een 600 watt voeding nodig! heb er maar 1 woord voor... BELACHELIJK

Intel heeft een nieuwe Xscale CPU van 624 MHz voor PDA`s en dergelijke... dan lijkt het me dat al dat vermogen niet nodig is met wat extra research ??? ok dan zal alles wat minder snel stijgen in performance maar daardoor zal de consument wel zuinige producten krijgen die normaal te koelen is en dus ook stiller!
Intel heeft een nieuwe Xscale CPU van 624 MHz voor PDA`s en dergelijke... dan lijkt het me dat al dat vermogen niet nodig is met wat extra research ???
Leuke vergelijking, je vergeet alleen dat zo'n NV40 vijftig keer zoveel transistors heeft.
Ik denk dat de 480 watt al ruim genomen is juist omdat een groot deel van de kopers deze kaart overclocken en ook een overgeclockte processor hebben. en de systemen van nu gebruiken maar een deel van de voeding z'n kracht (de helft of zelfs minder) meen ik
Intel heeft een nieuwe Xscale CPU van 624 MHz voor PDA`s en dergelijke...
Das leuk maar dat is appelen met peren vergelijken. De GPU haalt 128 instructies per kloktik en ik weet niet precies hoeveel de Xscale haalt maar zeer zeker niet zo veel.
Ik denk dat nVidia (weeral) verkeerd heeft gegokt met de mogelijkheden van het process.
Ze hoopten met deze enorme chip 600Mhz te halen maar ze eindigen bij 400Mhz. En dan nog wordt het te warm.
Zoals gewoonlijk heeft Ati dit veel beter aangepakt. Hun XT versie chip heeft ook 16 pipelines en zal 600Mhz opleveren. Nu weet ik ook dat Mhz niet alles is, maar we weten ook dat de Ati chips heel krachtig zijn. Het zal moeilijk worden voor nVidia om met 400Mhz krachtige chip te gaan concureren tegen een ook krachtige chip maar dan van 600Mhz.
Ik vermoed dat Ati ook deze ronde gaat winnen.
Het geheim van ATi is hun analoog team. Zo rond 96-97 was ATi in de laptopmarkt markleider en daar telt iedere watt. Aldus heeft het analoog team jarenlang ervaring opgedaan met chips zuinig krijgen. Bij de R300 hebben grote delen van de chip met de hand opgebouwd, en met resultaat, de R300 was op 0.15 micron zuiniger en sneller dan de NV30 op 0.13 micron.

Nvidia concentreerde zich in het verleden altijd vooral op het digitale deel van het ontwerp, ze ontwerpen de chip in VHDL en het analoog team hoefde de chip alleen maar aan de praat te krijgen. Tijd om het te optimaliseren was er niet, een half jaar later was de VHDL-code al tot de volgende Geforce geëvolueerd.

ATi heeft zich daar aan aan moeten passen, maar omdat de chips steeds complexer worden ligt er een zwaardere taak op de analoge jongens. En zie wie hier beter presteert.
Sorry, maar volgens mij was t intel die voor Ati de chip heeft opgebouwd.
zoals al langer bekend, kun je niet het aantal megahertzen van 2 compleet verschillende chip designs vergelijken.... Mhz. zegt vrij weinig...
Nou, hopen dan maar dat ze de volgende generatie wel gaan winnen, 3 maal is scheepsrecht? :+
Het nogal markante aan de release van deze waarschijnlijk zeer snelle kaart is dat ongeveer een jaar geleden, tijdens de crisis met de benchmark fraude, ATI en nVidia om de tafel gingen zitten om af te spreken "om het wat rustiger aan te doen".
De ontwikkelingen gingen immers zo snel dat de druk op de fabrikanten erg groot werd en nVidia daarom niet goed kon presteren.
Wat gebeurt er nu, ATI is marktleider geworden en nVidia komt ineens met dit monster van een kaart.
Dat valt volledig buiten de afspraak....
ATI is immers volledig overdonderd, want die hebben hals over kop een XT versie geintroduceerd met 16 pipelines, terwijl het plan was om een kaart met 12 pipelines uit te brengen als topmodel.
De kans is dat ATI "off-guard" door nVidia taktisch onderuit gehaald is.
Van "het rustiger aandoen" is immers geen sprake...
Nou en lekker boeiend, van mij part mocht dat ding 50 pipelines hebben. Met "lekkere rustig aan doen" wordt de consument alleen maar mee genaait, door elke half jaar een nieuwe vid kaart te kopen omdat je kaart alweer te sloom is.
IMO is dit alleen beter voor de concurrentie en mijn portemonnee.
ATI overdonderd? Sorry hoor, maar dat vind ik erg naief.

Als je een kaart maakt met 16 pipelines, waarbij je 12 pipelines gebruikt (omdat je verwacht dat er waarschijnlijk wel eentje kapot is) dan weet je wanneer je die beslissing neemt ook meteen dat je een beperkte hoeveelheid gpu's overhoud waarbij alle 16 pipelines wel werken.

Die 16 pipelines is dus ook niet een nieuwe model, dat ding heeft altijd al op de planning gestaan.

Het enige wat je op het moment van die ontwerpbeslissing nog niet weet is hoeveel gpu's je overhoudt waarbij alle 16 pipelines werken.

1) Als dat er weinig zijn dan wacht je gewoon wat langer met het introduceren van dat model.
2) Als de concurrentie erg groot is, dan introduceer je het model vroeg maar lever je 'm pas later.
3) OF als de yields erg goed zijn, dan kan je het model al vroeg op de markt brengen.

Die zogenaamde designverandering van ATI op het laatste moment is niets anders dan een beslissing op één van de drie bovenstaande punten.
De geruchten zijn dat de yields erg goed zijn, dat gekoppeld met het gerucht dat de NV40 een sterke kaart is maakt het waarschijnlijk dat het het derde punt is.

Van rustig aan doen is inderdaad geen sprake. Maar dat is ook niet wat ATI heeft gezegd. Zij wilden het percentage van hun R&D budget niet verder verhogen.
Maar aangezien hun omzet zo gigantisch gegroeid is is in absolute waarden hun R&D budget ook gigantisch gegroeid zonder dat het percentage verhoogd is.
Wat dat betreft doen ze dus wel degelijk "rustiger aan".
222 miljoen transistortjes...Ik denk dat NVidia terug in de race is.... :9
alsof het aantal trancistors wat over de prestaties zegt. de 5800 had er dacht ik ook een stuk meer dan de r9700 maar om nou te zeggen dat ie beter presteert.

Veder vrees ik voor het vermogen wat dat ding gebruikt, want ik denk niet dat er veel mensen zijn die na het betalen van zo;n dure kaart ook nog is geld hebben voor een goede (=dure) voeding om dat beest te voeden.

Veder wacht ik toch af op met wat ati komt, want van de 5800 werd ook gezegd dat ie zo goed was maar dat ding werd volledig onder de grond gestopt door de 9700.
Dan maar een apparte voeding gebruiken voor de kaart (Massa doorverbinden van beide voedingen). Of zou dat problemen geven omdat de kaart ook al gevoed wordt via het slot? Ik heb hier in ieder geval nog wel een voeding liggen. En mischien zou het voor NVidia handig zijn om een externe voeding meet te leveren voor deze kaart voor mensen die niet hun hele kast willen vervangen.
En mischien zou het voor NVidia handig zijn om een externe voeding meet te leveren voor deze kaart voor mensen die niet hun hele kast willen vervangen.
Nou dat gaat mij toch te ver hoor...

Ik zie het al voor me, rechtstreeks op het lichtnet en dan ligt er achter je kast ergens weer zo'n groot blok die dan via zo'n lege bracket naar binnen gaat en dan aan een molex ofzo? gigantische kosten voor Nvidia en daarbij is dat niet hun probleem. Ik zou het niet eens willen, dan maar een Ati (hoewel niemand iets zeggen, want daar is het vermogen nog niet van bekend)

Het is wel een waar beest onder de GPU's...Damn.. :7
Het aansluiten van een aparte voeding, of een nieuwe voeding installeren, is voor jou misschien piece-o-cake, maar voor mij en de wat mindere tweaker/consument valt dit soort kaarten hiermee toch echt af. Want om nou mn hele voeding te gaan vervangen...Het schoonmaken alleen al ging bij mij rampzalig (kreeg die ventilator bijna niet meer terug :P)
No offence maar wat heeft het schoonmaken van een voeding nou met het inbouwen van zo'n ding te maken als ik vragen mag? Ligt er overigens maar helemaal aan hoeveel watt die kaart extra trekt of je een nieuwe/betere voeding moet aanschaffen of dat je een extra voeding zou moeten inbouwen.
net of de gemiddelde consument $500 voor een kaart betaalt? De gemiddelde huis-tuin-en-keuken pc wordt nog uitgerust met een FX5200 o.i.d. Naar mijn id zijn het dus voornamelijk de die-hards die deze kaart zullen aanschaffen (as usual met het nieuwste van et nieuwste)....
voeding is makkelijker dan een cd-rom speler hoor...
Gigantische kosten voor Nvidia? Ik denk dat die het wel kunnen lijden op een videokaart van vijf-hon-derd euroos ;)
Maar willen die die-hards nadat ze ¤500 voor een GPU hebben uitgegeven er ook even ruim ¤100 extra aan uitgeven voor een krachtiger voeding?

Met name als dat bij een R420 niet nodig is? (daar heeft het namelijk alle schijn van)
Ik denk dat dat wel tegen valt.
Noob gaan naar tweakers om zo'n kaart in hun bestaande systeem te laten zettenn ( als ze slim zijn)

En de rest koop die wel als ze een nieuwe pc kopen dan kan met bij het samenstellen/asambleren er overnadenken....
mensen die 500 usd of wat het gaat kosten nieuw over hebben hebben ook wel wat over voor een fatsoenlijk systeem en zullen dan ook wel in bezig zijn van een fatsoenlijke voeding dus ik denk niet dat dat zo'n probleem is.

verder dat deze 'extra' ruimte nodig heeft.. hoeveel systemen hebben dan nog zoveel meer extra pci slots in gebruik? je geluidskaartje (als die niet onboard zit) en je netwerkkaart en dan heb je het toch wel ver gehad normaal gesproken dus zo'n probleem is dat lijkt me ook niet. enkel hoeveel kabaal deze gaat maken maar ik denk dat ze na de 5900 hier ook wel van geleerd hebben.

verder dat nvidia weer in de race is.. laten we even afwachten tot we wat onafhankelijke benches zien :) (misschien een ideetje voor tweakers ;) )
Die mensen hebben nu wellicht al een goede voeding. Maar dat is een voeding toegespits op de huidige eisen.
In de huidige eisen wordt bv 300W voor een systeem met R300 gerekend. Nvidia rekent nu 480W !!

Mensen die nu al 400W hadden ipv 300W omdat ze erg veel in hun systeem hebben moeten nu dus aan 580W gaan denken. Of ze daar nou erg blij van worden?

Wat betreft het kabaal. De modellen die naar de reviewers zijn gegaan zijn blijkbaar behoorlijk lawaaiig (volgens verschillende hints van reviewers op de beyond3d forums)

En wat betreft de pci sloten. Deze koeler heeft er 2! extra nodig.
De 5800 had 1 slot nodig omdat de lucht van buiten werde gehaald en weer terug naar buiten werd geloosd. Dat werd niet als zo erg gezien omdat de meeste mensen het eerste pci slot toch al leeg hielden voor een goede airflow voor conventionele gpu koelers.
Maar deze oplossing haalt zijn lucht niet van buiten maar van onderen (of dumpt het naar onderen, dat is nog niet duidelijk)
Dat betekent dus dat je 1 pci slot kwijt bent omdat die koeler zo hoog is (kan je overigens op deze foto's niet zien maar is op beyond3d al duidelijk geworden) en nog 1 extra pci slot om airflow naar die fan te houden.

En dan wordt het al snel krapper in je kast. 2 sloten kwijt, dan nog een netwerkkaart, geluidskaart, wellicht een videobewerkingskaart? of een raid kaart (raid5 heb je namelijk niet onboard)
Dat past dan wellicht maar net, en dan maar hopen dat die kaarten geen interrupt conflicten krijgen want je hebt dan geen enkele kans om ze in een ander slot te zetten wat geen interrupts shared.
dat hangt toch zeker ook van de kwaliteit van de voeding af.
ikzelf heb een 350 watt voeding van aopen welke in de winkel tot 450 is getest zonder problemen. dus ik maak me geen zorgen.
ughe ughe....hey ben666, het is niet "trancistor" maar transistor hoor!!! :Z
Ik vind dat er nu ook weer niet TE veel moet worden geklaagd over stroomverbruik.

Als je geen zware voeding wil koop dan gewoon een mindere kaart????

Als je een Ferrari wil moet je ook niet gaan mekkeren over benzineverbruik.

Als de prestaties van de NV40/R420 het dubbele zijn van de huidige generatie is het dan ZO abnormaal dat het stroomverbruik flink omhoog gaat?? Als er meer prestaties bij minder verbruik zouden worden kunnen gehaald zouden ATi en NV dat écht wel doen hoor.

This is the only way, deal with it.....or leave it.
Nou ik vind het dus wel belangrijk dat er over gezeurd wordt. Ik zit hier dus echt niet op te wachten. Een pc de hele dag aan laten staan wordt zo een wel erg dure aangelegenheid.

Als je nu z'n kaart gaat kopen ben je ¤600 kwijt, daarover heen nog eens iets van ¤60 tot 80 voor een goeie voeding. Als je dan bij ATI geen nieuwe voeding hoeft te kopen dan zit er dus wel degelijk iets mis en mag daar ook rustig over gezeurd worden.
De geruchten zijn anders dat ook ATI 2 molexen nodig heeft.

Als ATI idd met significant minder stroom toe kan bij gelijke of beter prestaties kan dit idd een reden zijn om ATI te kopen.

Maar om nu alweer gelijk te zitten flamen over die stroom. Gaap.

Verder gebruikt die kaart alleen veel stroom als je hem vol belast en er zit hier heus niemand 24 uur per dag vette FPS te spelen hoor.

Dat je een goede voeding nodig hebt: So What. Een ferrari, porsche etc. rijdt ook niet op banden van 10 cm nog verbruikt die 1 op 20 maar 1 op 3. Dat wil niemand maar het is nu eenmaal niet anders als je 300km/h wil rijden.

Ik vind het allemaal best. De vooruitzichten zijn dat nVidia een hele goede kaart neer gaat zetten met een paar nadelen.
Deze nadelen zijn, als de prestaties goed zijn, objectief gezien maar voor enkelen onder ons echt relevant zoals misschien het stroomverbruik/extra voeding en het extra in beslag nemen van een PCI slot.
Een echt nadeel zou een te hoge geluidsproductie kunnen zijn.

Ik kijk gewoon welke (ati /nvidia) de beste mix qua prestaties (belangrijkste voor me) en andere punten heeft en die koop ik.
En reken maar dat als ik een kaart van EUR 600 kan betalen dat het stroomverbruik me geen bal interesseert.
En dat ik teveel zal genieten van de ongelooflijke soepless waarmee de games zich op mijn scherm ontvouwen om me verder druk te maken over trivialiteiten als stroomverbruik/extra pci slot
Een echt nadeel zou een te hoge geluidsproductie kunnen zijn.
Bij een Ferrari, Porsche of Harley hoort toch ook dat uiterst mannelijke lawaai?

Deze reële nadelen zomaar afwimpelen onder het motto "het is nu eenmaal niet anders als je 300km/h wil rijden" is mijn inziens erg dolzinnig. Je zou ook een efficiëntere, intelligentere motor kunnen ontwerpen of het koetswerk/chassis verlichten, om even dezelfde beeldspraak te hanteren.

Een weinig progressief denkraam.
tja maar bij m.n. een ferrari is het motorgeluid een sellingpoint. Je WILT juist die motor horen.

En bij een computer, mag ik aannemen, niet. :o :)

Verder wil iedereen natuurlijk dat het allemaal nix verbruikt enz. maar nvidia heeft geprobeerd een topkaart neer te zetten. Alleen binnen haar randvoorwaarden is dat nvidia niet gelukt zonder dit voedingsadvies.

Als ATI dat bij vergelijkbare prestaties wel lukt is het snel uit met nvidia.

nVidia is echter pas echt slecht af als ze een kaart neer zet met een lager verbruik terwijl de prestaties zwaar tegenvallen.
Zeur je dan ook over de toenemende wattages van de desktop processoren?

Sneller, Kouder *EN* zuiniger. Tja. Droom ze :)
ATI kaarten presteren ook heel goed en heb je geen extra voeding nodig.
Belachelijk, dat er zo'n verschrikkelijk zware voeding en 2 molexjes voor een videokaartje nodig is... Dit slaat toch nergens meer op?

Is wel een hele sprong... Mijn Geforce FX5900 en XP2400+ worden voortgetrokken door een 300watt voedinkje... Nogal een sprong naar de 480 :o
De 2 molex aansluitingen is niet zozeer voor de hoeveelheid stroom (een beetje dan). Het is niet zo dat 1 molex het niet aankan dat anders kabels smelten, (dat zou ook met 1 molex gebeuren). Of je zou 2 verschillende kabels pakken die uit de voeding lopen. Want als je anders 2 aansluitingen van 1 kabel erin prikt heeft het niet veel nut, dan gaat de totale hoeveelheid stroom alsnog door de zelfde kabel. Ik denk toch dat het voor het ontwerp makkelijker is en de stroom te verdelen over de kaart. Zoals hierboven is aangegeven, de koperebanen op de kaart moeten ook de stroomsterktes vervoeren, als je nou meerdere maakt gaat het wat makkelijker. maar waarom 2 is mij nog een raadsel. Enigste manier wat ik kan bedenken is layout van makkelijker en/of kosten te drukken door er minder layers pcb nodig is. Want als je bij de molex aansluiting 1 dik stuk koperbaantje naar 2 wat dunnere laat lopen heb je het zelfde effect dan 2 molex aansluitingen.

Achja, nvidia mag het weten waar het goed voor is :D (En dan zeggen dat PCI Express de toekomst is hehe, denk als ze nu 2 molex aansluitingen niet veel opschieten dan met PCI Express)
Misschien is dat tweede molexje alleen maar voor de koeling - peltier en fan? ;)

Iig vind ik de hoeveelheid geluid die de kaart maakt minstens zo belangrijk als z'n prestaties, dus ik wacht die X800 ook rustig even af.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*