Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties

In Hong Kong is al de eerste Geforce GTX285, de 55nm-versie van de Geforce GTX280, in de winkelschappen gespot. Officieel zal Nvidia zijn nieuwe kaart op 8 januari presenteren.

De eerste GTX285-kaart die in de verkoop is gekomen is de GV-N285-1GH-B van Gigabyte, zo constateerde de Chinese site Hkepc. Twee computerwinkels bieden de kaart aan voor 3200 en 3399 Hong Kong dollars, wat omgerekend neerkomt op ongeveer 296 en 314 euro. Op de Duitse webshop Neobuy staat het model echter voor een bedrag van 389,90 euro vermeld en dit lijkt een realistischer Europese prijs.

Nvidia heeft de GT200-gpu op 55nm gebakken, waardoor de GTX285 minder verbruikt en van hogere kloksnelheden voorzien kan worden dan de GTX280, die voor het overige identiek is aan de nieuwe kaart. Zo beschikt de GTX285 over een tdp van 183W, waar de GTX280 nog 236W verstookte. De gpu-kloksnelheid is verhoogd van 600MHz naar 648MHz, de shaderklok van 1300MHz naar 1476MHz, terwijl de geheugensnelheid op 1242MHz in plaats van 1100MHz is gezet. De Gigabyte-kaart is van 1GB ddr3-geheugen voorzien. Nvidia zal de GTX285 op 8 januari officieel introduceren, samen met de GTX295, die van twee op 55nm gebakken GT200-gpu's is voorzien.

Gigabyte GTX285
Moderatie-faq Wijzig weergave

Reacties (99)

idd nog steeds belachelijk veel !
Wanneer gaan GPU ontwikkelaars eens stoppen met kaarten maken die massaal veel watts verbruiken en waar x aantal fans en koelers op moeten geplaatst worden.
Het lijkt mij wel de netburst van intel ! 8)7
zolang gpu ontwerpen gebaseerd zijn op meer shaders = meer snelheid zal dit voor de highendkaarten zo blijven. ze stoppen er steeds meer parallele rekeneenheden in wat betekent dat stroomconsumptie omhoog gaat. Tenzij ze met een radicaal nieuw ontwerp komen zal dit zo blijven, maar dat zit je ook direct met een het probleem dat alle oudere videokaarten waarschijnlijk niet compatible zijn, directx moet worden herschreven. Zie dat dus niet zo snel gebeuren.
Je kunt best zuiniger kaarten kopen, verwacht alleen niet dat je dan dezelfde performance krijgt als een highend kaart. Highend slurpt, geld voor alles pc-onderdelen of auto`s maakt niet uit. Het doel bij highend is ook niet zuinig maar snel.
Voor zuinige onderdelen heb je andere oplossingen.
Nee. de reden voor meer shaders is dat is de game ontwikkeling heen gaat.
API makers, gamedevelopers en hardware vendors, samen kijken ze wat meeste waarde heeft kwa nieuwe features. Zo onstaat nieuwe hardware en API en dus ook games. En de richting gaat nu naar meer shaders.

Dat CPU GPU meer vermogen trekken ligd daar totaal niet aan. Al te bewijzen door te kijken naar de history van CPU en GPU van de Z80 tot Ci7
En Voodoo 1 tot GTX285.

De reden van meer vermogen is dat je bij elke Dieshrink je er meer transistors kan gebruiken die hoger geklokt kunnen worden en dat bij die ceiling het vermogen ook mee groeid. Het is niet lineair verbonden.

Dus dieshrink maakt zuiniger alleen bij de zelfde transistor count en klok wordt het zuiniger. Ga je bigchip limieten zoals Extra veel tranistoren hoge klokken dan wordt elke dieshrink juist vermogen slurpend. omdat de klok performance ceiling verlegd wordt en daarbij de vermogen ook mee schaald en in verhouding de zuinigheid aanzienlijk over compenseerd..

Is goed te zien dat CPU GPU vroeger makelijk passief gekoeld konden worden.
Wil je zuinig dan moet je de transisor count en klok en Vcore beperken.
Voorbeeld is nano een iel chipje dat zuinig is maar daar is dan ook de performance na.

Wil je zuinigere chips dat mogen ze geen extra veel transitoren in nextgen designs toevoegen En puur alleen dieshrinks. Goed voorbeeld is de GT200 die van 65nm naar 55nm naar 40nm gaat. Maar de GT300 doet dat mogelijk weer teniet. Door het maximale uit 40nm te halen kwa performance. Bigchip design.

Hebben ze een punt berijkt dat een 250watt PSU voldoet dan kunnen ze bij nextgen er met mate transistors en klok verhogen. Maar wel binnen de 250 watt blijven voor een basic setup.

Wil je zuinig ga je voor low budged of midrange.
En set je de game settings een stuk lager.

Wil nr 1 in performacne zijn haal je het maximale uit de gebruikte dieshrink en daarmee ook hoge vermogens bij elke dieshrink.
In theorie wel, Totdat ATI een kaart maakt die 2x zo snel is maar niet rendabel.
Dan moet nvidia mee, hoef je alleen maar voor in de GPU geschiedenis te kijken.
Verder is voor de fabrikanten een dieshrink vooral interressant omdat goedkoper produceren is. Dat jij 100 euro meer of minder voor je stroomrekening betaald hebben nvidia // ati niks aan voor de performancecrown of winst per verkochte chip.
Die zuinige chips zijn er, het heet low//midrange. Wil je geen kachel in je pc koop je 1 van die.
Kijk ook naar de 8800GTX, nvidia bracht pas wat nieuws uit nadat ATI had gereageerd op hun sof van de 2900XT. Ze kwamen met de teleurstellende 9800GTX en werden voorbij geblazen door ATI vanwege prijs//prestatie verhouding. Toen moesten ze met iets onrendabels reageren en dat werd de 280. Nu kunnen ze dat ontwerp rendabeler maken met een dieshrink. Maar op de 1e plaats stond de performancecrown vanwege de goede publiciteit die dat oplevert.

En trouwens lopen de videokaarten meestal voor op de games. Ontwikkelstudios ontwerpen meestal met midrange in gedachten, uitzonderingen als Crysis daar gelaten.
En over je gamesettings lager zetten, persoonlijk wil ik alles op max draaien, dus terugschroeven van de kwaliteit is voor mijn geen optie, en max vermogen op een bepaalde chipontwerp betekent niet dat je automatisch ook de snelste kaart hebt. Je wint dan de rendaments race niet de fps race.
En die laatste levert meestal de beste reclame op.

[Reactie gewijzigd door arbraxas op 3 januari 2009 16:22]

Zucht... wanneer gaan mensen eens ophouden met dit soort domme opmerkingen maken? Een X aantal transistoren betekent heel simpel gezegd een verbruik van X watt onder load. Het betekent ook een X aantal FPS bij je games. Wil je minder verbruik? Dan moet het aantal transistoren gewoon omlaag. Dat kan, maar dan krijg je ook minder FPS.
Chips volgen natuurwetten, het is geen magie. Als je minder verbruik wilt moet je gewoon een low-end kaart kopen, of je IGP gebruiken.
Zolang consumenten echter vooruitstrevende games als Crysis op full detail op 1920x1200 willen kunnen draaien zullen high-end kaarten heel veel stroom verbruiken.
Waarom kan Intel bijvoorbeeld wel een nieuwe generatie CPUs uitbrengen die veel minder watt gebruiken dan hun voorgaande generatie, inclusief die van de concurrent? En dat met vele betere prestaties?
Wat heeft Intel hier mee te maken? Sterker nog, wat hebben CPUs met GPUs te maken? Sinds de overstap van single- naar dual- en quadcore is de hoeveelheid transistoren op een CPU niet heel veel veranderd. Nieuwere procedee's zorgen dus voor betere performance en minder verbruik, net zoals dit bij NVIDIA en AMD het geval is bij G200b en RV670. Daarnaast heeft Intel hele stricte regels bij het ontwerp die zeggen dat er maximaal X extra stroom verbruikt mag worden voor Y performancewinst. Dat moet, omdat klanten geen genoegen nemen met een processor die teveel stroom verbruikt, zelfs als daardoor veel meer performance gehaald kan worden. Bij GPUs zijn klanten een stuk minder kieskeurig, ze willen gewoon zoveel mogelijk performance. Tja, dan gaan NVIDIA en AMD om de performancekroon vechten, terwijl Intel en AMD veel meer voor de performance/watt kroon vechten.
Overigens is het ontwerp van een GPU compleet niet met een CPU te vergelijken. Het is veel moeilijker om een CPU twee keer zo snel te maken, terwijl dit bij een GPU heel makkelijk is.
iNtel heeft er veel mee te maken.
Atom is het bewijs dat juist tegen hem werkt. 'n PIII is heel zuinig omdat PIII op zijn oude dieshrink er niet meer kon uithalen door klok limiet. Atom PIII afgeleide op moderne dieshrink is zo klein in transistor count dat het door dieshrink zuiniger is dan waar atom van afgeleid is. Dit is ten koste van performance.
Terwijl Ci7 weer een kachel is ondanks betere performance vermogen redement tov zijn voorganger. En P4 netburst een tijdelijk misstap van performance vermogen rendement. Maar dit staat los van wat je maximaal uit een dieshrink wil halen. Het kan dus erger zijn.

Als je voor Performance gaat , dan ga je het maximale halen uit betreffende dieshrink en dat zal meer vermogen met zich mee brengen. Onge-acht CPU of GPU.
Slechte rendement maakt dit alleen nog erger. Netburst.

Waarom kan Intel bijvoorbeeld wel een nieuwe generatie CPUs uitbrengen die veel minder watt gebruiken dan hun voorgaande generatie, inclusief die van de concurrent? En dat met vele betere prestaties?Komt hier op neer
Omdat iNtel profiteerd van Dieshrink voorsprong. profiteerd van grotere R&D resources dan de competitie. Omdat iNTel zo groot is dat het makkelijker de finaciele investment kan opbrengen voor dieshrink. En AMD daar niet mee kan komen.
iNtel hier door niet tot het uiterste gedreven wordt en dus de Vermogen ceiling van maar 150Watt steld. AMD moet hier ook onder blijven maar met dieshrink handicap

De strijd is op CPU gebied eenzijdig.

Op GPU gebied was dit onder ATI en nV gelijk waardig. Dieshrink komt van foundry's die beide kemphanen bedienen. Dus geen dieshrink voordeel. behalve als ze voor save of risk gaan. Dus een veel hevigere strijd. Doordat AMD ATI heeft overgenomen krijg aTI devise nogelijk ook 'n CPU achterstand klap mee. aangezien ATI resources onder de verlies leidende AMD vallen. Zie ik ATI als een minder slag krachtigere tegenstander tov nV. De mainstrean gefocusde RV770 past goed in dat straatje om kost effectief te zijn en richten op de belangrijke volume markt.

Door de hevigere strijd is de vermogen ceiling daar onder de 300watt

Was AMD groter en even snel met dieshrinks en grotere R&D dan kreeg de CPU vaker een architektuur update en zou AMD een stuk responiever tov van iNtel zijn en daar ook een hevige strijd zijn.

Je ziet dat met netburst. is er grote verschil in architektuur rende ment dan houd de zuinigere competitie de limiet omlaag. De stroom vreter kan niet zomaar de lat omhoog leggen want dan wordt ie minder aan trekkelijk. En de ander market daarop.
Maar als ze gelijk zijn dan wordt wel de limiet drastish verlegd zolang je niet te veel meer dan de competitie verstookt of daarbij meer performance leverd.

CPU GPU toch anders maar het vermogen probleem is het zelfde. Waar door de situatie daar anders mee om gegaan.
Als je nou een concreet voorbeeld geeft is dat een stuk handiger.

Doel je op overgang P4 naar Core 2 duo? De Core 2 Duo is vrij zuinig maar de P4 was ook gewoon belachelijk onzuinig dus van rampzalig naar goed is een enorme sprong ja.

Maar nVidia maakt met de overstap van 65nm naar 55nm ook een behoorlijke sprong, de nieuwe kaart heeft ongeveer 10% hogere clocks en is daarbovenop nog eens ongeveer 50 watt zuiniger (volgens het artikel). Als dit allemaal waar is, is imo zeker niet slecht en volgens mij een stuk beter dan bij de 9800GTX(+).

Je kunt gewoon niet verwachten dat die kaart ineens minder dan de helft verbruikt, dat de 280 nu 236 watt verbruikt verandert daar niks aan. Koop dan gewoon midend kaartjes, die maken meestal (uitgezonderd de 8600) ook grote sprongen en zijn stukken zuiniger. De midend kaart van de GTX serie zal wel weer een stuk beter worden dan de 9600GT.
Wat een bullshit redering ..
Waarom moeten mensen die zuinigheid kwa stroomverbruik hoog in het vaandel hebben perse richting mid range ?
Het is een prima streven dat mensen eisen dat Nvidia zuinige(re) High-end kaarten gaat produceren ....
Zoals bekend is (in de auto industrie bijv) hoeven high end en verbruik helemaal niet veroordeeld te zijn tot elkaar..
Zo rijden er al genoeg dikke wagens rond die net zo zuinig zijn als een middenklasser !
Omdat performance en zuinigheid niet samen gaan. Je moet dus kiezen. Maar jij wil niet alleen keizen maar het ook andere opleggen.
Dat is met je autovoorbeeld door C02 uitstoot klassificatie dat auto een bepaalde aandeel zuinige auto moet produceren. Reden dat dikke auto merken een volks auto overnemen om Co2 gemiddelde voor de mileuwet kloppen te maken kwa auto produktie normen.

Ook andere technieken om met cascade turbo. Zoals de TSI motoren. dikke motoren te evenaren kwa prestaties maar kwa deel last de eigenschappen van kleine cylinderinhoud profiteren. Dus performance en zuinig. Dan de hybride auto's.

Bij chips zijn het nieuwe produktie methoden en procedie technieken zoals SOI LowK en nog meer R&D technieken voor chip technologie.

Daarnaast is Ci7 een voorbeeld die is gericht op meer rendement uit de keuze van de logic die je gebruikt. De tSI van de chip markt. waar dikke V8 ongeblazen de Netburst voorsteld. Ook GDI technieken zoals leanburn bij deel last waar de werveling en injectie beekld en bougie plaatsing een deel van de verbrandings kamer maar gebruikt wordt bij deellast.


Maar wil je echt zuinig zijn dan moet je inleveren op performance.
Waar de een geen probleem heeft met een 8liter V8 Doge viper.
De andere 'n TSI V6 audie heeft.
en de ander 'n 3L lupo.

Prescott GT200A vs US SUV V8, Doge viper, Ford GT40
Ci7 vs Rv770 vs Audi quatro V6 TSI blok
Ci5 vs igpATI/nV vs 3L lupo
Atom vs iNteI-IGP vs die zonne autotje van die universiteit met die race in australie.


De regering en de EU is die auto industrie die richting pushen zou ook kunnen met PC componenten. Maar als je op GTX280 80% accijns op zet een 4850 20% en een atom een BTW reductie. Wat voor een effect zou dat hebben.
Alsof die redenering van jou klopt.
Die dikke wagens leveren dan ook pk`s in, datzelfde blok kan veel meer pk`s eruitpersen maar dat gaat tenkoste van het rendement.
Kijk naar de oude turbomotoren in de F1, 1.5 literblokje maar wel 1200+ PK.
Maar die rijden dan ook echt niet 1 op 12, wat hetzelfde blokje wel voorelkaar kreeg in de straatversie. Maar dan had je iets van 80PK
Voor videokaarten geld hetzelfde, deze kaart gaat voor puur vermogen dus slecht rendement, wil je een beter rendement zit je bij de midrangekaarten die langzamer zijn. Het is het 1 of het ander.
Als je dezelfde performance wilt voor de helft van de wattjes moet je wachten op de volgende generatie.
Of we warderen midrange naar highend en verbieden deze kaarten.
En dat nvidia // ati niks doen aan het verbruik is bullshit want deze kaart is zuiniger en levert meer pk`s als zn voorganger.
Je zit alleen maar te flamen met totaal geen realiteitszin. Willen en kunnen zijn verschillende dingen.
De ottomotor evolutie is niet 1 op 1 met chips evolutie te vergelijken.
ik graaf dieper en zoek wat raak vlakken op.
Als je doel is te zeveren over die auto vergelijking ga je gang.
Maar blijkbaar mis je het punt over de chips helemaal. Die auto's is alleen als doel om het fenomeen bij de chips te verduidelijken. Moet je wel weten wat van VAG TSI motoren.

Die F1 1,5 1200+ PK blokjes wat niet voor straat duurzaamheid gemaakt is maar standaard al om paar duizend km al gereviseerd moeten worden. Zie ik als.
chips met LN cooling. OC'en dus maar profesioneel 5800FX!
En bij kleine cylinder inhoud hoge vermogens en ongeblazen denk ik aan zeer hoge RPM.

Voor straat auto's denk ik aan honda Vtec. Waar je twee nokken as profielen hebt en waar door oliedruk in de tuimelaar gekozen wordt om de sport profiel te pakken.
CPU speedstep technologie. denk ik dan aan. Of factory easy OC. PC Turboknop.
Lekker raak vlakken zoeken.
Als je even oplet zie je dat ik niet op jou reageer maar scherpmes.
Die haalde de otto zoals jij m noemt erbij heb ik maar op voor geborduurd
Je analogie met wagens raakt kant nog wal. Je vergelijkt namelijk features van een auto, met performance van een grafische kaart.

Een lowend 8 serie kaart zoals de 8400GT heeft net zo veel features als een 8800GT, echter issie veel minder snel. Hij is wel zuinig. Net zoals een luxe dikke wagen die met veel features en weinig paarden ook zuinig is.

En als er het high end segment zoals we dat nu kennen er niet zou zijn, dan zou mid end high end zijn (duh), waarbij je minder verbruik hebt, maar ook minder absolute performance. Dus vandaar mijn advies om uit te wijken naar mid end als je niet houdt van grootverbruikers.

En over al het gezeur in het algemeen over hoog verbruik, dat komt door de consument zelf, niet door de fabrikanten. Als iedereen morgen ineens milieubewust wordt en geen GTX280's en 4870X2's meer koopt dan zal ontwikkeling vanzelf verschuiven naar zuinigere kaarten.
Oh gaan we verder met Auto raakvlakken tov chips verdiepen.
TSI is geen feature maar een techniek waar de rijder niet veel mee kan behalve gas geven. De rijder merkt er niks van. Aleen die drie letters op zijn car.
Maar heeft wel positiefe invloed op vermogen en brandstof verbuik. Totdat ie tankt. en dus energie verbuikt. voornamelijk HC + O2 = H20 + CO2 met nog wat rest produkten Co2 is dus direct gelinkt aan ook brandstof gebruik.. Specifiek brandsof gebruik van de motor.
'n power key of nos knop is een directe motor feature.
Die motormanagement menu voor M5 in de console is een feature.

Je vergeet de nV vs ATI competitie die drijft het tot grote hoogtes.
En er is altijd publiek die voor performance gaan ipv zuinigheid.
Brittish American Racing ging ook de beste auto maken en in hun eerste jaar meteen het WK op hun naam zetten.

Eerst zien dan geloven. Zolang ze het niet op de markt zetten, en het getest kan worden kan het geen awards winnen. (vaporware award even niet meegerekend).
Dus zullen high-end kaarten naarmate de zeitgeist vordert gedoemd zijn om uit te sterven !
Simpelweg omdat je op een gegeven moment het voor je vrije tijd plezier kwistig verbruiken van stroom niet meer kunt recht praten omwille van een Pc spelletje terwijl zowat alle gebruiksgoederen in de wereld drastisch terug geschroefd verbruik tonen in ruil voor gelijke prestaties !
De enige reden dat een high-end PC in feite nu zoveel slurpt is vanwege de high-end videokaart die er in zit !
Blijft die achterwege scheelt het vaak een derde tot zelfs de helft kwa verbruik !
En dan worden de lowend kaarten dus highend, die te veel slurpen.
In jou geval zou ik gewoon de pc het raam uitgooien, vreet ie geen enkel wattje meer.
Wat jij wil is supergeleiding bij kamertemparatuur en dat is praktisch (nog) niet uitvoerbaar.
Ik heb ook liever dat mn hele systeem maar 2W verbruikt maar dat is technish niet mogelijk op dit moment. Hoe hard jij ook schreeuwt, dat gaat niet gebeuren.
En dat hele "verbruik minder energie" denken van nu is ook een dooddoenertje.
Je mag niet dumpen maar betaal de regering een X bedrag en het mag wel. Isoleer je huis beter voor het mileu, en de gasboeren want die kunnen jou 10 jaar langer gas verkopen. Maar op gaat het, samen met de daaraan gekoppelde CO2 uitstoot.
Electrische auto`s. Er worden in de Eemshaven nieuwe kolencentrales gebouwd die dat autotje van prik gaan voorzien. Waar is de winst voor het mileu? De kwade dampen komen alleen op een andere plek uit de pijp.
En hoeveel energie is nodig denk je om zonnepanelen en windmolens te maken? Vooral die eerste bestaat uit chemische meuk die ook nog eens verwerkt moet worden nadat je ze weggooit. Rendement 0.0 het zou me niet eens verbazen als die dingen een negatief rendement hebben.
Wanneer gaan GPU ontwikkelaars eens stoppen met kaarten maken die massaal veel watts verbruiken en waar x aantal fans en koelers op moeten geplaatst worden.
Zodra consumenten stoppen er geld voor te betalen |:(

[Reactie gewijzigd door sparidem op 2 januari 2009 15:11]


[...]
Zodra consumenten stoppen er geld voor te betalen |:(
Ik kan me eerder voorstellen dat kaarten bouwers hier tegen in protest gaan.
Een kaart met een kleinere koeler is natuurlijk goedkoper in productie (denk dan aan materiaal kosten, fte's - ook als dit wordt uitbesteed) en dat kan de verkoop prijs weer ten goede komen.
Onzin
Nvidia`s winst komt niet van deze kaarten maar van low/mid range.
De performancecrown doet echter die sector wel meer verkopen. Veel doorsnee consumenten denken van Nvidia heeft de snelste dus mijn goedkopere nvidia is ook sneller als de ATI. Ook al hoeft dit niet waar te zijn. Zie het maar als reclame. En als die koeler 10 euro duurder is, word de prijs gewoon 10 euro hoger. FPS freaks betalen het er toch wel voor.
Toch lijkt het dat door AMD ATI sucses dat de consument hier niet meer voor valt. Of toch nog? Denk dat nV nog steed op dit gevoel wil inspelen. En gezien sommige 'veegt de vloer aan reacties' zijn er nog genoeg mensen gevoelig voor.
Misschien omdat AMD er met prijs performance aardig heeft in gehakt . Als een donderslag. Maar dat dit feneomeen weer terug komt als de verschillen kleiner zijn in de mainstream. Zo heeft nV ook een goede prijs vechter met performance de 9800GT.

[Reactie gewijzigd door SG op 3 januari 2009 23:07]

Als de consument daar niet gevoelig voor is waarom heeft ATI dan de 4870X2 uitgebracht?
Dat AMDTI zich focused op de upper mainstream sluit high-end niet uit.
En de investering in een Dual GPU oplossing is stuk geringer dan een big chip oplossing te ontwikkelen.
Idd, ik zou er niet naar om kijken. Ik ben niet zo van de videokaarten, maar met een cpu kan het me vrij weinig schelen wat het stroomverbruik doet, ik wil prestaties en energiezuinigheid gaat daar niet mee samen.
Daarnaast, er zijn ook genoeg energiezuinige kaarten, genaamd mid-end modellen. Ik stond versteld van mijn 4670 wat die op het beeld tovert ivg met het stroomverbruik/prijs.

[Reactie gewijzigd door poepkop op 2 januari 2009 19:13]

Top of the line neemt altijd meer stroom is groter e.d, dat is altijd al zo geweest, en zal altijd ook zo blijven.

Wil je niet veel stroom verbruiken? Dan moet je niet een top of the line kaart halen, en is een mid-end, budget kaart meer voor jou.. Het is of het één of het ander hè.
hij heeft gelijk.
wil je meer berekeningen per seconde uitvoeren.
heb je meer kracht nodig.

net als dat de panda trager rijdt dan een ferrari.
maar wel zuiniger.

en in computerland is er niet zoiets als ee betere brandstof.
dus ee zuinige echt high end kaart. is gewoon neit mogelijk punt.
Je kan hem altijd in combinatie met een GeForce 8200 of 8300 moederbord gebruiken (en het zal vast wel opgelost worden voor GeForce 9300 en 9400 moederborden), zodat hij bijna volledig uitgeschakelt kan worden voor 2D desktop gebruik, idle, etc.
De Hybrid SLI.
Dacht dat ie wel volledig uitgeschakeld wordt. Maar al zou het één watje zijn. tov 25 idle á 230Watt stressed Valt onder de 1 watt niet meer op.
Nadeel van Hybrid SLI is dat de monitor op de chipset aangesloten wordt. En de Gkaart reken kracht resultaat naar de chipset moet overgebracht worden. Hybrid SLI lever je iets aan performance in.
Al is zo'n Hybrid SLI mobo met GTX280 wel interresant. Maar met 25 vs +/-230watt is de nood aan deze oplossing niet zo groot als de serie daarvoor.
volgens mij scheelt dit niet heel veel van idle verbruik.. gezien de kaart niet geheel uitgeschakeld kan worden fysiek. Deze zal in low-idle mode draaien. Desalniettemin weer een besparingkje voor het milieu en een erg goed idee.
de GTX280 verbruikt idle 25watt, deze moet dankzij 55nm zuiniger zijn

http://www.guru3d.com/article/geforce-gtx-280-review-test/5
Ik zou niet zomaar guru3d op hun woord geloven, vooral omdat het niet duidelijk is hoe ze aan die cijfers komen en ze verderop wel aangeven dat het testsysteem in idle boven de 150 watt zoop... Wat, dat is 125 watt aan de rest van je systeem dan?
Volgens xbitlabs, die het volgens mij iets beter kunnen onderbouwen, zit de GTX280 rond de 50 watt idle. Dat is hetzelfde als een 8800GT en zeker niet slecht voor zo'n highend kaart, maar bepaald niet zo zuinig als guru3d doet denken.
Je trekt de conclusie al ''echt belachelijk'' terwijl je niet eens een test hebt gezien?
De koeler is natuurlijk ontworpen op de worst case warmeproductie, dus die zegt niets over het idle-verbruik.
zoals men kan lezen kan men concluderen dat het om een overgeclockte versie gaat van de GTX280. Wat de ietswat grote koeler weer een stuk beter plaatsbaar maakt in het geheel , gezien deze kaart ongetwijfeld meer hitte zal produceren.
Op 55nm, dus kan hoger tikken met minder warmte productie dan nog.

De TDP is met 80 watt zoiets afgenomen.
Ik moet zeggen, 183W TDP is netjes voor een kaart die de vloer aanveegt met de HD4870X2, alleen het idle verbruik zal wel weer iets te hoog liggen..
je verward hem denk ik met de gtx295.
dit is een iets hoger geklockte gtx280 en niet de dubbelen gtx260.
deze gaat dus zeker niet de vloer aan vegen met de hd4870x2. hij zal zo'n 5 a 10% sneller zijn als de oude gtx280.

edit :
de rv700 bestaat niet, de code naam voor de 2 gpu's op de hd4870x2 is de r700
de 2 gpu's zijn allebij rv770's (die samen dus r700 heten).
de rv770 is idd langzamer als een gtx200 gpu. maar zoals gezegd ook veel goedkoper. sterker nog 2 rv770 zijn maar een aantal tientjes duurder als 1 gtx200 gpu. en samen zijn ze sneller in alle games waar crossfire redelijk tot goed in werkt.
deze nieuwe gtx200 (gtx212 volgens mij) veranderd aan dit feit niet veel.

[Reactie gewijzigd door Countess op 3 januari 2009 02:58]

je verward hem denk ik met de gtx295.
dit is een iets hoger geklockte gtx280 en niet de dubbelen gtx260.
deze gaat dus zeker niet de vloer aan vegen met de hd4870x2. hij zal zo'n 5 a 10% sneller zijn als de oude gtx280.
In zekere zin veegt deze kaart wel de vloer aan met de 4870X2, de GTX285 is een enkele GPU en de 4870X2 zijn er 2 op 1pcb als ik mij niet vergis dus dat wil zeggen dat de GTX200 wel degelijk sneller is dan de RV700 die volgens mij word gebruikt op de 4870X2
Nee totaal niet. Die gedachte geld voor twee kemphanen die mekaar bestrijden met de bigger chip stratigie. R600 vs G80 valt daar onder.
En gT200 in 65nm en 55nm ook.

Maar RV770 niet. Deze is kwa kosten setting gericht op upper mainstream instap high-end. Door ATI de performance klasse genoemd.
De GT200 is bedoeld als king of the hill high-end.
Dus een strijd met een andere stratigie.

RV770 met doel performance voor de mainstream gamers.
Kost effectief goed prijs performance leveren.
High-end is Dual GPU. Ook dus kost effectief high-end leveren.
Zonder een dure te maken bigchip in produktie.

Dus ja Dual en single kan in deze geval wel tegen mekaar gezet worden.
Als nV 'n zware bigchip Dual wil maken. Op die kleine markt van top of the world performance kost alleen maar nV geld voor wat prestige. Nee AMD ATI richt zich op de mainstream. Daar waar het grote geld door volume sales ligd.

Met dit geeft ATI nV de exteem high end uit handen aan nV. Maar nV weet nu 'to big is to much.' En dus een vekeerde aanpak voor een rivaal die voor mainstream gaat.

Maar chip design lopen voor 3 jaar in ontwikkeling dus denk dat die GT300 gewoon een dure big chip wordt.

De 4870X2 was de GTX280 beater. De GTX285 kon wel een zijn directe tegen hanger worden en de GTX295 wordt dan marginaal de snelste wat er te krijgen is.
Voor gamer maakt 4870x2 en GTX295 vaak niks uit verschil is te klein draaid beiden smooth op de zelfde settings volgen gameplay test met previews.

Maar de massa zit meer in de 4850 range 9800GT/GTX+

De reden van nV dwangmatige obsessie om de nr1 te zijn is dit. Als je de prestege imago kroon hebt trekt dit ook de mainstream sales omhoog. Vanwege dat de poor gamer toch naar de nr1 kijkt en daar hun budged Gkaart keuze op laten baseren. Wat dom is. Tenzij de nr1 daar toevallig ook heerst.
Maar ATI stratigie en sucses wijs dus uit de de gemiddelde consument toch wel slimmer is.

Wie king off the hill is. is van belang voor die klanten die +/- ¤500 te besteden hebben.
Dat zijn er niet veel.
Voor mij geld al langer afhankelijk wat ik te besteden heb en wat er op andere vlakken anders is. bepaal ik mijn aanschaf aan prijs performance feature set en vermogen.
Met +/- ¤300 of minder doet wie de snelste is er iig niet toe.
Ja, maar ook veel duurder. Dus nee, er wordt nergens de vloer mee aangeveegd.
De GTX285 is geloof ik niet veel beter dat HD4870X2,misschien die GTX295 maar daarvan staat de stroomverbruik niet vermeld.
GTX295 zou 289Watt worden
En die is voor het grote bench cijferspel gemiddeld 10% sneller dan de 275watt 4870x2. De GTX285 zal ergens tussen de GTX285 en 4870x2 vallen, mogelijk wat dichter bij die laaste.
precies- de vloer aanvegen wil ik zelf ook wel 'ns eerst zien, geloof er niks van met de relatief 'kleine' verbeteringen ten opzichte van de GTX280.

offtopic:
*ruiktfanboy*
klopt De GTX295 is gemiddeld 10% sneller dan de 4870x2 volgens de preview benching. Maar ja we zien wel wat de Full reviews uitwijzen.
Dus voorlopig voor nu. leuk iets meer performance voor ietsmeer vermogen en uiteraard ook iets meer kwa straatprijs. Want aTI en nV zullen bij deze release ook opmekaar gaan afstemmen.
Als een kaart van nvidia 4 3dmarks meer haalt dan ééntje van ati, veegt zo'n kaart meteen de vloer aan met de ander volgens de fanboy. Gaat andersom ook op trouwens. En wat schiet je er mee op in dagelijks gebruik? Nietsch.
Ik zoek nog steeds achter motivatiesom deze kaart uit te brengen, ze brengt weinig nieuws onder de zon, lijkt gewoon een 55nm prototype met overclock van de GTX280 die ze proberen te verslijten? Het lijken echt oc-cijfertjes toch: 648mhz ipv 650 etc. Het lijkt echt alsof de kaart met deze clocks nét stabiel is. Ik ben dus zeer benieuwd wat de overclock-reserve nog is voor de gebruiker.. Over 72 uur waarschijnlijk wel te vinden :)

Overigens wil je niet weten hoeveel ton er per jaar naar research gaat enkel en alleen om de verbruik/prestaties verhouding te verhogen. 8)7

edit: typo O-)

[Reactie gewijzigd door stits op 2 januari 2009 19:53]

nvidia had dit nieuwe process juist hard nodig. hun kaarten leverden al minder performance per transistors (ondankt de veel hogere clocksnelheid van de shaders) en dan gebruikte ze ook nog een ouder process wat dus duurder is per transistors gemiddeld.
en dan hadden ze ook nog een hele grote chip met een lagere yield dus.

nvidia's marges zijn dus flink onder druk gezet door ATI met hun hd8xx serie. hiermee maakt nvidia dat voor een deel ongedaan door nu (ongeveer) de zelfde prijs als ati te betalen per transistors en de yields worden beter omdat de chip flink in oppervlakte zijn gekrompen.
Ik zoek nog steeds achter motivatiesom deze kaart uit te brengen, ze brengt weinig nieuws onder de zon, lijkt gewoon een 55nm prototype met overclock van de GTX280 die ze proberen te verslijten?
Tja, NVIDIA heeft nu eenmaal 55nm chips, omdat deze als het goed is net iets goedkoper zijn. Het is een beetje zonde om daar dan geen gebruik van te maken, zeker als je zoals NVIDIA er niet heel goed voor staat in de performancerace (hoewel dat meer een kwestie van prijzen en gevoelens is dan op feiten gestoeld).
Volgens dezelfde doel als G92.
Om produktie kosten plaatje vs advies prijzen beter in verhouding te brengen.
Is iets, wat een heel normaal fenomeen is met biggerchip formule.
Leuk, maar nog steeds geen DX10.1 support.. ofwel, niet future proof. Nu steeds meer grote gamefabrikanten zich in het DX10.1 kamp scharen (bv Blizzard), gaat dat in de toekomst nog leuk worden als je een "topkaart" hebt, die dus geen dx 10.1 kan.
DX 11 is de volgende logische stap om vol op in te zetten. DX 10.1 is met Windows 7 op komst niet echt een interessante versie om nog helemaal op te ontwikkelen. Beter meteen naar DX 11 ontwikkelen.
DX11 is misschien wel de meest logische volgende stap, maar om DX11 volledig te ondersteunen moet elke IHV zoals AMD of nVidia wel volledig backwardscompatible zijn. Dat houdt in dat ook NV alle functionaliteit van DX10.1 moet gaan ondersteunen, anders krijgen hun videokaarten nooit het predicaat "DX11 Compliant" mee.

Daarnaast zal volgens mijn welingelichte bronnen (zie het forum voor meer info) de volgende generatie GT21x naar alle waarschijnlijkheid wel DX10.1 ondersteunen.
Ik heb ook ergens gelezen dat windows 7 Arero vanaf DX10.1 ondersteund.

Maar ja de bak die ik nu Q1 aanschaf zal met een Vista 64 OEm komen.
Voor window7 upgrade ik mijn 2de bak voor Windows 7 OEM met DX11 kaartje..
HIj staat ook op pre-order bij Salland

http://www.salland.eu/?re...DFnLXAzLTEyODEtYXIuaHRtbA==

Maar feit is wel het TDP gebruik is achteruit gegaan logisch ook op 55NM', hij is sneller geworden in de specs, en word door het 55NM proces ook nog minder warm.
En we kunnen natuurlijk roepen ja maar nog steeds is dat verbruik te hoog, akkoord echter hoge prestaties vragen 9 van de 10x eenmaal meer energie.
AL is het idle verbruik al relatief netjes als je het mij vraagt


De prestaties tov de * GTX 280* zal ook wel ingame zal resulteren tot een positieve verhoging.
En de prijs valt me voor Nvidia begrippen mee aangezien we nog geen jaar terug erg veel betaalden voor dit soort prestaties, maar ook dit is mede te danken aan ATI.

Men zette zich zo sterk op de kaart kwa prijs/prestatie met de 4000 series dat Nvidia gedwongen werd tot verlagingen wat ons alleen ten goede kwam of we nu liever een nvidia kaart hebben of ATI kaart.
Nu nog wachten op de reviews van deze GTX 285 tov de huidige kaarten en natuurlijk ook de 4870X2 al word de GTX 285 daar niet tegen gepositioneerd, maar de GTX 295.

Ik denk dat dit een mooie kaart kan worden op high end gebied, als de prijs nog verder zal zakken, wat wel zal gebeuren vanwege dat dit nog een pre-order prijs is.

Nu ook zien wat ATi gaat doen, of men zich van het nieuws over de GTX 285 maar ook van de GTX 295 iets zal aantrekken van de prijs stellingen van de 2 kaarten, zal de prijs verlaagt worden van de 4870X2 is de vraag.

Ik heb zelf het idee dat dit al zachtjes aan het gebeuren is zie de link hieronder ( als voorbeeldje)

Ik heb verder geen hard bewijs of bron van ATI zelf maar ik heb echt het gevoel dat men dit aan het doen is, er zijn meer merken waarvan de prijzen zakken bij diverse webwinkels.
Of is dit omdat het weer beter gaat met de economie?
Of is het door iets anders?

Edit:

Het heeft ook deels te maken met de lagere dollar koers .
$1,20 was hij vorige week ong en hij is nu $1,40.


pricewatch: Sapphire HD 4870 X2 2G GDDR5 PCI-E

Die is toch relatief gezakt tov een tijdje terug.

Word even afwachten of ATI zich gedwongen voelt nog verder te zakken..
Omdat men nu wel in een luxe positie zat tot nu toe, de kaarten vliegen als warme broodjes over de toonbank.

Worden mooie tijden voor het high end segment voor de gamers die daarin vertoeven.
Mooi om deze strijd te volgen van de 2 grootmachten.
Win/win situatie voor ons de gamers.
Ik als neutrale persoon juich dit van harte toe

[Reactie gewijzigd door pino85 op 2 januari 2009 18:00]

Het wordt tijd dat men zich eens gaat focussen op het beperken van het formaat van een videokaart, die dingen zijn qua oppervlak tegenwoordig bijna net zo groot als een mATX moederbord. Heel erg vet die snelle videokaarten, maar het lijkt wel alsof er met iedere nieuwe serie er ook 10% omvang bijkomt. Het is volgens mij ook minder moeilijk om een videokaart 2x zo snel te maken als je de kaart ook 2x zo groot maakt omdat de boel simpelweg verdubbeld wordt. Alles wordt kleiner en compacter aan computers, alleen die videokaarten blijven maar groeien.
Tja jouw verhaal heeft natuurlijk twee kanten, als er één gebied is waarop percentueel de laatste jaren op prestatie gebied veel vooruitgang wordt geboekt is het natuurlijk wel de grafische kaart. Een bewijs dat het ook anders kan zijn bijvoorbeeld de System on a chip concepten, maarja dan hoef je ook geen HD Graphics te verwachten...

Ik bedoel op processorgebied wordt al jaren geen significante vooruitgang meer geboekt en daarom zie je dat ze zich meer gaan focussen op het doorontwikkelen van de huidige techniek, en dan kun je inderdaad de chips verkleinen, daarmee op lagere spanningen gaan werken en dus minder energie verbruiken, maar daarmee verhoog je eigenlijk vooral de performance per watt maar kom je op brute performance weinig vooruit.

Voor de XBOX360 en PlayStation 3 GPU's zie je diezelfde trend, aangezien de GPU vanuit praktische overwegingen niet meer krachtiger mogen worden gemaakt wordt er enkel gefocust op het verkleinen van het energieverbruik waarmee op zijn beurt de koeling weer enigszins kan worden verkleind.

Maarja bij de PC is het toch elk jaar een nieuw prestatie gevecht tussen AMD/ATI en nVidia en zolang performance voor consumenten eerder de doorslag geeft dan energieverbruik en de daar sterk mee samenhangende omvang zullen ze dit blijven doen. Daarnaast hoef je ook niet de high-end te kopen, mainstream kaarten hebben over het algemeen veel meer focus op efficiëntie...
zou ik ook wel willen weten , maar toch mooi dat ze het load verbruik omlaag hebben gebracht, het loopt anders wel erg hard ,vooral met de stroomprijzen op van daag

tis alleen jammer dat het idle verbuik waarschijnlijk niets is veranderd
je hebt een punt.

Anderzijds kan je ook wel stellen dat, wie zich een Ferrari aanschaft, wellicht ook niet op een litertje(s) Super98 méér zal kijken... :)
Als hij onder full load zuiniger is op een hogere snelheid, zal hij in idle(op dezelfde snelheid als de oude dus), ook zuiniger zijn ;)
Ja verwacht dat ie van 25 naar 15 tot 20 Watt gaat idle.
GTX283 zou 183Watt zijn
Mij maakt het geen reet uit hoeveel zo'n kaart verbruikt, zolang een 700watt voeding maar genoeg is vind ik dat een high-end kaart best wat stroom mag slurpen
GTX285 maar 2x 6pin extern voeding nodig (ipv 6pin & 8pin bij oud GTX280)
GTX285 = 183 < 75 + 75 + 75 = 225 // ruimte voor flink Oc'en.
GTX280 = 236 < 75 + 75 + 150 = 300 // ruimte voor te OC'en.
GTX295 = 289 < 75 + 75 + 150 = 300 // weinig ruim voor te OC'en.
Misschien dat er een custom dual 8peg water cooled versie komt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True