Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties

Nvidia's 55nm-variant van de GTX280, de GTX285, was al geïntroduceerd maar de testresultaten zijn nu ook op grote schaal verschenen. De kaart is 10 procent sneller dan zijn voorganger en verbruikt aanzienlijk minder energie dan de GTX280.

De GTX285 vormt een 55nm-refresh van de GTX280. Dit zorgt ervoor dat er ruimte over is voor overklokken, aangezien de GT200b-gpu dankzij het kleinere productieprocedé minder warmte genereert, en tevens zou dit voor een lager energieverbruik moeten zorgen. Nvidia heeft voor zijn referentiekaart voor een bescheiden overklok gekozen. De kloksnelheid van gpu van de GTX285 is 648MHz, waar die van de 'oude' GTX280 op 602MHz liep. Verder is de shaderklok verhoogd van 1296MHz naar 1476MHz en is de snelheid van de geheugenklok op 1242MHz gezet in plaats van 1296MHz. Verschillende fabrikanten komen echter direct bij de introductie met overgeklokte varianten van de GTX285. De GTX280 was de snelste videokaart met één gpu en de GTX285 neemt het stokje over van die kaart; daarover zijn de reviewers het eens.

De snelheid van kaarten die het referentiemodel volgen, ligt gemiddeld 10 procent hoger dan die van de GTX280; de overgeklokte varianten doen het nog eens 10 tot 15 procent beter. De prestatiewinst valt wat dat betreft tegen als deze wordt afgezet tegen de meerprijs die voor de kaart betaald moet worden, zo vinden de testers. De GTX280 kan inmiddels opgepikt worden voor minder dan 300 euro, terwijl de prijs van de GTX285 begint bij 350 euro en de overgeklokte varianten tot boven de 450 euro. De belangrijkste concurrerende kaart van AMD is natuurlijk de Radeon HD 4870 X2 en deze kaart presteert significant beter, afhankelijk van het spel is het verschil zo'n 10 tot 18 procent, maar deze kaart is wat duurder en kende ook wat driverproblemen. Wat energieverbruik betreft is de Geforce echter duidelijk in het voordeel: in idle-stand verbruikt het systeem met de 4870 X2 dat Anandtech gebruikte bij de test 229,2W terwijl het GTX285-systeem slechts 181,3W verstookte.

Nvidia zorgt met de GTX285 al met al voor een aantrekkelijker product dan de GTX280 en de introductieprijs is op zich ook beter dan die van de oude variant destijds, luidt de conclusie. De huidige prijs van die GTX280 zorgt er aan de andere kant weer voor dat deze kaart momenteel een mooi alternatief vormt en als de prijs nog lager uit gaat vallen, zou de 65nm-kaart zelfs aantrekkelijk worden ten opzichte van de Radeon HD 4870 1GB. Het is dus aan de consument om goed de prijzen in de gaten te houden en te onderzoeken welke kaart het beste presteert bij welk spel.

Geforce GTX285 475

* Reviews:


Moderatie-faq Wijzig weergave

Reacties (74)

Ik ben eerder benieuwd wat de 295 doet. Snelheidswinst van de 285 tov de 280 is niet echt formidabel. Ik heb eerder 5 procent gehoord. Hier wordt 10 procent geroepen.
De 295 is goedkoper als je kijkt dat daar 2 gpu's in zitten en de 285 1. Toch is de 295 niet 2 x zo duur als de 285.

@Visgek: Als je de 285 tegen vind vallen ben je echt net zo gek als je naam doet vermoeden. Koop jij lekker een ati, ik kan je vertellen dat ze al de snelste single gpu in handen hadden en die hebben ze nu alleen vaster in handen gekregen met de 285. De oc-ediitie en vast zal er ook wel een super-oc-editie van uitkomen zullen aantonen dat deze kaart toch echt voldoet.

Daarnaast hebben ze ook de kroon terug voor de dual-gpu met de 295.
Lol eerst zeg je dat je hem zelf niet echt sneller vind (tegenvallen dus) en dan beledig je Visgek omdat hij dat ook vind :P

En ik vind ook dat hij gelijk heeft, stroom verbruik daargelaten biedt Ati veel betere prestatie voor geld.
de 295 is goedkoper omdat het hier over 2 GTX260/s op 1 bord gaat. Geen 280's. Wil overigens niet zeggen dat de 295 een slechte koop is.
Ik heb nog een hele mooie review gevonden. Hier worden ook de ATi Cat 9.1Beta Multi Core drivers in mee genomen:

http://www.computerbase.d...rformancerating_qualitaet

De GTX295 is meestal wel ietsjes sneller maar met 8x AA komt ATi wel behoorlijk terug. Leuke strijd in het top segment !!

[Reactie gewijzigd door Astennu op 17 januari 2009 02:03]

Beetje misleidende titel.
Ik dacht al dat Tweakers.net zelf dit ding heeft zitten overklokken om te kijken wat ie aankan.
Maar goed.

Waar ik naar benieuwd ben is het gewicht in grammen van deze kaart en vooral van de GTX295.
Laatstgenoemde schijnt nogal zwaar te zijn.
Nu heb ik een steunpilaar in m'n kast (Lian-Li) voor videokaarten.
Maar hoe zit dat bij mensen die geen steunpilaar hebben?
Moet je dan voorzichtig zijn met vervoer als je zo'n zware kaart erin hebt (of eruit halen)?

De GTX295 schijnt ook erg heet te worden.
Hoeveel graden wordt een miditower warmer met deze kaart erin?
En hoe zal dat 's zomers gaan met een kamertemp. van 28'C.

Maar 1 ding heb ik nooit begrepen, waarom mogen GPU's heter worden dan CPU's?
Op de site van NVidia staat dat de GTX280 GPU 105'C mag worden.
Een CPU heb je dan allang gaar.
p.s.
Wat ik altijd doe is gpu-fan op 100% zetten alvorens te gaan gamen.

[Reactie gewijzigd door MadButcher op 16 januari 2009 15:04]

als je een dergelijke kaart met twee schroeven aan de behuizing vastzet is er verder niets aan de hand. De koeler zorgt ook voor stevigheid. Los ophangen of met plastic klemmetjes die nog wel eens gebruikt worden in kasten (onder het mom van no screws required) werkt toch in veel gevallen niet handig.

Als je een redelijke airflow in je kast hebt zitten is er verder weinig aan de hand. Het koelvermogen gaat achteruit. Je kaart zal compenseren door de ventilatorsnelheid wat op te schroeven oid. Temps in de gaten houden is uiteraard nooit verkeerd, en eens in de zoveel tijd de stof eruit blazen met een compressor is ook geen overbodige luxe.
Ik houd altijd de temps in de gaten.
En ik blaas met lucht wel eens grondig schoon ja.

p.s.
M'n broer niet, die heeft al een 6800ULTRA en een 8800GTX opgeblazen. :*)
Met zware hangende onderdelen in je kast zou ik altijd toch iets voorzichtiger zijn; je zal bijvoorbeeld niet de 1e zijn waarbij een CPU fan o.i.d. gewoon een stuk van het moederbord er als het ware half uitscheurt.

Maar dat kan je natuurlijk redelijk makkelijk voorkomen, vervoer hem platliggend. De druk van je kaarten en al ligt dan naar beneden ipv dat het volle gewicht aan je andere delen trekt.

Bij stilstaan is het meestal niet zo'n issue, behalve als je misschien klappen of schoppen tegen je kast gaat geven als je een game niet wint :p.

Kaarten erg heet doet niet zoveel voor een midtower als de airflow goed is, ze zijn goed koel te houden. Bijvoorbeeld afgelopen zomer was mijn kast bij een kamertemperatuur van toch wel 25 graden ongeveer (zolderkamer, best warm :p) zo'n 37 graden in idle (kaart 49 graden) en onder load zo'n 40-41 graden (kaart bijna zeker 65+). Natuurlijk is dat zeker niks vergeleken met de 85+ gemeten met de gtx295 onder stress, maar schat dat die hoogstens op zo'n 45 zou uitkomen dan op een warme zomerse dag.

CPU temp ligt ongeveer 3~5 graden boven mijn case temp, dus zou dan zo'n 50 worden (uitzondering is echt i.g.v. 100% load).


CPU's kunnen trouwens ook best warm worden, ik weet nog wel een paar athlon xp's van bijna uit de steentijd welk op stock cooling rond 80~90 graden liepen en in de hete zomer dagen toch wel richting de 100 gingen eigenlijk zonder problemen. Die dingen hebben gewoon een jaar of 6 dienst gedaan en liggen nu een beetje ergens te verstoffen maar werkten nog wel.

Zou het zeker niet aanraden om je CPU constant daarop te gaan laten lopen en koeling te verwaarlozen; maar denk dat de lage temperatuurgrenzen gewoon erg strict genomen zijn.
@ ikke niels en de arme student:

Vaak ligt dat aan de persoon die de drivers niet op de juiste manier installeert of omdat er nog oude driver meuk aanwezig is op het systeem. Vind niet dat men meteen ATI de schuld moet geven als een driver update niet werkt. Ik heb sinds de 2000 serie een ATI kaart en nu de 4870x2 en ik heb nooit problemen en ik update altijd de drivers meteen. Hoe kan dat dan?

Ik zou zeggen gebruik drivercleaner eens of zelfs ati's eigen software uninstallation utility en installeer de laatste drivers nog eens een keer. Ik durf te wedden dat het dan wel goed gaat.

@ nieuwsbericht:

De 285 vebruikt minder, dat is duidelijk, maar presteert ook een stuk minder dan de 4870x2 waarmee hij vergeleken wordt. Dan vind ik dat nou ook niet echt een groot voordeel te noemen. Als die kaart nou beter presteerde en evenveel of minder vebruikte dan was het juist wel interessant geweest. Ik weet niet maar ik vind die 285 een uitgemolken 280. Het lijkt me erg zuur voor de mensen die duur hebben betaald voor de 280 en nu zoiets zien... Tja, nvidia eigen een beetje tegenwoordig niet?

[Reactie gewijzigd door peakaboo op 16 januari 2009 14:53]

@ peakaboo

Het is toch slecht dat je zelf met 3rd party cleaners aan de slag moet? nVidia drivers kunnen wel gewoon over elkaar heen en weer en terug naar beta en dan whql met een custom sausje zonder dat het (bij mij) problemen geeft. Dus ja ... ik vind dat je ATi daar de schuld van mag geven.
De tool die gewoon te download is vanaf de ATI site is gewoon van ati zelf en verwijdert alle ati-gerelateerde files. Dus je pc is dan schoon. Deze tools zijn er natuurlijk alleen als je daadwerkelijk problemen hebt met het installeren/verwijderen van drivers.

Ik installeer gewoon altijd de nieuwe drivers over de oude en dat heeft nog nooit problemen opgeleverd.

OS was vista 64-bit al die tijd en nu met windows 7 draait het ook prima.
Ik installeer gewoon de ati drivers over elkaar, nooit problemen. Met vista is het helemaal lekker, hoef je ook niet meer te rebooten.
En dan geef je Nvidia niet de schuld?
Tja mijn x800 is al tijden overleden, maar een simpel voorbeeld:

.NET drivers moeten verplicht geinstalleerd zijn anders loopt je hele installatie in de soep (als je met catalyst installeert), dan kan je zeggen "ja maar iedereen weet toch dat je .NET driver moet hebben" maar dat is zeker niet zo.

En als je eenmaal dan een foute installatie hebt gehad dan is het vrij vervelend om het er weer af te krijgen, aangezien de betere driver cleaners (bv http://www.drivercleaner.net/) commercieel zijn gegaan en daarvoor dan weer cash vragen (wat ook weer een rare situatie is maar blijkbaar is er genoeg vraag naar dat programma om commercieel te gaan).

Nu weet ik niet in welke os jij draait, maar in dit geval ging het om een 4870 x2 icm vista 64 bit :)
Magoed als je de tijd/zin hebt om driver problemen uit te zoeken (en gelukkig komen ze niet altijd voor!) dan is er natuurlijk niks op tegen, maar zeker voor de "gewone" consumenten dus de mensen die NIET tweakers.net bezoeken ^^ (uitzonderingen daargelaten) zijn dat soort uitdagingen gewoon een stap te ver en dat is dan toch erg jammer, besteed dan iets meer van het budget aan driver ontwikkeling zodat dat gewoon vlekkeloos gaat (want ik kan me ook voorstellen dat er vrij veel mailtje bij ati naar binnenkomt met vragen en dat kost natuurlijk ook genoeg geld om die te beantwoorden).
Op zich hoeft het geen probleem te vormen dat er geen .net draait. De catalyst geeft simpelweg alleen aan dat het niet draait zonder .net, maar het word wel allemaal correct geïnstalleerd.

Als je eenmaal later .net even meepakt als je aan het updaten bent werkt het allemaal prima na de reboot en kan je het catalyst control center gebruiken.
We can regard GeForce GTX285 as GTX280 Overclocking Edition with less power consumption. GeForce GTX280’s Maximum Graphics Card Power is 236W, and it requires a 6-pin and a 8-pin PEG Power Connectors. However, GeForce GTX285’s power consumption has been reduced to 183W with only 2 6-pin PEG power connectors needed.
src: http://www.pureoverclock.com/story.php?id=3228
Lijkt me nog wel mee te vallen
kende ook wat driverproblemen.
Wat is het toch met ATI en driver problemen....
Toen ik nog een x800 had was ook al drama, drivers installeren met en zonder catalyst drivers, tvouts niet aan de praat krijgend, freezes in spellen met bepaalde drivers, en blijkbaar is dat nog steeds niet opgelost.
Laatst had een vriend van mij de 4870 x2 aangeschaft en hij had ook problemen met meerdere drivers...

En dat is ook iets wat mijn laatste doorslag is geweest om te kiezen tussen ATI en Nvidia... wat eigenlijk natuurlijk erg vreemd is (immers het zou in eerste instantie moeten gaan om prijs/prestatie) (ookal was mijn keuze van de 8800GTS 640mb toen een redelijke optie tov de ATI kaarten in dezelfde prijsklasse).

En ja als je eenmaal een werkende driver hebt werkt het ook wel, maar owee owee als je update... en dat klopt in mijn ogen natuurlijk helemaal niet.

(En nee dit is geen ATI bash, immers iedereen weet dat ten tijde van de 9800 pro dat dat dé kaart was!)

[Reactie gewijzigd door Ikke_Niels op 16 januari 2009 14:56]

Inderdaad...ATI had en heeft veel driverproblemen...en die zijn echt rete-irritant...eindeloos zoeken naar een driver die wel helemaal goed werkt...en als die werkt: eraf blijven...

Maar ondanks dat, kom ik steeds op Ati uit i.v.m. de prijs/prestatie verhouding...want mijn drivers update ik niet zoveel, maar spelen doe ik des te meer en dan wil je gewoon bang voor je buck...

tuurlijk Ati heeft niet meer de performance-kroon, maar hoe ze nog steeds meedoen met (voor hun productiekosten dure, maar) sterk geprijste mid-range kaarten (bijv. de x4850 nu), terwijl de drivers af en toe belabbert zijn, is mij een raadsel...

Maar des te beter voor de budget-gamers onder ons...
Ati heeft de prestatie kroon nog STEEDS samen met de nieuwe GTX295.

Waar ik me aan irriteer is dat wanneer een nvidia kaart ineens in een 1650 X 1080 resolutie beter scoort die automatisch tot winnaar word bestempeld.

Bron ?

Hier heb je de bron : http://enthusiast.hardocp...wOCwxMSwsaGVudGh1c2lhc3Q=

Hier word duidelijk gesteld dat er een 1 op 1 match is tussen de kaarten. Slechts 1 spel scoort de 295 beduidend beter en visa versa.

Als je dit soort kaarten gebruikt zijn settings zonder AA en AS niet intressant en imo 3dmark scores nog minder waar een één of andere muts in een speedboat springt.

[Reactie gewijzigd door toet-toet op 16 januari 2009 15:52]

Eh, ATi maakt toch echt geen GTX295 denk ik. De GTX295 is een NVidia kaart en heeft 2 GPU's, dat maakt de 285 de snelste single GPU kaart op de markt, net als de 280 dat was voorheen.
Ik denk dat ie bedoeld dat 300fps vs 250 niet relevant is. Voor zo'n game doet het met die setting niet to of je 'n 9800GT of Quad GTX285 hebt want 100 fps of 500fps op lichte settings is niet relevant.

Maar crysis GTA4 trekken de high-end kaarten wel tot in de 20 á 40 fps. Tja daar maakt het uit. En met deze kaarten zit de omslag bij 1920x1200 of 2560x1600.
Met high setting en hoge AA en AF instelligen.
HDR Bloom depthof field softshadows aan.

HardOCP test game meer praktisch en pushed de game tot de max settings, waar je nog smooth gameplay hebt. Door te zoeken bij welke settings je dat haald.

En ja aTI (4870x2 ) deeld de prestatie kroon samen met de GTX295 (nV)
Praktisch dus.
Daar waar zo'n kaart zijn waarde laat zien in real gamen.

[Reactie gewijzigd door SG op 17 januari 2009 10:18]

Daarom kijk ik ook niet op de site van enthusiast.hardocp, vind het een waardeloos site.

Guru3D en Anandtech vind ik een van de beste test sites, veel overzichtelijker.

Geforce GTX 295

http://guru3d.com/article/geforce-gtx-295-review-bfg/

http://www.anandtech.com/video/showdoc.aspx?i=3498

En nu is Nvidia ook weer de snelste met dual GPU kaarten.

[Reactie gewijzigd door AmigaWolf op 16 januari 2009 16:26]

De Guru3d review van de GTX295 is ongelovelijk slecht. In vergelijking met andere reviews, kiezen ze per spel juist die setting waarin de GTX295 het beste presteert vergeleken met de HD4870X2, waar op hogere resoluties en dingen als AA en AF op hoge setting het verschil heel gering is en soms zelfs in het voordeel van de 4870X2. Dit laat Guru3d echter (met opzet?) niet zien, waardoor de GTX295 veel beter lijkt dan deze eigenlijk is.
ATI heeft en had nooit veel driverproblemen.

Als er nou één merk de laatste jaren bekend staat om problemen met TVout dan is het wel Nvidia. ATI heeft daar nooit veel problemen mee gehad.

De laatste jaren is het ook juist Nvidia waar mensen voor het ene spel de ene driver gebruiken en voor het andere spel de andere, omdat er geen enkele driver is waarbij alle spellen acceptabel werken.

Bij ATI is dat irritante gedoe eigenlijk over sinds de catalyst 7.x drivers.

Maar bij beide merken vind je mensen die veel problemen hebben en mensen met weinig problemen. Bij beide merken worden de problemen veel meer bepaald door omgevingsfactoren dan door de drivers van ATI en Nvidia.


Zelfs daarvoor (Radeon 8500 en eerder) was de reputatie van slechte ATI drivers totaal niet terecht.
Wat er gebeurde was dat Nvidia 6 maand eerder met een nieuwe kaart kwam dan ATI. De Nvidia drivers waren bij de release net zo beroerd als die van ATI. Maar in reviews vielen de performance bugs niet erg op, omdat er geen concurrent was die dezelfde performance kon halen en andere bugs werden goedgepraat omdat het de eerste kaart van een nieuwe generatie was.
Op het moment dat ATI dan met een nieuwe kaart met nieuwe drivers kwam, werd deze vergeleken met een Nvidia kaart waar Nvidia al 6 maand bugs in had kunnen fixen.
Uiteraard had op dat moment de Nvidia driver minder problemen als de ATI driver.

Op het moment dat ATI eens een keer de eerst was. (9700 serie) zag je ook meteen dat de situatie omgekeerd was.
Haha, je maakt een grapje zeker..

Op dit moment heb ik 2 HD4870 in crossfire, en heb nog nooi zo veel problemen gehad. Denk dat ik al we 20 uur in het drivers zoeken, en installeren ben geweest..

Wat een drama, op dit moment sta ik echt op het punt die zo het raam uit gooien en weer Nvidea te nemen.

Zodra ik Crossfire aan zet worden alle TV out opties gelocked en kan ik niks meer instellen. Dit zou gefixed moeten zijn in een nieuwe versie, 8.11. Deze versie ziet mijn crossfire niet.. Weigert in alle talen, dan maar weer terug naar 8.10.

8.12 komt uit! Mooi denk ik, had al een issue aan gemaakt op de site, misschien krijg je wel reactie of is het gemaakt in deze versie.. Geen reactie en geen fix. Nee nog mooier, 8.12 ziet nog steeds geen crossfire, maar heeft nu last van sponane crashes.

Nu schijnt het op te lossen te zijn met een Bios update van de kaarten. Maar als ik dat zelf doe, dan vervalt mijn garantie.. En het is niet eens zeker dat het werk..

nee, ati kan nog een hoop verbeteren..
Eh? Hoezo heeft iedereen het over drivers zoeken? Zoeken? Ik check gewoon iedere maand even ati.com voor een nieuwe CCC, ben al een half jaar een trotse bezitter van een 4870x2 en dat werkt als een tiet. Hiervoor een 1900XTX waar ik ook nog nooit een probleem mee heb gehad.

Als je normaal je Ati software deinstalleert heb je nergens last van...
NVidia heeft er ook een bijdrage naar, hoor. Misschien dat het aan XFX ligt, maar voor m'n 6800XT kaart (wat jaartjes oud alweer) zijn ook nooit betere drivers geleverd dan die initieel meegeleverd was. Een of andere sys/vxd file nv4_mini.sys file die zat te mieteren bij het booten van Windows. Da's echt jammer, want updates zouden juist tot op zekere hoogte een verbetering moeten zijn. Maar zeker niet dat je systeem crasht/vastloopt bij het booten. Maar dit kan overigens wel samenhang met de nforce4 mobo hebben. Daar was ook niet alles jofel mee.

En toen Vista net uitkwam, misschien nog wel het jaar erna, hoorde je ook altijd berichten dat er geen goede drivers voor Vista waren. Kunnen ze MS de schuld geven, maar lever dan gewoon geen drivers en speel zoiets als open kaart.

Maar ik heb nu een andere kaart, de 8800GTX, daar heb ik nog geen problemen mee gehad qua drivers updaten. En een of andere ATI mobile GPU in m'n laptop, ook geen drivertrouble. Bij jou weer wel zo te horen bij andere kaarten, maargoed.

Ik vind dan ook dat er niet in het algemeen uitspraak kan worden gedaan over welke videokaartenbouwer er nu betere drivers levert. Ze leveren wisselvallig goede en minder goede drivers, dat is wat je ervan kunt bakken :+

[Reactie gewijzigd door Grrmbl op 16 januari 2009 19:06]

Niet mee eens, ik ben een tijdje terug na jaren nVidia overgeschakeld naar ATI (4870x2) en ik moet zeggen dat de occasionele bsod's die m'n nVidia driver veroorzaakte nu verdwenen zijn. Misschien is er een andere reden voor je slechte ervaringen, bv. een slechte OC etc.
ik heb al ATI kaaten sinds de 9700pro (die overigens nog steeds prima werkt in de PC van mijn vriendin met 8.12)
(daarna een x700pro, x1900xt, en nu een hd4870)
ik heb eigenlijk bijna elke maand mijn drivers geupdate en op soms wat ongemakken na ging het eigenlijk altijd goed. je moet alleen wel in installatie instructies volgen.

en die zijn nog niet zo lang geleden veranders. ze raden nu aan de driver updates gewoon over de oude heen te zetten. en dat werkt tot nu toe gewoon prima.

TV-out heeft op alle kaarten altijd gewerkt, moest alleen vaak het beeld aanpassen omdat er wat weg viel bij films. niet echt een probleem.

freeses in games? zelden eigenlijk, en meestal volgende driver update opgelost of een hotfix. of het was de game's zijn fout.
en Nvidia kon er in het verleden ook wat van, je moest soms 5 of 6 beta's proberen voor je een driver vond die werkte als je een nieuwe kaart had met een nieuwe game.
en laten we het maar niet hebben over nvidia en vista in het begin.

je doet toch echt iets verkeerd.
Nooit problemen met windows en ati. Ook niet met windows en nvidia. Blijkbaar doe ik wel iets goed he. Alleen met linux en de oudere ati drivers was het lastig, maar is tegenwoordig ook geen probleem meer.(9000, Geforce 4, 2600pro, 8800GTS, HD4850).

@hier onder HD4850 + 4GB + Vista 64bit geen probleem. Dus ligt het gewoon aan de rest van jouw hardware.

[Reactie gewijzigd door Reinman op 16 januari 2009 15:53]

Geen problemen? 8.12 heeft allerlei problemen.
Installeren op een sli systeem lukte niet (daar is nu een hotfix voor).
En ik kan zelf 8.12 helemaal niet installeren (single 3870). Vista 64 bits en > 4 GB RAM. En dan lukt het niet. De beroemde code 43.
Get your facts right, ATI maakt gebruik van crossfire en niet SLI. Daar gaat het al mis waarschijnlijk.

Heb je die ati uninstaller al eens geprobeer te download van de site? Probeer het dan nog eens op nieuw. Ik heb ook de 3870 gehad single en CF met 4gb en ook 64 bits, geen enkel probleem...
Val toch echt ook in de categorie (vista 64bits + 8gb ram).

Heb drie systemen, 1tje op werk twee thuis (tenminste, eentje van mn roommate en eentje van mij). 3870 single, 3870x2, en twee 4870's in CF.

Drivers altijd netjes geinstalleerd zonder problemen, crashes of wat dan ook op alle 3 de systemen.

Ik bedoel dit niet echt om jouw reactie onderuit te halen of zo, maar wat hierboven al werd gezegd:

Het kan nou eenmaal altijd misgaan. Als _jij_ een slechte ervaring hebt met de drivers wil niet zeggen dat "de drivers van ATI voor iedereen slecht zijn".

Ik heb dezelfde slechte ervaring met nvidia drivers (in het geforce 6xxx en 7xxx tijdperk) maar je hoort mij ook niet zeggen dat gelijk de nvidia drivers dus maar brak zijn omdat ik er (veel) problemen mee heb gehad.
Wat een geflame weer ;( Mensen gaan Ati pas werkelijk afzeiken als ze zelf Nvidia hebben en omgekeerd hetzelfde.

2 systeempjes hier, 1 met evga 8800gts 320 sc en een met asus eah4850 1gb, lopen allebei als een zonnetje.

Drivers zijn en blijven nooit wat 't zijn moet(gelukkig).
De belangrijkste concurrerende kaart van AMD is natuurlijk de Radeon HD 4870 X2 en deze kaart presteert significant beter
Ik neem aan dat met 'deze kaart' de GTX285 bedoeld wordt? Mag ik het daar dan niet mee eens zijn? Als je de tweaktown review bekijkt presteren ze op 2560*1600 bijna even goed, en wordt het verschil pas echt relevant op resoluties van 1680*1050. Raar trouwens dat het normale patroon van 'verschil wordt pas bij hoge resoluties duidelijk' hier omgedraaid is. Het verschil zijn meestal maar 1-2 fps, dus vind ik het tegenvallen van Nvidia dat ze niet met wat beters komen qua snelheid. (far cry 2 is 4870x2 zelfs flink sneller (30-40 fps)).

Ik bedoel, zuinigheid is allemaal leuk en aardig, maar de mensen die een paar honderd euro neertellen voor een GPU gaat het helemaal niet om stroom verbruik... 8)7
met deze kaart wordt de radeon bedoeld. Maar deze heeft ook 2 cores en is duurder, zoals in het artikel wordt gezegd.
Duurder qua prijs nu nog misschien, maar qua productiekosten en leverbaarheid een stuk beter :)
... maar qua productiekosten en leverbaarheid een stuk beter :)
Ik daag u uit om 1 consument te vinden die de produktiekosten in overweging neemt bij het aankopen van een kaart.
Wat wel belangrijk is, is stroomverbruik en warmteproduktie, allebei in het nadeel van ATI.
Ik daag je uit om 1 consument te vinden die het stroomverbruik en warmteproductie in overweging neemt bij de aankoop van een dergelijke super high-end kaart.
Hoi! :P
Waarom niet? Volgens techreport scheelt het idle verbruik tussen 285 en 4870X2 maar liefst 120 watt! Bij de 295 is het nog steeds 80 watt! Als je dat uit gaat rekenen hoeveel je dat per jaar scheelt kom je snel uit op tientallen euro's. Wordt een simpel rekensommetje hoeveel energie een kaart scheelt, en dat kun je dan weer van het aankoopbedrag afhalen.
ahum... 80 watt verschil kost alleen 10tallen euro's als je pc 24 uur p/d aanstaat. bij 8 uur p/d is het nog maar iets van 20 euro, en bij 4 uur 10 euro....
Mijn ervaring is dat niemand iets om het stroomverbruik geeft behalve bij upgraden (omdat men wil weten of de huidige voeding het trekt) of bij umpc's. Als je een snellere
Nou, tada! Hier is er 1.

De GTX 285 verbruikt minder stroom en daardoor dus minder warm dan zijn GTX 280 broertje. De GTX295 (met z'n dual gpu) verbruikt dan weer enorm veel meer en wordt warmer.

De GTX 285 is daarom een prima high end kaart en die toch de warmteproductie en stroomverbruik nog enigzins binnen de perken houd.
Ik daag u uit om 1 consument te vinden die de produktiekosten in overweging neemt
Peakaboo wil enkel zeggen dat er in de 4870X2 nog heel wat rek zit qua prijzen, zonder dat het ATi pijn doet.
Lees hierboven ;)

Maar leg mij dan eens uit wie er rekening houd met het stroomverbruik? Mensen die zulke high end kaarten kopen en er 400+eu voor neerleggen, die maakt dat echt niet uit :) Warmteproductie, tja daar valt ook vanalles over te zeggen. Als ik mijn fan handmatig in CCC 2 of 5% hoger zet, dan zakken de temps met 20 graden per core bijna en zijn ze idle niet warmer dan 60 en 45 graden.

Tuurlijk is deze gtx 285 zuiniger, maar hij is ook langzamer :)
Al met al niet echt indrukwekkend IMO, had meer verwacht van 55nm. Wat het sterkste punt van deze kaart had moeten zijn; het verbruik, temperaturen en overklokbaarheid vallen tegen. 10Watt minder op 300watt is natuurlijk peanuts. Een GTX280 doet ook gewoon makkelijk >700mhz en wordt maar een paar C warmer doordat er een grotere koeler op zit.

Productiekosten zijn voor Nvidia lager, maar daar merkt de consument nu nog niets van. 380 dollar voor een GTX285 is gewoon te duur, tov 275dollar voor een GTX280 (newegg).

[Reactie gewijzigd door InfinityG35 op 16 januari 2009 15:16]

Hij is ook gewoon nog megagroot. Daar moeten ze wat aan gaan doen. Wie kan hier vertellen waarom die dingen zoiets als 2x zo groot als de agp kaarten uit het jaar 2000 zijn? Is dat omdat actieve cooler, SLI/crossfire en hdmi+tv out standaard nu inbegrepen is?
Kosten waren dan voor NVIDIA ook het belangrijkste punt, en het feit dat het sneller en zuiniger kan is mooi meegenomen. Deze kaart is dan ook niet bedoeld als upgrade voor mensen die nu al een GTX200 kaart hebben.
1242GHz? Ik heb er vaak van gedroomt dit ooit nog mee te mogen maken :)
Dat zal ongetwijfeld de komende 15 jaar nog eens gebeuren ;)
Foutje van de schrijver me dunkt

Heb toevallig vandaag m'n GTX280 OC binnen... Van het weekend eens kijken hoe hij het doet.

[Reactie gewijzigd door FragNeck op 16 januari 2009 14:36]

Denk het niet eigenlijk :) Ik denk dat men meer de grenzen van multicore processoren, meer transistoren, efficientere pipes en FPU's, en in de toekomst zelfs quantum computing opzoekt ipv hogere kloksnelheden :)
Mja, niet met CMOS technologie ben ik bang. Ooit afgevraagd wat er gebeurt is met de Pentium 4 6 GHz? Dat haalden en halen ze nog steeds niet (jammergenoeg).
Mogelijk met nieuwe technologieën dat er wel hogere kloksnelheden behaalt worden.
Ach ja wat een tijd he, dat het enige wat telde snelheid was. Maar ja rond de 3Ghz werden ze wel erg warm! Dat en om die snelheid mogelijk te maken werd de P4 basis wel erg inefficient!

Toen kwam de Amd X2...wow..dual core.en gewoon EFFICIENT. Hyperthreading is look maar twee echte cores ja daar zat de winst.

Nu dan kunnen we met 2ghz meer dan we ooit konden met de P4. Het enige wat ik nog mis is uit te schakelen cores. Ik bedoel niet downclocken nee UITSCHAKELEN!

Misschien komt dat er nog wel eens..ha tegenwoordig hebben we L3 cache up pc's voor de markt.
Wie weet zien we dit ooit nog met ballistische transistoren..
1242ghz zal hem waarschijnlijk niet worden, tenzij ze een staal vinden sterker dan diamant, aangezien anders je proc uitelkaar springt .

Vergelijk het maar met een cilinder, zijn ook gekoppeld aan een grootte ;)

Maar wel een toffe kaart idd, de maand Juli ben ik van plan een nieuwe pc aan te schaffen dus misschien komt er 1 van deze kaarten in :)
Heb sinds gisteren 3 in mijn systeem en het loopt lekker. Veel koeler dan de gtx280 en ietjes sneller..overklokke gaat ook lekker..zie hier

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True