Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties

Fabrikant van grafische chips Nvidia heeft de GeForce GT 220 en de GeForce 210 voor consumenten uitgebracht. De budget-videokaarten met 40nm-gpu's en DirectX 10.1-ondersteuning verschenen al eerder dit jaar voor systeembouwers.

Onder andere Zotac, Asus, Gigabyte en Palit behoren tot de eerste lichting fabrikanten die GeForce GT220 en de GeForce 210-kaarten op de markt brengen. De 210 is het langzaamste model en deze kaart heeft 16 shaderprocessors, een 64bit-geheugenbus en 512MB ddr2-geheugen. De gpu, de shaders en het geheugen hebben kloksnelheden van respectievelijk 589MHz, 1402MHz en 500MHz. Onder andere Gigabyte voorziet zijn versie van hogere snelheden, 650MHz voor de gpu en 1547MHz voor de shaders, maar de geheugensnelheid ligt met 400MHz weer lager.

De GT220 is de snellere van de twee: dit model heeft 48 shaderprocessors, een 128bit-geheugenbus en maximaal 1GB gddr3-geheugen. De kloksnelheden liggen ook hoger: de gpu loopt op 615MHz, de shaders op 1335MHz en het geheugen op 790MHz. Opnieuw geeft Gigabyte zijn model hogere kloksnelheden: respectievelijk 720MHz, 1566MHz en 800MHz.

De GT220 zal in Europa ongeveer 60 euro kosten terwijl de GeForce GT210 iets meer dan 40 euro moet opbrengen. Tom's Hardware onderwierp de kaarten aan een test en ontdekte dat de gddr3-versie van de GT220 het aflegt tegen de ATI Radeon HD 4670 van AMD, die al een jaar op de markt is en voor ongeveer dezelfde prijs opgepikt kan worden.

De ddr2-versie van de kaart zou een mooie concurrent voor de ATI Radeon 4650 zijn, maar dan moet Nvidia wel de prijs laten zakken. De GeForce 210 biedt weinig meerwaarde ten opzichte van de Radeon HD 4550: die speelt in tegenstelling tot zijn Nvidia-concurrent moeiteloos 1080p-content af met noise reduction ingeschakeld, terwijl de kaart slechts een paar watt meer verbruikt. PC Perspective komt tot dezelfde conclusie: het enige voordeel dat de nieuwe budgetreeks van Nvidia heeft ten opzichte van de Radeon-tegenhangers is de aanwezigheid van Cuda-ondersteuning.

Nvidia GeForce 210 Nvidia GeForce GT 220
Moderatie-faq Wijzig weergave

Reacties (99)

De vraag is hier dus eigenlijk of je CUDA wilt of niet. Geen CUDA: koop ATI kaarten, wel CUDA: koop een Nvidia kaart.

Wat ik de afgelopen tijd verneem hier (en elders) is dat Nvidia het moeilijk heeft tegenover ATI, zeker met de komst van de 4870/4890, en de 5000 serie.
En dan moet je je afvragen: waarom gebruik je CUDA?

Doe je veel aan supercomputing?

Doe je veel aan raytracing rendering van je nieuwste CGI filmpjes?

Speel je veel games die PhysX ondersteuning hebben?

Ik denk dat je voor alle 3 de punten eerder de neiging hebt om je geld en lege PCI-E slot effectiever te besteden. De Performance per Watt en CM3 is voor supercomputing nogal traag, als je aspiraties hebt om Pixar jaloers te maken koop je een krachtiger kaartje, en om de performance van deze kaart te delen met PhysX terwijl je er ook op gamed lijkt me niet al te handig. Sterker nog: voor de doelgroep die het niet erg vind om met alles op 'low' te spelen in moderne spelletjes zal PhysX zowiezo een non-issue zijn.

Om heel eerlijk te zijn, hoe zeer ik nVidia respecteer voor de jaren concurrentie die ze 3DFx boden, de innovatie die ze hebben getoond, en het feit dat ze zo galant waren om het concept van Unified Drivers uit te werken en in de wereld te helpen, ben ik bang dat ze de laatste tijd het een en ander laten schieten.

Alleen als ze nu snel een simpele chip bouwen die DX11 ondersteunt en van begin tot eind 'lean' ontworpen is, geef ik ze nog een kans in de desktop-markt. Daarnaast dienen ze hun eigen standaarden nu echt los te laten, en te investeren in OpenCL en DirectCompute versies van Cuda.

Ik vraag de computeraars en 3d-gebruikers van n 1991: weet iemand wat Glide is? Het was een 'concurrent' voor Direct3D en OpenGL die vooral bekend werd als de opoe van polygoon-3D zoals de Voodoo1 jan-met-de-pet bracht. 3DFx hield het echter exclusief voor zichzelf, wat naar mijn mening de reden is dat Direct3D ontstaan is, en OpenGL groot werd.
Daarnaast dienen ze hun eigen standaarden nu echt los te laten, en te investeren in OpenCL en DirectCompute versies van Cuda.
OpenCL is zo goed als hetzelfde als CUDA; het is zwaar gebasseerd op CUDA en Nvidia heeft actief meegewerkt aan OpenCL. De huidige drivers ondersteunen OpenCL ook nu al, inclusief een SDK. Ik zie dan ook niet in hoe ze aan hun eigen standaarden vasthouden (en dat in een zin samen met DirectCompute...) Ze zijn de standaard.

Als ik zo naar de nieuwe generatie kaarten kijk, dan vraag ik me af hoe lang rendering nog blijft bestaan. Het is niet logisch meer om een driehoekje te tekenen dat nog niet eens een pixel beslaat en daar al die interpolatie op te doen. Dus wellicht doen er binnenkort meer mensen aan ray tracing dan je zou denken... :)

(Glide ken ik nog wel ja, maar ik ben dan ook niet van na 1991...)
Je had toen zelf spellen die uitsluitend op Voodoo kaarten kon draaien.
Of spellen waarbij Glide de enige optie was voor Hardware matig versnellen.
Geen Glide, dan maar software rendering.
(Wat wou ik er altijd graag 1, maar enige Voodoo kaart die ik gehad heb was de Voodoo3 3000 en toen was die hype al een beetje voorbij en had je ook snellere alternatieven (riva TNT)

Ik denk dat nVidia dit stilletjes ook voor hun kaarten wilt :P
Je had dan een redelijke aan de prijs 2D kaart. En dan voor FL600,- moest je zo'n addon ding erbij doen of twee.
Nou nee. DirectX deed het voornij. De enige 3DFX ding wat ik heb gehad is de banshee.
mwah, voor mij was de vraag presteren ati kaarten al een beetje onder linux. 5 minuten googlen leert de mens dat de ati videodrivers onder linux nog steeds brak zijn (in termen van performance). Dan is Nvidia opeens wel een goed alternatief, want nvidia heeft met delinux drivers een gigantische voorsprong en die wordt voorlopig nog niet ingehaald door Ati.

Met ati kan je onder linux bv nog steeds geen videodecoding op de gpu doen, terwijl nvidia de vdpau lib heeft, waardoor je prima 1080P kunt decoden op de gpu, en dat scheelt flink, om het nog maar niet over games ed te hebben.
die wordt voorlopig nog niet ingehaald door Ati.
niet door ATI zelf, maar ze hebben wel de specs van hun videokaarten vrij gegeven (inclusief uitleg en voorbeeld driver) waardoor de OSS community nu hard aan het werk is om volledige opensource drivers te maken, en niet die gray-blob binary-only drivers van nvidia.

de vruchten daarvan laten nog even op zich wachten natuurlijk, maar ATI/AMD is wat linux betreft veel vooruitstrevender als Nvidia
Misschien kan je hier wel makkelijk tot een consensus komen en tegelijkertijd wat advies geven aan mensen die niet zo erg veel ervaring hebben met videokarten kopen.

De GT220 en GT210 vallen in de low-end en respektievelijk de ultra-low-end catergorieen van nVidia. Ze leveren dan ook vergelijkbaren prestaties aan de LE/ULE GPUs van AMD/ATI. Ze hebben allemaal laag stroomverbruik. Er zijn twee grotere verschillen tussen de nVidia LEs en de ATI LEs.
Het eerste verschil is CUDA. Dat is wel aanwezig bij nVidia maar niet bij ATI. CUDA is echter een platform voor berekeningen die visueel pas een verschil maken als je videokaart de rest van een spel ook op maximaal detail kan weergeven of je aan C++ coding doet (waarbij je GPU dan je CPU zou kunnen helpen).
Het ander "groot" verschil is dat de ATI kaarten HD-films vloeiend weergeven zonder daarbij significant hulp nodig te hebben van de CPU. De nVidias hebben hier significant meer moeite mee en dat zorgt ervoor dat de CPU-belasting tijdens het afspelen dan ook stukken hoger ligt bij de nVidias.

Wat het vervangen van oude videokaarten met deze hier betreft:
Low-end en Ultra-low-end kaarten kunnen zich op geen manier meten met high-end en ultra-high-end GPUs uit vorige generaties. De GT210/220 zullen ongeveer de prestaties van een Geforce 5700 Ultra leveren. De 5700Ultra is echter wel 6 generaties veroudert en was destijds het top-model van nVidia.

Ter vergelijking: In mijn oude PC is mijn 7900GT (high-end kaart van 4 generaties geleden) dood gegaan en ik heb ervoor gekozen om deze door een HD4350 (destijds Ultra-low-end uit de nieuwste generatie. De zelfde generatie als de GT210/220) te vervangen.

Het prestaties verschil is dan als volgt:
De 7900GT deed Atlantica op 1600x1200 met medium details terwijl de HD4350 Atlantica op 800x600 met lowest details ongeveer even veel frames levert en zelfs dat vaak niet haalde. (Ik kan dit helaas alleen in dit ene game vergelijken omdat ik niks anders draai op de hd4350)

Ik hoop dat dit het een en ander duidelijk maakt =)
Ik ben het volledig met je eens, en heb zelf ook al het 'nut' (of het gebrek daar aan) van CUDA bij low end kaarten al behandeld.

Waar ik jou echter niet over hoor is 'bang for bucks'. Hoewel performance belangrijk is, en ultra-low/low/mid/high/enthousiast een leuke indeling geeft, zeker als je een 'lijn' producten van n fabrikant naast elkaar gaat leggen (hoewel daar gezien het DX10.1 verhaal bij deze kaarten en DX11 bij ATI eigenlijk geen sprake meer van is).

Geld is iets waar men in de informatica altijd wat huiverig voor is. Je kan een klant wel vertellen dat hij iets nodig heeft, of iets kan doen, maar uiteindelijk denkt die klant als gezonde Hollander of wat voor land dan ook voornamelijk aan zijn knip, en het verhaal (moet je nou horen wat ik voor een schijntje kon kopen!) wat hij zijn baas/vrouw kan vertellen.

En wat dat betreft zul je moeten gaan rekenen. Niets oude generatie, hoe leuk dan ook, maar puur statistiek. Hoewel ik Atlantica nergens terug zie eigenlijk, zie je vaak dat benchmark sites de FPS of Punten van een benchmark suite/game pakken, er een formule overheen gooien (punten / kosten = € zoveel per punt).

Wat dat betreft zit deze kaart weliswaar in hetzelfde segment als Ati's HD4350, maar hij is even duur als een 4670, hoewel ik het lange termijn (verbruik) plaatje niet weet, hoewel ik het gevoel heb dat dat niet zoveel uit maakt.

Ga je echter kijken wat de performance is van beide kaarten (die alle 2 te koop zijn en een zelfde feature set hebben), kom je er al snel achter dat je heel wat meer betaald voor de nVidia kaart per frame per seconde, dan dat je betaald voor de even dure Ati kaart.

Je zult dan inderdaad naar features moeten kijken, om een reden te vinden om niet de ATI kaart te kopen. Wie weet ben je een Linux gebruiker, daar zijn er niet zoveel van, dus je kan gerust stellen dat goede linux drivers een feature zijn. Wie weet weegt dat wel zo hard dat de nVidia kaart meer bang for bucks geeft. Maar ook dit meet je weer na met benchmarks. Hoewel ik helaas niet zo handig ben in 3d-tests voor linux, persoonlijk, weet ik uit de verhalen wel dat ATI kaarten voor linux gebruikers haast onbetaalbaar zijn: zr weinig bang, hoewel de kaarten even veel bucks zijn als dat ze zijn voor Windows gebruikers. Echter een nVidia kaart kost dan k zo veel bucks, en bied ineens een hele dosis meer bang.

Op die manier kun je je bijvoorbeeld stellen dat je budget €250 is voor een nieuwe videokaart. Deze pricewatch link is leuk, denk ik zo: Klikkie en wacht tot hij geladen is

Je ziet bovenaan een GTX260 staan voor €249, en een Radeon HD5850 voor €250.

Nu gaan we uit van Windows, en van het feit dat de PC stabiel is en de drivers hetzelfde zijn.

Nu blijkt echter dat de HD5850 een stukje sneller presteerd, sterker nog: hij raced de GTX285 vaak voorbij, maar ook dat hij DirectX 11 heeft.

Nu valt te overwegen dat Cuda een meerwaarde is, maar DirectX11 is dat ook. Onderzoek vervolgens DirectX 11, en kom op Compute Shaders en Direct Compute, wat toch wel heel veel hetzelfde kan als Cuda, maar NIET merk gebonden is.

Hoewel beide kaarten als 'upper middle class' gelden, wint de 5850 dan ruimschoots de wedstrijd bang for bucks, idem bucks, maar een behoorlijk grotere bang.
GT220 met z'n 48 shaders is > dan een 9500GT. 9500GT schopt kont van die HD4350. HD4350 is net leuk voor films (voor acceleratie), meer eigenlijk niet. 9500GT is al heel wat beter. Niet overweldigend nee, maar misschien wel 2 x zo goed in games. Zie ook de reviews die vandaag opduiken.
Je ziet bovenaan een GTX260 staan voor €249, en een Radeon HD5850 voor €250.
Alleen kan je de GTX260 ook al maanden halen voor 110 euro?

[Reactie gewijzigd door Bolletje op 12 oktober 2009 17:55]

Uhm als we nou kijken naar de prijsklasse een 4670 is te krijgen voor minder dan 60 euro, net als de GT220, maar de GT220 wordt in bijna alle mogelijke benchmarks voorbijgereden door 4670, en verder, zal deze kaart CUDA wel goed afspelen? Ik denk eigenlijk dat hij iets te sloom daarvoor is... 8)7
zal deze kaart CUDA wel goed afspelen
Is de doelgroep van deze kaart geinterreseerd in Cuda vind ik een veel belangrijkere vraag...
Ik zie het niet echt voor me, Cuda is toch vooral gericht op programmeurs die parallelle berekeningen sneller willen uitvoeren. En dat zijn geen mensen die op een budget-pctje zitten te werken gok ik zo.
Ik zeg ook niet dat hij goed is. Ik wil alleen benadrukken dat hij al heel wat beter is dan een HD4350.
De GT220 is inderdaad beter dan de HD4350, daar moet je hem ook niet mee vergelijken. Hij is namelijk te vergelijken met de HD4650 (GDDR3-versie) en de HD4670, waar hij een beetje tussenin zit qua prestaties.

De G210 is te vergelijken met de HD4350, maar dan biedt de G210 helemaal niets wat de kaart interessant zou kunnen maken, want de HD4350 is gewoon beter, zelfs qua stroomverbruik. Met een paar maandjes is de opvolger van de HD4350 er ook al, en dan wordt het allemaal nog minder interessant.
Indeed, jij snapt het. De prijs is nu alleen nog een beetje hoog van dat ding. Hopelijk gaat dat ook omlaag. Het zijn in elk geval geen dure G200 chips met die abnormale die-size.

Die GT220 wordt al in de Medion PC (Aldi PC) verkocht. Met 1GB geheugen :')

G210 is eigenlijk gewoone een 9400GT met een die-shrink, iets hogere clocks en DX 10.1
Mijn vriendin heeft nog een 8800GTX in haar bak zitten, in hoeverre presteren de nieuwse budgetkaarten tegen de oude krachtpatser? Ik kan dat niet makkelijk ergens terugvinden omdat het allemaal andere benchmarks zijn...
Dit is lowbudget spul en de architectuur is in grote lijnen gebaseerd op de 8800GTX. Dan is het vrij simpel om tot de conclusie te komen dat een 8800GTX met 128 shaderunits en 575 mhz core klok sneller is dan een GT220 met 48 shaders en 615 mhz core.

Als je echt een zuinige kaart wilt zonder achteruit te gaan in performance zou ik voor de HD5750 of een GTX260 gaan. Beide hebben een laag idle verbruik en zijn toch wel wat sneller dan de 8800GTX.
Dat is (helaas) niet juist. De GT200 presteert ongeveer tussen de oude 9500GT en 9600GT in, waarbij de laatste een pak sneller is. Echte budgetkaartjes dus.

Zie voor performance indicaties o.a. http://www.hardwarezone.c...ew.php?id=3035&cid=3&pg=6
The new NVIDIA GeForce GT 220 is sadly not the mainstream monster we had hoped it would be, as our tests have shown that the older GeForce 9600 GT is still ahead by leaps and bounds. It is also no match for ATI's last-generation mainstream star the Radeon HD 4670. However, it was markedly faster than the GeForce 9500 GT and the Radeon HD 3650, which also means it'll outperform the HD 4670's lesser cousin, the HD 4550.
De nog komende GT240 (codename GT215) is wel gebaseerd op de oude 8800GT. Die zal dan ook vergelijkbaar presteren.

@ Red Nalie: niet wegdoen dus die 8800GTX :P

[Reactie gewijzigd door dirkjesdirk op 12 oktober 2009 15:40]

@dirkjesdirk

"@ Red Nalie: niet wegdoen dus die 8800GTX :P

Mijn idee hoor.Op een 22er met 1680x1050 is dat nog steeds een dikke kaart.
Lekker koesteren en daar kun je nog een heleboel mee.
Daar heb je wel een punt. In de pc van mijn vriendin heb ik een 8800 GTS steken die op 22 inch heel goed meekan. Recnetelijk hebben we er een Dell Ultrasharp 24 inch aangehangen en op 1920x1200 begon het voor sommige van haar games wel wat krap te worden.

Heb ze nu gewoon overclockt naar GTX specs en dat gamed nu dus zelfs op die resolutie nog redelijk aangenaam. Zolang je natuurlijk beseft dat je bij sommige games toch echt wel de AA of het detail wat gaat moeten inperken. Ik vind het al bij al geen slechte investering geweest die 8800. Heb ze in 2006 gekocht en zit nu in haar 2de pc prachtig werk te verrichten.
Ik zat echt precies met dezelfde vraag. Heb namelijk een 8800GTS 512MB in mijn pc.
Voor 60 euro is de upgrade zo gemaakt :D

Tom's hardware heeft de charts wel, maar deze kaarten staan er (nog) niet tussen.

edit:
http://www.videocardbench...up.php?cpu=GeForce+GT+220

Volgens deze chart liggen die oude kaarten er nog ver boven.

[Reactie gewijzigd door Floris-K op 12 oktober 2009 14:52]

8800GTS is ongeveer hetzelfde als 9800gtx, en die is weer omgedoopt tot de GTS250

(qua prestaties liggen ze op hetzelfde niveau zit als de HD4850)

[Reactie gewijzigd door M.E.Amrani op 12 oktober 2009 14:55]

Probeer het in perspectief te plaatsen met andere nieuwe kaarten. De 8800GTX heeft als afgeleide de 8800GT gekregen, die iets minder presteert. Deze wordt nog steeds gebruikt als 9800GT, 9800GTX (+) en GTS250 en zo nog een hele klus kaarten. Allemaal liggen ze qua prestaties dicht bij elkaar, afgezien van een paar shaders meer of minder die op een iets hogere frequentie zijn geklokt.

Deze kaarten zijn langzamer dan een HD4670 van ATi, welke zelf ongeveer gelijkwaardig is aan de HD3850, al naar gelang de situatie. De HD3850 was wat trager dan de 8800GT, welke mee moest met de HD3870, en deze vaak versloeg.

De 8800GTX is dus nog steeds een stevige kaart. De enige kaarten die het cht waard zijn om als opvolger aangemerkt te mogen worden zijn de GTX260 en hoger.

Deze kaarten komen als mosterd na de maaltijd. Ze zijn gewoon niet levensvatbaar tenzij een OEM ze oppikt. Het lijkt mij eerder een experiment voor het 40nm proces en een DX10.1 implementatie.
Yup, maar wat dat betreft rijkelijk te laat. Hoewel sommige 'delen' van DX10.1 gebruikt kunnen worden als de basis voor DX11 ondersteuning, zal een compleet redesign nodig zijn, met de huidige GT200 architectuur ongeschikt als basis, waar het 40nm proces van deze kaarten zo goed als nutteloos is qua ervaring.
Waar heb je het over? 40nm is een procestechnologie. DX11 is een architectuur. Die twee staan los van elkaar. Dat had je kunnen snappen, gezien het feit dat die DX10.1 architectuur al eerder met het 55nm proces is gebruikt. Intel doet dit zelfs structureel (tick-tock)
DirectX is een verzameling van APIs die het voor programmeurs eenvoudiger maakt computerspellen te programmeren op Windows. (DirectX 10 en 11 alleen voor Vista en 7)
GT200 is wl een architectuur.

Umbrah en Cid Highwind denken dat nVidia denken dat nVidia deze kaarten fabriceerd om n de nieuwe API, n het nieuwe fabrieksproces te testen. Los van elkaar, maar wel tegelijk,
Kijk maar eens op Toms hardware (www.tomshardware.com). Daar vind je het wel terug in de benchmark grafieken. Alleen jammer dat de 8800 serie, in tegenstelling tot de 8600 series, niet hardwarematig HD materiaal kunnen weergeven.
Kijk maar eens op Toms hardware (www.tomshardware.com). Daar vind je het wel terug in de benchmark grafieken. Alleen jammer dat de 8800 serie, in tegenstelling tot de 8600 series, niet hardwarematig HD materiaal kunnen weergeven.
Dit is niet helemaal waar. De 8800 GT kan HD materiaal decoderen omdat er een nieuwere GPU op zit (een G92). Deze kaart wordt nu verkocht als 9800 GT om dit (on?)duidelijker te maken.
kijk eens op Tomshardware http://www.tomshardware.c...2006/Performance,606.html

Je kunt natuurlik niet helemaal alles correct vergelijken, maar geeft een goede indruk hoe de 1 met de ander vergelijkt.

Ik ga ervan uit dat je 8800 nog steeds beter volstaat dan deze budgetmodellen.
Met dien verstande dat deze budget kaart niet zoveel Watt verstookt als een 8800GT, dat hoop ik tenminste.
Tom's Hardware onderwierp de kaarten aan een test en ontdekte dat de gddr3-versie van de GT220 het aflegt tegen de ATI Radeon HD 4670 van AMD,
De snellere van de twee legt het al af tegen een HD4670.
Zoek eens uit waar de HD4670 niet tegenop kan boksen. Een 8800GT gaat sneller zijn dan zo'n HD4670. En hoe de 8800GT en GTX zich tot elkaar verhouden is zeer zeker prima te vinden.
Je moet gaan kijken naar relatieve performance als je verschillende reviews met elkaar wilt kunnen vergelijken.
Is nog niet volledig up to date, maar het geeft wel een beetje een idee van de wat oudere kaarten.http://www.tomshardware.c...-card,review-31661-7.html
Ik kijk tegenwoordig op http://www.videocardbenchmark.net/ IMHO geeft het overall wel een aardig idee wat een kaart ongeveer kan. Is niet alleen voor videokaarten maar ook cpu's en hdd's.

Als je overigens de lijst kiest kun je daar je videokaart selecteren die vervolgens opgelicht wordt in de lijst zodat je niet al te lang hoeft te zoeken.
NV legt het tegenwoordig langs alle kanten af tegen ATI. Ik denk nog steeds dat ze veel te veel inezetten op CUDA terwijl dit langs geen kanten aanslaat en dat vermoedelijk ook nooit zal doen.
CUDA is opzich zeker aangeslagen, maar misschien niet op plekken die jij verwacht. Voor het draaien van simulaties en zware berekeningen is CUDA echt ideaal, een speedup van 15 a 20 keer halen ze hier zo.
Alleen begint OpenCL nu goed in beeld te komen, en aangezien dit universeel is (het kan ook gebruikt worden om CUDA aan te roepen) is CUDA dan geen verkoopargument meer, aangezien OpenCL ook gewoon met kaarten van ATI overweg kan ... en deze hebben volgens mij veel meer parallele processoren dan NVIDIA kaarten!

http://en.wikipedia.org/wiki/OpenCL

[Reactie gewijzigd door Airdack op 12 oktober 2009 15:11]

Alleen ondersteunt Ati nog geen grafische kaarten als backend op windows! Hun Stream-package zit nog tot het einde van dit jaar in een soort beta-fase waardoor er nog altijd enkel en alleen op de cpu kan teruggevallen worden. nVidia heeft met zijn CUDA-package wel reeds op alle platforms gpu-ondersteuning, waardoor toch wel gezegd kan worden dat er een lichte voorsprong bestaat.
Ja daarom dat je bij F@H al 4jaar een ATI gpu kan laten folden, omdat het niet kan...
waarbij F@H zelf al aangeeft dat een CUDA GPU veel sneller werkt.
Dat is omdat de ontwikkelaars van F@H een oude implementatie gebruiken, en dat is meteen ook de reden waarom de nieuwe HD5870 niet sneller is in F@H dan de oude HD4870, ondanks de ~verdubbeling in verwerkingskracht.
Uiteraard werkt het sneller, ze hebben zich daarop gefocused omw de PS3, niet om die enkele mensen die met hun pc folden :p
'T is eerst cpu folding geweest, daarna jaren ATI GPUfolden, dan wou je de SMP client om oneerlijk hoge ppu te hebben en nu ga je voor NVIDIA. Misschien is het volgende gewoon een Intel GPU...

Op het einde heeft het ook geen belang. F@H gaat nooit of nimmer een op oplossing bieden voor kanker. Als je kankerpatienten wil helpen stort je beter geld aan een vereniging of offer een beetje van je eigen tijd op. Warm hart > warme hardware, dat kan ik je zeggen en de mensen die steun nodig hebben zeker.
Alsof het doel van F@H is om DE oplossing voor kanker te vinden! Het is een bijdrage aan de wetenschap en in dit geval een wat meer fundamentele en al die bijdragen zullen op den duur leiden tot betere behandelmethoden.
En naast het vouwen op mijn pc kan de collectebus ook op mij rekenen, dus dat kan prima samengaan!
Folden is een uitermate milieu onvriendelijke bezigheid.
Niet percee de GTX 295 is en blijft de sterkste single GPU die er nu is. En nvidia zal vast wel weer met iets nieuws aankomen als antwoord op Ati's 5800 serie :)
En nvidia zal vast wel weer met iets nieuws aankomen als antwoord op Ati's 5800 serie :)
Te weten Nvidia's Fermi architectuur ( http://www.nvidia.com/object/fermi_architecture.html ) Een kaart met 512 cores, L1 en L2 cache, ECC, snelle double precision, concurrent kernels en snelle context switches...
Overcomplex, nog niets bekend over yields, en hoewel je er een videokaart van kan maken, lijkt hij daar niet primair voor bedoeld, maar meer voor implementatie in het Tesla-platform. Wat Frankknopers zei: laat ze eens een echte architectuur bouwen die zich laat evolueren in plaats van dat ze steeds moeten revolueren.
Waarom overcomplex? Ze voegen zo te zien precies die dingen toe waar om gevraagd wordt. Wat had jij dan willen zien? Steeds voortborduren op dezelfde oude architectuur door wat extra shader units toe te voegen en de clockfrequencies wat omhoog te gooien? Daar kom je ook niet echt ver mee.

Het concept van een "videokaart" vervaagd; Nvidia ziet dat juist heel goed in. Blijf vastgeroest zitten aan het concept van een videokaart die alleen kan renderen en op een gegeven moment is het voorbij.
Ze voegen zo te zien precies die dingen toe waar om gevraagd wordt.
waar GPGPU om gevraagd heeft, niet waar gamers om gevraagd hebben.

behalve dat ze dingen verdubbeld hebben, hebben ze zo goed als niks toegevoegd dat voor meer FPS gaat zorgen. de FPS performance per transistor (of per mm chip) zal dus nog steeds ver achter liggen op wat ATI heeft.

en ATI is net zo hard bezig met GPGPU (en ondersteund openCL en dx11-GPGPU) , maar heeft op dit moment nog duidelijk de focus liggen bij game performance, en dat zal voorlopig ook de meeste kaarten verkopen.
zeker ook omdat ATI's GPU veel kleiner en dus goedkoper is.

daarbij, maakt het echt uit of een taak die eerst een uur duurde met een CPU nu 5 minuten of 7 minuten duurt?(geheel fictieve cijfers) voor de thuisgebruiker lijkt me dat onwaarschijnlijk.

edit : ja dat weet ik, maar het punt is dat ATI dat ook allemaal kan, zonder dat hun chips zo veel groter worden. misschien hebben ze de absolute performance in GPGPU die nvidia kan bieden, maar daar staat tegenover dat nvidia's chips 50% groter zijn, en dus zeker 50% duurder (en waarschijnlijk meer).

[Reactie gewijzigd door Countess op 13 oktober 2009 02:19]

GPGPU is algemeen kan voor prof, maar ook voor games gebruikt worden.
Voor dingen die extreem concurrent en dus parralel lopen.
Voor games kan dat vele AI Units. Maar ook Physics zijn.
Games zijn niet alleen maar FPS.
Vroeger had je Elite wireframe. en nu had je Crysis. GFX werd mooier. Maar wat Crysis ook showcase is veel interactiever.
Soepele FPS is gFX settings down playen. Loopt het niet vlot settings down.
Zo speelde ik 8600GT FC2 op 1920x1200 met settings op low. Zag er nog steeds goed uit.

GPGU voor AI zou kunnen beteken dat een Game als X3 Terran Conflic eens een keer geen Dodo AI heeft wat elke noob kan ownen. Door massive GPGPU AI computing. Worden je tegenstanders meer een uitdaging en je team npc gedragenzich slimmer en zelfstandiger.

Dit houd in dat GPU meer compute power moeten hebben om rekenkracht te kunnen bieden voor meerdere mogelijk zware taken.
De limiet van AI is niet de hardware. Je hebt namelijk multi-core cpu's die dat makkelijk afhandelen.
De limiet is dat er geen vraag is naar sterke AI op dit ogenblik. In 2000 was het een hot topic maar vandaag zijn gamers blijkbaar blij genoeg met de AI en voor ontwikkelaars is het een te grote kost. Hier en daar kan je games vinden die er zich iets meer op focussen, maar that's all.

GPGPU is totaal, compleet en volledig nutteloos in games. Je GPU dient om graphics te krijgen. GPGPU is nuttig als er iets is dat veel parallelle kracht nodig heeft en het dan ook nog eens kan gebruiken.
Iets nauwkeuriger: De GTX 295 is de snelste videokaart van dit moment. De snelste GPU is de RV870, welke gebruikt wordt in de HD5800 serie.

Wel moet opgemerkt worden dat de GTX 295 twee GT200b's in SLI is en dat het dus niet altijd goed schaalt en allesbehalve zuinig is.

Toch leuk om te zien dat AMD met een enkele RV870 chip van 334mm groot bijna even snel is als een GTX 295 met twee GPU's van elk 470 mm.

[Reactie gewijzigd door frankknopers op 12 oktober 2009 14:50]

Nee de Asus Mars is de snelste videokaart van dit moment.
Dat ding is vet :P

En een enorme geldverspilling :P

Maar toch, hij is vet :P

2 GTX285 videokaarten op elkaar geplakt

[Reactie gewijzigd door Gamebuster op 13 oktober 2009 02:04]

Ja, leuk voor NVidia om mee te patsen. Maar je hebt er in de markt helemaal niks aan. Hij is namelijk veel te duur vergeleken met de HD4870x2 en de HD5870 die bijna de gelijke zijn in prestaties. Die laatste is op alle overige vlakken (stroomverbruik, DX, lawaai) beter, het enige wat er aan ontbreekt is CUDA.

Nee, voor de markt zijn kaartjes als de GTX260 veel sterkere producten van NVidia. Hoewel die het misschien ook wel moeilijk gaan krijgen met de HD57xx-kaarten. De GT220 zie ik dan ook wel als een welkom product van NVidia als ze hem een beetje scherper kunnen prijzen. Als de HD56xx/HD53xx-kaarten uit komen zal deze prijs omlaag moeten.

En de snelste kaart is trouwens de asus mars

Over dat antwoord op de HD5000-serie: Eerst zien, dan geloven. Tot er een duidelijke review van de GT300 komt (en niet een persbericht van NVidia!) twijfel ik toch of de GT300 niet te groot is/te veel verbruikt/een te lage yield heeft/een te hoge prijs heeft.

[Reactie gewijzigd door bwerg op 12 oktober 2009 15:23]

de GTX295 zijn 2 chips van elke 576 mm
de hd5870 is 1 chip van 334mm

1/3 van het oppervlakte dus, en dat komt ongeveer neer op minder als 1/3 van de prijs.
het prestatie verschil is gemiddeld niet meer als ~15%
de GTX295 kan dan misschien wel mee met prestaties, maar commercieel is de GTX295 gewoon een fossiel.

en de nieuwe Nvidia serie gaat idd sneller zijn als de hd5870 (maar niet sneller als de hd5870x2) maar hij word ook opnieuw 50% groter als de hd5870, en dus flink duurder.

ik heb nog niks gezien bij nvidia wat mij doet geloven dat Nvidia iets echt heeft verbeterd en we krijgen dus gewoon opnieuw een situatie als toen de hd4870 werd gentroduceerd. Nvidia's chips waren toen te groot, en te duur en leveren daarvoor niet genoeg prestaties. Nvidia moest toen de prijs van hun kaarten flink naar beneden bij stellen.

er is deze generatie niks veranderd, de prijs/presatie verhouding zal niet veranderen in het voordeel van Nvidia.
Nvidia heeft het probleem zelfs wat erger gemaakt door veel extra transistors te spenderen aan GPGPU, die niks doen voor de FPS prestaties.

erger nog voor Nvidia, nu is ATI eerder, en zal Nvidia hun te dure chips gelijk al in de verkoop moeten doen om te voorkomen dat ze marktaandeel verliezen.
de ontwikkel kosten van de GT300 terug verdienen kan nog wel eens lastig voor ze gaan worden.

[Reactie gewijzigd door Countess op 12 oktober 2009 18:09]

GTX 295 is geen single gpu.
40nm, relatief lage kloksnelheden, zuinig in verbruik...

Zouden deze ook in passief gekoelde versie worden verkocht gaan worden?
If so, dan een leuke kaart zijn voor in een Media Center :)
Ik denk het wel, zijn de vervangers van de 9400-9500 serie. Die zijn ook passief te verkrijgen.
moeiteloos 1080p-content af met noise reduction ingeschakeld
Sorry hoor, maar noisereduction bij 1080p-content? dan is het toch geen fatsoenlijk 1080p content, hell dan is het nog niet eens fatsoenlijk dvd-content... Noisereduction uitvoeren op veel dvd/hd-content geeft vaak alleen maar slechter resultaat..
Ach, sommige leken vinden interlaced beeld met snelle actie 'noisy', misschien bedoelen ze de-interlacing. Maar da's natuurlijk geen 1080p, maar 1080i dan. Maar om heel eerlijk te zijn...

Een Radeon HD 3200 IGP zweet nog niet bij 1080p, zelfs niet als ik hem ook kunstjes laat doen zoals hogere bitrates of in spiegelbeeld afspelen.

Zo bijzonder is dit kunstje eigenlijk niet, hoewel nVidia wat achterloopt in video decoding (onder Windows), ATI heeft de meeste codec-ondersteuning op het moment.
Je kan er voor kiezen dat het uit kan, het geeft alleen maar aan dat het zulke goeie kaarten zijn dat ze zelfs daar hun hand niet voor omdraaien.
Hehe en nu? Hebben ze volgens jouw een film zitten kijken bij de redactie in slechte kwaliteit? Of wat wil je er precies mee zeggen?

Dit geeft aan dat ATI weer is superproducten maakt voor mooie prijzen itt nvidia ;)
[s]Let's consider the new GeForce GT 220 GDDR3 as far as value is concerned. It performs better than the GeForce 9500 GT GDDR3 and Radeon HD 4650 DDR2, but not quite as well as the Radeon HD 4670. & Tom's Hardware onderwierp de kaarten aan een test en ontdekte dat de gddr3-versie van de GT220 het aflegt tegen de ATI Radeon HD 4670. Kan aan mij liggen hoor maar het artikel rept over een 4650 met ddr2 die inderdaad langzamer is ,maar een hd4670 is toch echt sneller ,dan de gt220 volgens het artikel :) ;)kan iemand dat doorgeven :? [/s]aflegd is inderdaad verliezenBenieuwd of tegen een hd4650 gddr 3 variant deze gt 220 nog steeds wint :?

[Reactie gewijzigd door Patecatl op 12 oktober 2009 17:12]

"het afleggen" betekent in deze context "minder snel zijn". In het artikel staat dus ook dat de GT220 minder snel is dan de HD4670. # thread closed #
Ja voor een dooie vriend ben je nog aardig bij de tijd :+ .ik niet meer zo,ik zit al te lang achter het scherm ,dan ga je dingen zien ,die er niet zijn ,tijd voor :z
Zozo, ik dacht dat Nvidia DX 10.1 maar flauwekul vond? O-)

nieuws: Ubisoft verwijdert ondersteuning Directx 10.1 uit Assassin's Creed

[Reactie gewijzigd door Epic12 op 12 oktober 2009 15:08]

Met het track-record van nVidia in het recente verleden vwb de G84, G86 en G92 gpu's zou ik twee keer nadenken voordat ik een nVidia kaart aanschaf en serieus naar bv ATI kijken.

Zie bv die Blog voor veel links naar het probleem met de G84,G86 en de G92.
JoWannes' Blog: Dell en nVidia

(momenteel is mijn laptop ter reparatie door een defecte 8600M GT, dus ik ben niet geheel onpartijdig)
Het zelfde hier , bij het sterfen van zowel mijn 8600m gs als 8600gts, ben ik abrubt over gegaan op ati. Bekrompen? misschien, heb tenminste wel voor het zelfde geld als een 8600gts een 4870 toen gehaald

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True