Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 111 reacties

Nvidia heeft een nieuwe videokaart op basis van zijn Fermi-architectuur uitgebracht. De GTX 465 heeft, net als de GTX 470 en 480, de GF100-gpu aan boord. Omdat echter delen van de chip zijn uitgeschakeld, zijn de prestaties en de prijs lager.

Bij de GeForce GTX 465 lopen de cores en de shaders op dezelfde snelheid als bij de GTX 470, respectievelijk 607MHz en 1215MHz. De kaarten hebben meer overeenkomsten; ze zijn rond hetzelfde pcb opgetrokken en hebben een identieke koeler. De GTX 465 heeft echter 1GB gddr5-geheugen, dat gebruikmaakt van een 256bit-bus en draait op 801,5MHz of effectief op 3206MHz. De grootste wijziging ten opzichte van zijn grote broers is dat er meer streamprocessors zijn uitgeschakeld. Bij de GTX 480 functioneren 480 van de 512 cores, bij de GTX 470 zijn dat er 448 en de GTX 465 bevat 352 werkende cores.

Nvidia heeft er namelijk voor gekozen vijf van de zestien blokken van elk 32 streamprocessors, of Cuda-cores zoals Nvidia ze noemt, uit te schakelen. Hierdoor zijn meer exemplaren van de GF100-chip die van de lopende band rollen bruikbaar. Geruchten spraken voorafgaand aan de launch van de GTX 470 en 480 van slechte yields voor de GF100. Hoewel die twee kaarten inmiddels goed verkrijgbaar zijn, kampen ze met een hoog verbruik en veel warmteontwikkeling. Bovendien zijn ze hoog geprijsd in vergelijking met de concurrerende kaarten van AMD ATI. De GTX 465 moet daarom met een tdp van 200W en een prijs van rond de 300 euro een aantrekkelijk alternatief vormen.

GF100 minus 5 clusters

Uit de reviews blijkt dat de kaart wat prijs, prestaties, geluidsproductiviteit en hitte een welkome aanvulling vormt op de GTX 470 en 480. Ten opzichte van het aanbod van AMD lijkt de kaart wat prijs betreft echter minder goed gepositioneerd. De prestaties zijn wat hoger dan die van de Radeon HD 5830, maar die AMD-kaart is dan ook een stuk goedkoper. De prijs van de GTX 465 ligt dichter bij die van de HD 5850, maar die kaart presteert bij bijna alle benchmarks weer significant beter dan de nieuwe kaart van Nvidia.

Nvidia GeForce GTX 465

* Reviews:

Moderatie-faq Wijzig weergave

Reacties (111)

Qua prijs/performance erg teleurstellend. Had toch een veel lagere prijs verwacht, maximaal 200 euro.
NVidia moet het voor deze kaart puut van de fanboys hebben, of voor de situaties waarin PhysX en/of CUDA nodig zijn. Je ziet daarom ook dat nVidia voornamelijk de nadruk op die aspekten heeft gelegt.

Ze verkopen bijna alle modellen met verlies door alle kosten die gemaakt zijn met de vertraging en de lage yield resultaten. Het wordt zeer stil gehouden, maar ze fabriceren iets van 10 chips en kunnen er maar één of twee verkopen voor de GTX470/480 modellen. De overige 8 of 9 worden dan gebruikt via die-harvesting voor deze gehadicapte GTX465 versie. Echter er zijn zat 'dies' die volledig onbruikbaar zijn en dat aantal ligt dicht tegen de helft aan.

Dit verbetert allemaal zodra TMSC de yields omhoog brengt, maar AMD/ATi heeft hier duidelijk het voordeel omdat ze een kleinere 'die' hebben, alsmede een beter ontwerp wat rekening houd met de fouten van het 40nm proces van TMSC (doordat ze slim waren met een bestaand HD4000 ontwerp wat ze naar 40nm hadden omgezet om te leren). NVidia had ook wat testen gedaan, maar veel minder lang dan AMD/ATi en dat is duidelijk te merken in de Fermi hitte produktie en yield problemen.

Een HD5850 heb je al voor €250 ($290 in Amerika) en de HD5830 kaarten zitten al onder de $200 grens hier in Amerika.

Bijkomend probleem voor nVidia is dat ze nu ook DirectX11 aan het promoten zijn, waardoor hun gehele ondermarkt een probleem krijgt. Een HD5450 heb je al voor $34 en de goedkoopste nVidia DX11 kaart is dus deze GTX465. Dit is ook één van de achterliggende reden waarom nVidia zo met naamsverandering in de weer is, omdat de meeste consumenten naar een modelnummer kijken en niet de functionaliteit.

Het maakt mij persoonlijk weinig uit, maar ik had wel gehoopt op een lagere prijs, omdat deze prijs absoluut geen druk op AMD/ATi zet om hun prijzen te verlagen.
Ze verkopen bijna alle modellen met verlies door alle kosten die gemaakt zijn met de vertraging en de lage yield resultaten. Het wordt zeer stil gehouden, maar ze fabriceren iets van 10 chips en kunnen er maar één of twee verkopen voor de GTX470/480 modellen. De overige 8 of 9 worden dan gebruikt via die-harvesting voor deze gehadicapte GTX465 versie. Echter er zijn zat 'dies' die volledig onbruikbaar zijn en dat aantal ligt dicht tegen de helft aan.
Dat harvesten valt dan kennelijk nog niet mee. Er gaan immers berichten dat de GTX470 er helemaal uit gaat en plaats moet maken voor de GTX460. Zie dit bericht.
De reserende GTX470 cores worden gebruikt voor de aankomende GTX490. nieuws: 'Nvidia GTX490 bestaat uit twee GTX470-chips'

Probleem is dat de performance van de GTX465 eigenlijk te laag is om de GTX470 te vervangen gezien de price-performance, maar misschien biedt de aankomende GTX460 hoop. Die is immers gebaseerd op de nieuwe GF104.

[Reactie gewijzigd door dirkjesdirk op 31 mei 2010 16:21]

Ze verkopen bijna alle modellen met verlies door alle kosten die gemaakt zijn met de vertraging en de lage yield resultaten. Het wordt zeer stil gehouden, maar ze fabriceren iets van 10 chips en kunnen er maar één of twee verkopen voor de GTX470/480 modellen
Bullshit. Geef maar eens een betrouwbare bron daarvoor. En hoe denk je dat ze met een yield van 20% in een paar maanden honderdduizenden chips weten te produceren?
Reken maar niet dat NVIDIA verlies lijdt op Fermi. Wellicht niet zoveel winst als ze hadden gehoopt, maar ze zullen echt geen kaart op de markt brengen als ze er verlies op maken.
Een HD5850 heb je al voor €250 ($290 in Amerika) en de HD5830 kaarten zitten al onder de $200 grens hier in Amerika.
Ja, en een GTX465 heb je al voor $280 in Amerika. Adviesprijs is $279, 20 dollar minder dan de adviesprijs van de HD5850. Waar tweakers die 300 euro prijs vandaan heeft vraag ik me ook af.
ze zullen echt geen kaart op de markt brengen als ze er verlies op maken
Als het alternatief is om geen kaart op de markt te brengen? Oh jawel, zeker weten dat ze dan liever een kaart maken die ze met verlies verkopen (en dan bedoel ik verlies zelfs tov alleen maar productiekosten; als je gaat kijken tov productie-, ontwikkelings-, marketing- en afschrijvingskosten dan draaien ze hoogstwaarschijnlijk zeer zwaar verlies).
Ze moeten kiezen: kaarten met verlies verkopen (en dus niet teveel produceren, want op elke kaart maken ze verlies!) of niks verkopen, zodat over een jaar ofzo als ze een nieuw model hebben alle klanten in de winkel staan met het idee "Ik wil een graka == ik wil een ATI" en "Huh, wat was nVidia ook alweer voor merk"? Tuurlijk, dat is enigszins overdreven, maar is wel het effect waar ze vermoedelijk bang voor zijn.
Op dit moment zit de waarde van nVidia puur in naamsbekendheid en de R&D-afdeling (lees: de volgende generatie nVidia-kaarten). Alles wat ze met de huidige kaarten (die, laten we even eerlijk zijn, geen partij zijn voor ATI) is puur en alleen gericht op overleven tot de volgende generatie in de schappen ligt.

Trouwens, voor de consument is dit lang geen verkeerde situatie... ATI (en dus AMD) heeft eindelijk kans om eens een beetje marge te kunnen hebben om hun producten; tot nog toe moesten zowel CPUs als GPUs keihard op prijs concurreren tegen Intel cq. nVidia. Dat gaat, met een beetje geluk, een AMD opleveren wat beter kan concurreren met Intel (concurrentie is goed voor de consument).
Van de andere kant zit nVidia (voor zover ik tot nog toe heb gehoord) ook weer niet zo diep in de problemen dat ze failliet gaan voor de volgende generatie kaarten uitkomt. Oftewel, ATI kan niet al te hard misbruik maken van de situatie (prijzen heel erg omhoog gooien) tijdens deze generatie en vanaf de volgende GPU generatie hebben we, als het een beetje meezit, weer een goede concurrentie tussen ATI en nVidia.
Tuurlijk zijn er geen exacte cijfers. NVidia gaat natuurlijk niet van de daken schreeuwen dat ze problemen hebben, ze zijn verplicht richting de shareholders om zo positief mogelijk te blijven.

Echter via de SEC jaarcijfers van nVidia en TMSC is er op dit moment al een kleine indicatie dat het goed mis is gegaan qua Fermi. De Tesla, Ion en het bedoezelen van de consument via de naamsverandering hebben echter wel voorkomen dat er grote financiële nadelen bijkwamen.

En het feit dat nVidia de prijzen dus zo hoog heeft terwijl de prestaties er niet na zijn, is al een indicatie dat nVidia door kosten problemen geforceert is om niet al teveel verlies te maken. Qua prestatie is dit een €200 kaart en hij wordt dus gepositioneerd als €300 kaart. Dat is al een indicatie dat er iets mis is.

De adviesprijs oftewel MSRP van de HD5850 is $259.99 trouwens (dus $20 minder), je moet namelijk wel de huidige prijzen gebruiken. Echter de vraag en aanbod markt zorgt er op dit moment voor dat de prijzen bij beide boven de MSRP liggen, inplaats van eronder, zoals normaal gebruikelijk is bij computer onderdelen.

En TMSC kan 100k chips produceren in enkele dagen als de yield maximaal is, het feit dat ze er dus enkele maanden voor nodig hadden zegt dus al boekdelen van de problemen die gaande zijn. Ze waren echter al veel langer bezig met de produktie, voornamelijk om modellen klaar te krijgen voor de reviews.

Less then 20% yield rumor @ http://nexus404.com/Blog/...-availability-to-mid-may/

Wat nVidia nodig heeft is een respin, en dat is waar de GF104 (GTS450 of GTS460) en GF119 (onbekend) voor zijn. Dat zijn tape-outs waarbij nVidia geleert heeft van de problemen en ook een kleinere 'die' oppervlakte hebben. De uitkomst daarvan kan dan weer gebruikt worden om de hogere modellen te verbeteren. Of het op tijd is (AMD is namelijk al bezig met de HD6000 serie) wie weet, tijd zal het zeggen.
Tuurlijk zijn er geen exacte cijfers. NVidia gaat natuurlijk niet van de daken schreeuwen dat ze problemen hebben, ze zijn verplicht richting de shareholders om zo positief mogelijk te blijven.
Precies. Ik kan net zo hard precies hetzelfde gaan roepen over AMD, en niemand kan mij ontkrachten want "tja, AMD gaat natuurlijk niet van de daken schreeuwen dat ze problemen hebben". Gezien het vijandige klimaat richting NVIDIA dat op dit moment bestaat zijn claims over yields en dergelijke gewoon op geen enkele manier te onderscheiden van kwaadwillenden en AMD-fanboys die de situatie willen misbruiken om NVIDIA zwart te maken. Kijk maar eens wie de grootste bron is van de yield problemen. Charlie Demerjian. Nee die is betrouwbaar en onpartijdig!
Dus, het enige wat je doet met onzin als deze spuien is een vicieuze cirkel in stand houden. Iedereen zegt dat yields waardeloos zijn, dus moet het wel waar zijn, dus zegt iedereen dat yields waardeloos zijn, enzovoort.
Zolang we geen echte professionele technologie pers hebben die echt onderzoek doet en aan hoor en wederhoor doet, en we alleen maar amateurwebsites die elkaar nakwaken kunnen dit soort geruchten eindeloos herhaald worden zonder dat er ook maar enige vorm van waarheid achter zit. En mensen als jij doen er gewoon dom aan mee. Ik zou me er voor schamen.
En het feit dat nVidia de prijzen dus zo hoog heeft terwijl de prestaties er niet na zijn, is al een indicatie dat nVidia door kosten problemen geforceert is om niet al teveel verlies te maken.
Dat is heel wat anders. Reken maar dat zoals Noel hieronder ook al zegt NVIDIA verlies maakt op Fermi. Er zitten miljoenen in de ontwikkelingskosten, dat krijgen ze er nooit uit. Vandaar ook de hoge prijzen. Dat wil echter niet zeggen dat de chips zelf ook met verlies worden verkocht, want dat zou geen enkel bedrijf ooit doen.
En TMSC kan 100k chips produceren in enkele dagen als de yield maximaal is, het feit dat ze er dus enkele maanden voor nodig hadden zegt dus al boekdelen van de problemen die gaande zijn.
En bij AMD duurde het meer dan 4 maanden voordat ze 800.000 chips geproduceerd hadden. Wat zegt dat over hun yields in de eerste maanden? En waarom hoorde ik daar toen niemand over? NVIDIA heeft veel grotere chips (dus minder chips/wafer) en doet rond de 400.000 in twee maanden. Wie heeft z'n yields nu beter in orde?

TSMC doet trouwens 80.000 wafer starts per kwartaal op 40nm. Stel dat NVIDIA in twee maanden 400.000 chips heeft weten te maken. Stel dat yield inderdaad 20% is. Er gaan 104 chips in een wafer. Dat betekent dat NVIDIA in twee maanden meer dan 19.230 wafers heeft gebruikt alleen voor Fermi. Dat is dus bijna 29.000 per kwartaal. NVIDIA zou dan alleen voor Fermi bijna 40% van alle TSMC 40nm wafer starts innemen. Dat is exclusief alle andere NVIDIA 40nm producten. Zie je al hoe belachelijk die claim is?
Reken maar niet dat NVIDIA verlies lijdt op Fermi.
Reken maar dat zoals Noel hieronder ook al zegt NVIDIA verlies maakt op Fermi.
Welke is het?
TSMC doet trouwens 80.000 wafer starts per kwartaal op 40nm.
Wafer = 300mm = 70685mm²
GTX480 = 530mm²

Ideaal kunnen er dus 133 GPU dies per wafer gemaakt worden. We hebben echter met een ronde wafer en rechthoekige die te maken dus het zijn er een stuk minder. Zeg grofweg 100.

De 80.000 wafers komen dan neer op 8 miljoen GTX480 dies in 3 maanden. En ze hebben er maar rond de 100k gekregen. Tuurlijk zijn er meer factoren, zoals AMD die ook produktie krijgt. Maar nVidia moet toch minimaal 37.5% voor elkaar krijgen. Dan zitten we aan 3 miljoen, oftewel 1 miljoen per maand.

Ze hebben officieel vorig jaar al aangegeven de produktie van de andere modellen zwaar terug te schakelen en van de voorraad gebruik te maken. Dus 50% voor Fermi moet kunnen, dan van 500k Fermis *PER* maand, komen ze uit met rond de 100k na enkele maanden.

En jij blijft volhouden dat ze geen enorme problemen hebben?

Het feit dat de die-harvested GTX465 zonder problemen te leveren is geeft al aan dat er een gigantisch overschot aanwezig was van mislukte GPU dies.
De eerste kaarten die je verkoopt, verkoop je altijd met verlies. Je hebt immers nog een paar miljoenen aan kosten goed te maken. Puur qua productiekosten (tijd, werk, materiaal) zullen ze per kaart wel winst maken, maar als je al de rest er bij telt (marketing, r&d), spreek je al gauw van exemplaar 100000 dat de eerste echte winst oplevert. (getallen louter ter indicatie)

Zeker met een periode van 8 maanden mislukte chipjes bakken, heb je nog een heleboel kaartjes te verkopen eer je break-even bent.

En het is helemaal niet zo dat de Fermi kaartjes de winkels uitvliegen als zoete broodjes.

Dus nu verlies op Fermi? Zeker en vast.
Helemaal mee eens. Fermi is een ramp voor NVIDIA qua financien! Ik had dat dan ook wat verkeerd geformuleerd. Ik weet alleen 100% zeker dat NVIDIA geen chips gaat verkopen als ze daar ook nog eens verlies op zouden maken. Bovendien klopt de wiskunde achter de berekeningen van degene die claimen dat Fermi te duur is van geen kant. Maar als geheel is Fermi uiteraard een grote kostenpost die ze niet snel terug zullen verdienen nee.
En wat dacht je van NVIDIA 3D Vision?

Dat heb je ook alleen maar op de Nvidia kaarten, vanaf de Geforce 8.
Fijn dat lange verhaal wat je nu naar voren brengt, maar je maakt aardig wat fouten, vooral dat alleen fanboys nvidia kopen, ik koop zelf een nvidia kaart vanwege de drivers, laatste kaart wat ik gekocht heb was een 4870, heb daarna een gtx260 gewonnen op een lanparty en die zit er nog steeds in, die ati kaart gaf me te veel problemen, de pc stond steeds meer uit vanwege sores met dat kaartje, nu kan ik tenminste met een gerust hart gamen, gelukkig heeft men voor ati gebruikers wel autosaves gemaakt, die hebben me vaak genoeg veel tijd bespaart met mn 4870
Persoonlijk gebruik ik de laatste 7 jaar alleen maar AMD kaarten vanwege de betere prijs/prestatie verhouding en nooit problemen gehad. De éné keer dat ik van een nVidia video uitgang gebruik maakte blaasde mijn projector mainboard op, omdat het uitgangsnivo van de nVidia kaart buiten de specificaties lag (geverifieerd met oscilloscoop achteraf). Das gewoon pech hebben en zegt niks over de kwaliteit van nVidia en ik gebruik hun kaarten ook zonder problemen, maar dus niet meer voor mijzelf, omdat ik geen prioriteit stel aan PhysX/CUDA.

Wie weet had je een verkeerde HD4870 kaart en had je hem via garantie moeten laten vervangen. Maar de kans is groter dat je een configuratie probleem had op BIOS, Driver of OS nivo en er voor koos om de gemakkelijke uitweg te nemen.

Die luxe heb ik niet, het moet gewoon werken, zowel voor AMD als nVidia, en daar heb ik nooit echt problemen mee gehad. Het is echter nooit 100% feiloos, daarom zit AMD op dit moment ook met driver versie Catalyst 10.5 en nVidia zit nu aan GeForce 197.75 met de changelogs altijd vol met verbeteringen.
wat een onzin. heb nog nooit driver problemen met ati gehad. heb hier nog een oude 9800 kaart van ati in een pc zitten. en heb sinds de 4800 serie uitkwam de X2 versie en ook nooit problemen mee gehad, het zit tussen je oren. daarvoor heb ik nog n 8800gts gehad en daar had ik wel problemen mee in vista 64bit. als ik de driver wou installeren kreeg ik de kans dat ie de melding gaf van "er is een ander besturingssysteem gevonden dan waar deze driver voor is bedoelt" of iets dergelijks (maar dat zal wel aan vista hebben gelegen want op XP had ik dat niet) de laatste nvidia kaart die het echt goed deed was de 8800 serie die liep gewoon echt voor op de 2000 serie van ati. en daarna hebben ze dezelfde chip constant gerebrand tot en met de GT250.
altijd dezelfde opmerkingen over drivers, al jaar en dag ATI graphics in mijn systemen 1900-3850-5770 en nog nooit driver problemen gehad, zoek het misschien beter eens bij jezelf.

het klopt dat je beter af en toe een ati driver update doet met recente games, maar dat is enkel en alleen omdat Nvidia de game developers een centje toesteekt om eerst de sw te mogen hebben en dan zo een extra twmbt logotje.
Misschien speel jij niet de nieuwste games? Meest recente voorbeeld van problemen met ati drivers is de game Blur. De driver problemen komen weldegelijk regelmatig voor... Meestal na 1-2 maanden opgelost. Nvidia heeft het voordeel dat ze bij de ontwikkeling van diverse games worden betrokken. (Daarmee is het overigens nog steeds aan ieder voor zich te bepalen hoeveel meerwaarde dit heeft).

[Reactie gewijzigd door sdk1985 op 31 mei 2010 17:16]

En daar stel ik dan weer tegenover dat mensen met Nvidia kaarten vaak wisselen tussen verschillende driver versies om de nieuwste games te spelen.

Die verhalen over drivers zijn echt zoooooooooo achterhaald!
Ik vind het ook zo'n nonsens. Heb meerdere Ati kaarten (4670-8600gt-x850pe-x600xt-9600 pro-gf4-gf2mx) gehad en meestal update ik de drivers niet eens na aankoop, drivers zijn prima. Laat staan, ik regel alles wat ik nodig heb in Windows dus heb niet eens Catalyst of ForceWare nodig. Nu in Windows 7 laat ik de drivers trouwens aan Win7 over. Ik ga gewoon voor wat binnen mijn budget ligt (ong. 130 euro) en of dat nou nVidia is of Ati maakt me niet uit, had eerst een 8600gt en nu een 4670 en zit nu te overwegen om een 5770 te kopen (want het aanbod van nVidia vind ik echt karig).

edit: Overigens hebben we op kantoor enorm gezeik met kleur-output (veel te helder, niet in te stellen) van de 8200's en 8400's terwijl de x2400's het prima doen. En heb ik met mijn mijn macbook pro ook het nodige meegemaakt met mn 8600gt m (bekend probleem), dus nVidia moet eigenlijk nog wat extra gas bijgeven om mij een nieuwe kaart van nVidia te laten overwegen.

[Reactie gewijzigd door poepkop op 31 mei 2010 19:32]

In al die jaren dat ik game speel, (en mijn xfire lijst is lang; 200+ titels), heb ik zelf 1x een probleem gehad met nvidia drivers waardoor ik moest updaten. Dit was bij de game hitman blood money, hierbij liepe den schaduwen verkeerd (week voor de release oid). Dus dat wisselen verhaal komt mij in ieder geval niet bekend in de oren...

Gezien mijn activiteit op diverse fora ben ik, dus geen uitputtende lijst , o.a. problemen tegen gekomen met ati drivers bij grid (1950XT en ouder), far cry 2 (hotfix nodig), battlefield 2 (nvidia drivers stonden op de cd), battlefield bad company 2 (laadtijden), en het eerder genoemde blur. Dit zijn dus alleen mijn ervaringen, op internet zijn er nog diverse andere titels te vinden met render problemen, prestatie probleem, crashes etc.

Stellen dat de driver problemen achterhaald zijn is niet gebaseerd op feiten,ook op GoT kom je regelmatig driver problemen tegen. Check anders even hier Het ATi HD5XXX serie ervaringen topic - Deel 4 .

@poepkop
Ik kijk zelf ook altijd naar price performace, echter ik zit een segment hoger dan de kaarten die jij koopt; voodoo 32mb, gf2 mx, gf4 ti 4400, gf 5900XT, gf 6800GT, gf 8800GTS 640mb, gf GTX260. In alle gevallen destijds in prijs / prestatie toevallig de meest aantrekkelijke kaarten (ten tijde van de 5900XT was de betere ati en stuk duurder, 8800gts 640 was sneller dan de 2900XT die vak vergeleken werd met de 320mb van geforce, de gtx260 (196 shader) was in de aanbieding voor 170 euro en hiermee 50 euro goedkoper dan de 4870 en ik kreeg nog 100 euro voor mijn 8800 gts 640, en de 6800gt was een topkaart en lager hoef ik niet te verklaren neem ik aan, toen had je niks anders).

[Reactie gewijzigd door sdk1985 op 1 juni 2010 14:52]

Ja, ATI drivers zijn gewoon waardeloos.
Zou makkelijk 100 euro meer uitgeven als nvidia de oude standaard heeft kunnen voortzetten mbt video, crt support, multimonitor, games etc.

ATI fixed echt nooit iets in hun drivers, en als ze iets fixen dan verneuken ze weer iets anders. Dus huilen met de pet op sinds ik een x1650 en 4870 aangeschaft heb.

Maargoed al aantal jaar geen nvidia meer gehad, dus dus wel benieuwd of hun drivers wel nog werken :o
Haha forget it, Nvidia heeft full screen mirror uit hun drivers gesloopt...Zo goed is de Nvidia driver ondersteuning ook niet...

Laten we zo zeggen: alle bedrijven hebben slechte punten..
Na 2-3 jaar achter de feiten hebben aangelopen, zou je denken at nvidia nu toch eens moet snappen dat ze op deze manier de achterstand op AMD nooit zullen goedmaken.

In prestatie/prijs verhouding, wat weer leidt tot aantrekkelijke producten, heeft AMD het structureel beter voor elkaar.
Is het 'blindheid' van Nvidia of koppigheid van management/beleidsbepalers?
Probleem is dat de GPU markt niet zo snel gaat als het lijkt. Producten zijn jarenlang in ontwikkeling en er moeten dus jaren van te voren belangrijke keuzes gemaakt worden voor de strategie van een nieuwe architectuur. NVIDIA heeft gegokt op grote complexe chips. Bij G80 was dit een enorm succes, bij G200 al minder en bij Fermi breekt ze dit op. Probleem is ook dat TSMC flinke problemen heeft gehad bij hun 40nm procedee, iets waar AMD door een minder complex ontwerp veel beter tegen bestand is. Tegen de tijd dat deze problemen bekend waren was het echter al te laat voor NVIDIA om Fermi nog ingrijpend aan te passen. De reden dat Fermi vele maanden te laat was kwam dan ook omdat NVIDIA druk bezig was om het ontwerp zodanig aan te passen dat het nog bruikbaar was en nog fatsoenlijke yield zou hebben, wat ze pas een paar maand geleden is gelukt.

Let echter wel, stel dat 40nm een perfect procedee was geweest dat aan de verwachtingen had voldaan, dan was er een goeie kans geweest dat NVIDIA nu weer "on top" uit zou komen en hadden mensen de vraag gesteld waarom AMD eigenlijk bepaalde keuzes had gemaakt. Het is voor bedrijven als NVIDIA en AMD een kwestie van een strategie uitzetten en de toekomst proberen in te schatten, en daarna maar hopen dat jouw versie van de toekomst ook gaat kloppen, anders heb je een probleem.

[Reactie gewijzigd door Snoitkever op 31 mei 2010 16:20]

Nee, als TSMC 40nm een perfect procedee was geweest was NVidia nog steeds niet 'on top' in de vergelijking met AMD. Ze zouden er hooguit iets minder dramatisch naar voren komen.

Wellicht zouden ze een 512 Cuda-cores versie uit kunnen brengen, maar wat betreft verbruik, warmte en lawaai zouden het nog steeds gedrochten zijn. Wellicht zou NVidia het kleine beetje ruimte om de GPU op 700 Mhz te klokken niet gebruiken om ervoor te zorgen dat het verbruik niet buiten de PCI spec valt (het daadwerkelijke verbruik, niet de 250W die NVidia opgeeft).
De Yield zou dan iets beter zijn maar nog steeds significant slechter dan de AMD chips vanwege het veel grotere chip-oppervlak.

Een groot deel van het probleem van Nvidia is inherent aan de gemaakte keuzes voor Fermi en niet de schuld van TSMC.
Als het "perfect" zou zijn zou NVIDIA niet die belachelijk lage 700 MHz clock hebben, dan zou Fermi niet alleen 512 cores hebben maar ook clocksnelheden van minimaal 800/1600 of zelfs 850/1700 met het zelfde verbruik als nu. TSMC 40nm is gewoon zwaar klote wat betreft leakage (onder meer vanwege gebrek aan high-K) waardoor NVIDIA nu een veel te hoog verbruik heeft. De reden dat Fermi niet hoger geclockt is is dat verbruik dan niet meer haalbaar zou zijn en dat de chips de hoge snelheden niet aankunnen, beiden zijn een gevolg van de 40nm problemen bij TSMC.
Wat betreft yield, natuurlijk ligt die bij een grote chip hoger dan bij een kleinere chip, maar wie het nieuws een beetje volgt weet dat het grootste probleem ook hier weer zit in het 40nm procedee van TSMC dat niet consistente resultaten oplevert, waardoor via's en transistoren niet altijd de juiste grootte zijn. Reken maar dat dat NVIDIA's grootste probleem is met hun 3 miljard transistoren. Een volwassen procedee heeft normaal gesproken een zeer lage defect density.
Neem de scores van een GTX480 en vermenigvuldig die eens met 1,3 (512 SPs, 850MHz clock). Als de GTX480 30% sneller was geweest was NVIDIA met gemak kunnen concurreren met de veel duurdere HD5970.
Voor NVIDIA maakt het niet zoveel uit, ze verkopen het toch wel en dan is het wel omdat ze van vroeger nog een naam hebben.

Iemand die niet in de pc wereld zit en toch wil gamen zal in de winkel voor NVIDIA gaan, wat de prijs/prestaties/stroomverbruik ook mag zijn en dat alleen maar omdat hij de naam NVIDIA kent en nog nooit gehoord heeft van ATI (net als vrijwel iedereen vroeger perse een Intel Pentium 4 wilde hebben ipv een AMD Athlon 64 terwijl die laatste een stuk beter is).

Een naam doet nog steeds erg veel bij de gewone consumenten. Hier leest iedereen natuurlijk wat de prestaties zijn van die kaarten dus wordt daarop een keuze gemaakt. Maar tweakers zijn maar een niche markt.

Daarom kan NVIDIA ook zonder pardon telkens maar blijven rebranden, voor het overgrote deel van de consumenten lijken het gloednieuwe kaarten en die zijn altijd beter dan de oude kaarten.

Ach voor zover ik weet heeft NVIDIA nog steeds veel meer geld dan AMD/ATI, dus die laatste mag van mij best meer inkomsten hebben met zijn betere producten (en ook meer naamsbekendheid krijgen).
352 is gewoon veel te weinig. 406 had beter geweest.

@darkasantion: unlocken is gevaarlijk. Je garantie is weg en als hij de biosflash overleeft is het nog maar de vraag of ie werkt met de geunlockte cores die waarschijnlijk behoorlijk cripple zijn...
Waarschijnlijk is teveel gezegd. Soms worden dit soort budget-uitvoeringen gemaakt om een overdaad aan beschadigde productie-exemplaren alsnog te kunnen verkopen, maar in dit geval lijkt het meer te zijn om daadwerkelijk een product met de nieuwste chipset in het budget-segment te kunnen positioneren.

Maar het lijkt me dat als je met de 470 BIOS tegen een defecte shader cluster aanloopt, je weer terug zou moeten kunnen naar de 465 BIOS, dus dan verlies je niets, je wint alleen ook niets.

De Intel 80486SX begon als een manier om de grote aantallen 486ers met een defecte FPU alsnog te gelde te kunnen maken, maar in de latere jaren was het aantal uitvallers in productie minimaal, en begonnen bijna alle 486SX-en hun leven als deugdelijke 486DX-en voordat de perfect functionerende FPU (hardwarematig) werd afgeschoten, omdat de vraag bij de budget PC-bouwers nog groot was.
Waarschijnlijk is teveel gezegd. Soms worden dit soort budget-uitvoeringen gemaakt om een overdaad aan beschadigde productie-exemplaren alsnog te kunnen verkopen, maar in dit geval lijkt het meer te zijn om daadwerkelijk een product met de nieuwste chipset in het budget-segment te kunnen positioneren.
Eerlijk gezegd denk ik dat juist niet. Als het plaatje bij het artikel klopt dan is er een GPC (blok van vier SMs) en een losse SM uitgeschakeld. Wat mij betreft duidt dat op het volgende:
Je hebt een GPC met een defect (laten we zeggen in de raster engine, die door de hele GPC gedeeld wordt), maar zelfs als je die uitschakelt heb je nog niet genoeg yield. Om de yields nog iets verder op te krikken moet je ook nog een losse (defecte) SM uitschakelen. Tenminste, ik kan me niet voorstellen dat die losse SM alleen maar uitschakeld wordt omdat het anders geen budget-kaartje meer is, toch?
Uit het feit dat er kennelijk twee defecten "verborgen" moeten worden in deze opzet leidt ik af dat deze kaarten (met zeer hoge waarschijnlijkheid) inderdaad twee defecten hebben. Dus in tegenstelling tot een relatief groot deel van AMD triplecore CPUs waarvan een correct werkende, vierde core is uitgeschakeld om aan de vraag van de markt te voldoen.
Maar het lijkt me dat als je met de 470 BIOS tegen een defecte shader cluster aanloopt, je weer terug zou moeten kunnen naar de 465 BIOS, dus dan verlies je niets, je wint alleen ook niets.
Ik heb het nooit geprobeerd en er bijna niks over gelezen, maar puur op theoretische gronden: als je een 470 BIOS erin zet en het blijkt niet te werken, hoe moet de 465 BIOS die je daarna terugzet weten welke stukken hardware niet gebruikt moeten worden? Als je tijdens het flashen die data kwijtraakt dan heb je een probleem bij het terugzetten van het 465 BIOS, toch...?
406? Het gaat in veelvouden van 32. Dus 352, 384, 416, 448, 480, 512.
telfoutje, bedoelde natuurlijk 416 :+
Het eerste wat ik mij afvraag is of door middel van een 'hack' die uitgeschakelde blokken weer ingeschakeld kunnen worden? Net als vroeger bij de GeForce 6 serie. Iemand hier ervaring mee of dit op dergelijke kaarten nog/weer kan?
Als je naar de guru3D review gaat kijken kan je zien dat je in deze kaarten (momenteel dan toch) gewoon de GTX470 bios de flashen.
Dit houdt dus ook in dat je al een stuk van de uitgeschakelde blokken kan inschakelen. Echter is dat volledig op eigen risico ;)
There's something else I want to mention here. I'm not saying you should, by all means no. But we already informed you that the PCB, packaging and GPU on both the GTX 465 and 470 are 100% similar. We flashed a GTX 470 BIOS in one of the GTX 465 cards just to see if it would work, and it ran perfectly fine. Risky yes .. the extra disabled shader clusters could be damaged. But well let's just say, keep this little story in mind
Linkje naar de betreffende webpagina
Dit houdt dus ook in dat je al een stuk van de uitgeschakelde blokken kan inschakelen. Echter is dat volledig op eigen risico ;)
Dat staat er niet, er staat dat je een GTX470 bios in een GTX465 kan flashen, maar ja je kan een HD5870 bios ook in een HD5850 flashen, maar de uitgeschakelde streamprocessors blijven dan nog net zo hard uitgeschakeld, omdat ze gelasercut zijn.

[Reactie gewijzigd door -The_Mask- op 31 mei 2010 15:44]

Dat staat er niet,
Ehm, dat staat er wel:
Risky yes .. the extra disabled shader clusters could be damaged.
Waarom zouden ze dat zeggen als die oorspronkelijk-gedisablede (uh, spelling?? :p) shader clusters niet geënabled worden door een andere BIOS erin te zetten? Als ze toch disabled blijven dan maakt het niet uit of ze damaged zijn!

@necronomicon_6: Bedankt voor de link, maar we zijn het gewoon eens hoor... Of probeerde je te reageren op -The_Mask-?

[Reactie gewijzigd door robvanwijk op 1 juni 2010 23:11]

Kijkt hier eens op de site van lab501 (vertaald)

BIOS flash van GTX 465 naar 470 lijkt toch echt succesvol te zijn ...

http://translate.google.c...65-in-gtx-470&sl=ro&tl=en
Lasercut wellicht. Gaat niet meer werken door middel van een software-hack.
Als de GTX465 nou zuiniger was dan de 5850, dan had hij nog een USP, maar hij verbruikt zo'n 50 watt meer in load, en alsnog iets van 10 watt meer in idle.
Nou, zelfs 100W volgens xbit & anandtech.
En presteert ook nog eens slechter! Laten we dat niet vergeten :)

Kortom: welke gek gaat nog voor nvidia (op de linux liefhebbers na)

[Reactie gewijzigd door Relief2009 op 31 mei 2010 15:48]

Wat ik lees gebruikt de GeForce GTX 465 veel minder stroom dan wat Nvidia zegt, je kan het ook hier lezen:


http://guru3d.com/article/geforce-gtx-465-sli-review/8


Nou ik weet welke grafische kaarten ik ge kopen, ik ga voor 2x GeForce GTX 465 in SLI, is sneller dan 1 GeForce GTX 480, en soms sneller dan een Ati HD5970.

[Reactie gewijzigd door AmigaWolf op 31 mei 2010 21:04]

Waarom niet twee keer 5850, dat is nog eens een veel betere keuze. scheelt je bijna 100 euries en hij is zuiniger en sneller meestal.
En dat besluit je door 1 review te lezen? :?

Bij 2 andere reviewers, die toch een betere reputatie hebben, schiet de 465 ruim boven de TDP van 200Watt. Anandtech en xbitlabs, check die ook even voor je naar de winkel rent. ;)
Denk dat als de driver worden optimized dat het dan een goeie kaart is.
Weet iemand hoelang deze kaart is in CM op de foto ziet hij er niet bepaald lang uit, wat hem uitstekend zou maken voor een miditower

Edit: komen of zijn er mobo's of programma's die uitgeschakelde cores kunnen aanzetten? net zoals bij AMD?

[Reactie gewijzigd door Generation Kill op 31 mei 2010 15:21]

Yup. Een nieuwe driver verhelpt volledig de kromme prijs/prestatie en prestatie/verbruik verhoudingen... :) Nee, serieus, de drivers zijn al een half jaar in orde, ze hebben immers tijd genoeg gehad. Paar minimale winstjes nog net wel, maar je moet echt geen wonderdrivers verwachten.

Je moederbord heeft daar weinig invloed op. Er een BIOS van de 470 inflashen zou naar verluidt kunnen. Echter moet je rekening houden dat het heel brakke chips zijn (veel defecten en hoog voltage nodig om te werken), dus succesgraad zal heel laag liggen.
Heel erg mee eens. Ik lees al die comments van jaaaaaaah en die ati scoort veel beteeeeeeeeeeeeeer en verbruikt veel minder strooooooooooom en blablaaaaaaaaaaa.
Die kaarten zijn al meer dan een half jaar uit, zijn aan hun zoveelste driver toe, terwijl de kaart van nVidia pas op zn eerste driver loopt!
Wacht nou maar met bitchen over nVidia tot over een maandje of twee, als er wat nieuwe drivers zijn!
Daar ben ik het niet mee eens. Er moet niet vergeten worden dat die nVidia kaarten NU met ATI moet concurreren en niet "over een maandje of twee." Jawel, natuurlijk ook dan. Maar ja, zoals het nu is is ATI gewoon beduidend beter bezig.

[Reactie gewijzigd door Therapy777 op 31 mei 2010 15:54]

Leuk bedacht maar de drivers voor fermi zijn al net zo lang in ontwikkeling als die van evergreen. Ze hebben namelijk meerdere tape-outs gehad van fermi eind vorig jaar waar ze op konden ontwikkelen. Dus toen fermi in de verkoop ging hadden ze al prima drivers klaar staan.

En wat hebben de drivers met het hoge stroomverbruik van fermi te maken? Denk je serieus dat met de volgende driver het verbruik met 50W zakt of zo? :S

[Reactie gewijzigd door bwerg op 31 mei 2010 16:03]

1: hij moet nu de concurrentie aangaan eigenlijk al te laat
2: een nieuwe driver zorgt er niet ineens voor die kaar veel minder stroom gaat gebruiken.
Is het gek te verwachten dat een product goed werkt wanneer het uit komt? Als het nog niet goed werkt, door wat voor reden ook, moet het gewoon nog niet verkocht worden.
Beet je offtopic maar toch: Wat je hier zegt is de rede dat Amerika harder groeit dan de EU. zij zaan niet bang om een niet zo goed functioneerden product op te markt te zetten. waar wij vaak dingen beter proberen te maken. maar dingen beter maken is vaak maar een kleinen vooruit gang dan een nieuw ding maken. Er is een tijd geleden op een van de Utrechtse tv zenders een uitzending hierover geweest.

[Reactie gewijzigd door wiskid op 31 mei 2010 16:10]

Volgens mij spreken de reviews voor zich.
Aangezien de 58x serie van ATI een stuk beter presteert zullen weinig mensen hier gebruik van gaan maken.

Echte Nvidia fans kunnen beter een generatie overslaan of overgaan op ATI
want de G100 is zo'n brakke chip, over 12 maanden denk ik wel dat ze iets beters kunnen leveren.
als AMD dan maar niet met de 6870 uitkomt :+

[Reactie gewijzigd door stewie op 31 mei 2010 15:23]

effe geduld hebben tot de GF104 komt. Zal als GTX460 (zal sneller dan 465 zijn) GTS 450, GTS 440, GT 420, GT 410 komen (of zouden die laatste twee nou GF106 zijn)

Anyways, die GTX460 op GF104 basis zal gehakt maken van de GTX465. Zeker qua prijs. Kleiner procede en ik dacht ook een kleinere die
Nou. Het zal toch echt op hetzelfde 40nm proces worden hoor. :)

Qua specs (shaders, membus, etc) allemaal lager en minder dan de GTX465/470/480. Goedkoper? Vast wel. Maar gehakt? Nope.
Kleiner procedé? Hoe willen ze dat doen, ze zijn net pas overgestapt op 40nm, dat is voor GPU's het kleinste procedé dat er is en dat zal ook nog wel een jaartje zo blijven. Die kleinere die klopt wel, bedenk je dat er nu heel veel shaders op deze GTX465 zitten die niet gebruikt worden dus als de yields wat beter worden kan je al die cores weglaten. Maar of de GTX460 over de performance van de GTX465 heen gaat komen moet ik nog maar eens zien. Wat er nu van bekend is duidt daar niet op, namelijk. Het is hopenlijk gewoon een mooie bang-for-buck kaart.

[Reactie gewijzigd door bwerg op 31 mei 2010 16:00]

Grappig dat je het alleen hebt over gehakt maken van haar eigen producten en niet van de concurrentie.

Ben je echt zo diep Nvidia fan?
Kleiner procede? Er is nog niets kleiners voor bulk dan 40nm. 32nm is er niet meer(TSMC heeft die laten vallen omdat er te weinig animo voor was) en 28nm is nog een tijd op wachten.

[Reactie gewijzigd door Reinman op 31 mei 2010 15:52]

Geen kleiner procede, gewoon nog op 40nm. Hij zit alleen wel anders in elkaar, efficiënter.
want de G100 is zo'n brakke chip, over 12 maanden denk ik wel dat ze iets beters kunnen leveren.
De snelste video chip ter wereld brak noemen is wat te ver gaan vind ik.
als de 5870 al 6 maanden op de markt is, en de G100 gelijkwaardig presteert noem ik dat een brakke chip.
ook is de chip zo defect dat er geen een de volledige 512shaders bevat die nvidia 12 maanden geleden heeft aangekondigd.

en ook gebruikt hij ongeveer 1.5x zoveel stroom als een AMD 5870 en is zelfs de GTX 480 niet altijd sneller dan de 5850 die 100euro goedkoper is.
conclusie: het is een brakke en dure chip, die ook in het gebruik 1.5x duurder is dan welke single-chip AMD GPU dan ook.
Het produceren van een snelle videochip is echt geen rocketscience hoor, wanneer AMD de cypres chip gewoon 4x zo groot maakt hebben ze een chip die ongeveer 3-4x zo snel is. Echter de yields zullen dan een heel stuk lager liggen, om niet te beginnen over het stroomverbruik.
Het gaat erom een snelle chip te ontwerpen die ook geproduceerd kan worden, niet te groot is en daarbij niet teveel energie verbruikt. Aan deze laatste drie dingen heeft nvidia niet voldaan dus is het hebben van net de snelste chip erg weinig waard.
Het produceren van een snelle videochip is echt geen rocketscience hoor
Er zijn om precies te zijn twee bedrijven (of één...!?) op deze planeet die high-end videochips produceren. Zelfs Intel (je weet wel, dat bedrijf dat wel een klein beetje verstand van chipje-maken heeft) krijgt het niet voor elkaar om een concurrerend product te fabriceren!
Nee, het is inderdaad geen rocket science, het is rocket science++.
powerVR, is de nummer 1 GPU op de markt.
en toch ongeveer even snel als een Nvidia 8600GT maar dan 1/10de van de kosten van een low-end Nvidia kaart, sterker nog bij intel is hij zo goed als gratis bij elke i3/i5 CPU (alleen zijn intel's drivers extreem slecht)

dus het is inderdaad geen rocket science, en die verbruikt zo weinig stroom dat hij zelfs in de iPhone/iPad en bijna elke mid-high-end GSM zit met DX10.1 features :+

[Reactie gewijzigd door stewie op 1 juni 2010 00:30]

Waarom allemaal zo negatief over de kaart?

Hij is meer future-proof dan de 5850 omdat:
-Als je naar de benchmarks kijkt zie je dat de GTX465 beter scoort bij games met veel tessalation (Metro 2033) dan de 5850.
-De 5850 al veel langer op de markt is en al de nodige optimalisaties in driver updates heeft gezien en de 465 niet.
-De 465 heeft wel CUDA en PhysX.

Dat zijn de voordelen tegenover de 5850, de nadelen zijn:
-Hij presteert slechter dan de 5850
-Hij is ongeveer 30 euro duurder.

Om nu al te zeggen dat hij veel slechter presteert is een beetje krom want misschien is het wel heel anders na de nodige driver updates.

Vooralsnog is de 465 een hele goede keus, maar dat is natuurlijk mijn mening.


Ik wil er trouwens nog even bij vermelden dat ik nu een 4890 heb en ook altijd alleen nog maar AMD/ATI kaarten heb gehad.

[Reactie gewijzigd door qwertyuio op 31 mei 2010 21:14]

1. Physx is geloof ik door Nvidia weer vrijgegeven aan ati.
2. Cuda is het slechtste argument ooit, voordelen heeft dit vrijwel niet.
3. drivers van de GTX 465 zijn vrijwel identiek aan die van de 470. dus zoveel meer optimalisatie zal er niet komen.
4. de goedkoopste 5850 is 40 euro goedkoper dan de goedkoopste 465 en deze prijzen kan ATI makkelijk laten zakken als dat nodig is.
5. Hij gebruikt veeel minder stroom.
6. eyefinity :D

Hij is dan misschien wel beter met tesselation, maar zoals al vaker is gezegt: Heaven Benchmark 2.0 gebruikt een onrealistische hoeveelheid tesselation op extreme tesselation. deze zal je de komende jaren nog niet tegenkomen in games.
2. Cuda is het slechtste argument ooit, voordelen heeft dit vrijwel niet.
Loze uitspraak, enige onderbouwing?
3. drivers van de GTX 465 zijn vrijwel identiek aan die van de 470. dus zoveel meer optimalisatie zal er niet komen.
Zeker nog niet gehoord van de 'Release 256' drivers, die schijnen toch een aardige verbetering te brengen.
Cuda is wat zij een eigen naam hebben gegeven hebben gegeven aan de streaming processoren. pure marketing dus.

Klopt, maar zoals ik als zei die waren ook voor de 470 en 80 dus ze hebben al tijd gehad voor driver updates, veel meer zal het dus niet worden dan dat
En hij heeft 3D Vision en dat heeft Ati ook niet, dus het zijn 4+ punten.


En je hebt een Geforce GTX 470 all voor € 319,00, dan zal een Geforce GTX 465 in de
200 Euro kommen, en dat is een hele mooie prijs denk ik.

Je moed altijd even wachten ( 1 a 3 maanden) voordat je nieuwe Hardware gaat koppen.

http://www.funprice.nl/a/videokaart/sparkle/sparkle-geforce-gtx-470-1280mb

[Reactie gewijzigd door AmigaWolf op 2 juni 2010 01:25]

http://www.hardware.info/...t_nVidia_GeForce_GTX_465/
Hier is nog een link naar een review.
Daarin staat ook weer dat de 5850 sneller is.
bij Tom's hardware komt zelfs de 5830 bij een flink aantal benchmarks als sneller uit de test... http://www.tomshardware.c...i-gf100,review-31908.html

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True