Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties

Nvidia introduceert naar verluidt in juli en augustus videokaarten op basis van de GF106- en GF108-chips. De introductie van de mainstream- en instapkaarten volgt daarmee een maand na het op de markt verschijnen van de GTX 460.

Eerdere berichten spraken al over een release van de GTX 460 in juni. Digitimes heeft het over begin juni en claimt daarnaast dat in juli en augustus mainstream- en instapkaarten met respectievelijk de GF106- en GF108-chip arriveren. Dit zijn de afgeleide chips van de GF100, die het hart van de high-end GeForce GTX 470 en 480 vormt. Net als die gpu zijn de komende chips op Nvidia's Fermi-architectuur gebaseerd.

Volgens Digitimes krijgt de GTX 460 een adviesprijs van ongeveer 300 dollar, terwijl de GF108- en GF106-kaarten maximaal respectievelijk 100 en 180 dollar moeten kosten. Die prijzen wijken af van de prijzen in een eerder bericht van de Duitse website 3Dcenter. Daarin stond dat kaarten met de GF108-chip rond 30 à 40 euro gingen kosten, terwijl de kaarten met de GF106 tussen 60 en 100 euro zouden gaan kosten.

Digitimes claimt overigens ook dat de GTX 460 een midrange-kaart met de GF104 wordt, terwijl deze chip volgens 3Dcenter zijn opwachting in de GTS430, GTS440 en GTS450 gaat maken. Verder bericht de Turkse site Donanimhaber dat Nvidia ervoor heeft gekozen de naam GTX460 niet te gebruiken, maar deze kaart als GTX465 uit te brengen.

Moderatie-faq Wijzig weergave

Reacties (55)

Allemaal best wel prijzig wat Nvidia uitbrengt op het moment.
Ja ze hebben de performancekroon op singlechip vlak, maar als je kijkt naar prijs//performance liggen ze toch duidelijk achter bij ATi.
En dan is er nog die vervelende 5970 die de algehele prestatiekroon heeft.
Zijn die kaarten dan zo duur om te produceren? Of proberen ze de duurder = beter truc?
De Nvidia kaarten zijn daadwerkelijk zo duur om te produceren, voornamelijk de GPU zelf is behoolijk groot = veel materiaal = duur.
Niet alleen veel materiaal, maar ook een groot oppervlak wat risico's meebrengt door een veel hoger uitvalpercentage. Dus je haalt al minder chips uit één plaat, daarnaast is er een groter percentage daarvan niet geschikt, dus moet je de toch al hoge kosten per chip over nog minder chips verdelen.
Dat is het niet eens.... ze zijn zo duur doordat ze de productie nog niet op goede baan hebben... er zijn veel defecte yields. waardoor ze minder kunnen produceren als dat de vraag is. waardoor de prijs stijgt
Veel defecte "yields" bestaat natuurlijk niet. Er komen veel defecten voor bij nieuw geproduceerde chips binnen de gehele wafer. Dit resulteert in een slechtere yield als mogelijk is voor Nvidia.

De ideale yield bestaat voor elk geproduceerd product, en komt neer op het optimaal haalbare aantal goed geproduceerde producten of onderdelen per standaard hoeveelheid materiaal. Bij een wafer is dit nooit 100%, simpelweg omdat er altijd snijverlies is en doordat de wafer rond is, wat zorgt voor chips waar ronde stukjes af zijn.
Volgens mij is "defecte yields" gewoon zoiets als "het kost duur"...
@spawnagain: dat hoor ik veel mensen gebruiken ja, min of meer vergelijkbaar met een mixed metaphor.

Maar iets relevanter, voor zover ik heb geleerd is yield "aantal werkende dies per aantal geproduceerde dies". Dus het is (in theorie) best mogelijk om 100% yield te halen.

Je hebt trouwens best een goed punt met die "chips waar ronde stukjes af zijn": hoe groter je die (en de GF100 (en de 102, 104, 106, 108??) is enorm) hoe meer verlies je zult maken op stukken wafer die door de ronding überhaupt onbruikbaar zijn (ook zonder defecten).

[Reactie gewijzigd door robvanwijk op 5 mei 2010 23:40]

Het kost duur, seriously?
onjuist: die-yield is het aantal werkende chips t.o.v. het maximaal mogelijk werkende chips op een wafer Een die-yield van 100% is dus perfect mogelijk.
Ik denk dat ze een beetje in paniek beginnen raken bij NV na dat hun nieuwe reeks geweldig word afgekraakt. Ze gaan serieus uit de kast moeten komen willen ze nog iets geloofwaardigheid overhouden bij hun ''vaste'' klanten.
Wat een negatief gezeik altijd over nVidia.
Die mensen doen ook hun best om goede producten te maken.
Alsof ATI zo geweldig is.
Die moeten ook niet denken dat ze alles zijn ofzo met hun 5870 met maar één zielige tessellation reken eenheid. |:(
Wacht maar tot de nieuwe games heel veel tessellation gaan gebruiken.
Dan storten de prestaties van de 5970 en 5870 gigantisch in elkaar.
Als je de juiste reviews leest dan weet je dit ook. ;)

Ik ben blij met mijn GTX 470 en voor de duidelijkheid: Hij maakt geen herrie dus!
Dat zijn allemaal leugens blijkbaar.
Ok mijn kast is zeer goed geventileerd (Coolermaster CM690) met drie 140mm en drie 120mm fans.
Je hoort een beetje de fanspeed omhoog gaan tijdens de Supersonic Sled demo of de Heaven demo maar dat is bijna niet meer hoorbaar tijdens het gamen.

En het verbruik is dan misschien wel wat hoog maar ja het is een high end kaart dus dat mag vind ik.
Als je een Ferrari met een V12 koopt weet je ook van te voren dat ie niet zo zuinig is als de Fiat Panda van de buren.
Maar hij zal wel een stuk vlotter rijden en weg trekken bij het stoplicht ;)
Dus nVidia hoeft zeker niet in paniek te raken.
Ik ben vaste nVidia klant en blijf dat ook.
Sjah wel lachen hoor @sunbeam-tech
ATI begon er al mee met de R600 toen Nvidia nog niet eens wist dat het bestond.
Maarja niemand gebruikte het dus hebben ze het op een lager pitje gezet.
Nu Nvidia het "beter" kan gaat het in ene meer gebruikt worden ?
Straks ga je zeggen dan Bumpmapping ook bij Nvidia vandaan komt en beter draaid :P (matrox)
Sjah ze hebben toch Physics ook uitgevonden ? :)

ATI : No, but we will be fixing the tessellation performance real soon. You can count on a 3x increase in performance in the next Catalyst driver.

Tech ARP : How is that possible?

ATI : Simple. To reduce power and temperature, we turned off most of the tessellators in the Radeons. Why turn them all on when there are no games using tessellation? Remember - ATI loves polar bears. We will just fire them up in the next version of the Catalyst driver.


http://www.fudzilla.com/i...ask=view&id=1043&Itemid=1

http://www.techarp.com/showarticle.aspx?artno=671&pgno=1

[Reactie gewijzigd door r.stanneveld op 5 mei 2010 14:07]

Dan nog is het de vraag... dat artikel is al een maand oud en ik vraag me toch af in welke driver update ze dat zouden willen proppen... Plus het feit dat de honger naar vermogen toeneemt, hoever zouden ze dat kunnen pushen om binnen de PCI-e specs te blijven?
Die mensen doen ook hun best om goede producten te maken.
En daar zijn ze deze keer wat minder in geslaagd dan de mensen van ATI. Kan gebeuren.
Als je de juiste reviews leest dan weet je dit ook. ;)
Heb je het hier over de reviews van spellen die specifiek zijn ontworpen om goed te draaien op nVidia-hardware?
Als je een Ferrari met een V12 koopt weet je ook van te voren dat ie niet zo zuinig is als de Fiat Panda van de buren.
Nou nee, het is meer in de trant van "Mijn Ferrari zuipt benzine maar de Porsche van de buren gaat bijna net zo hard maar komt twee keer zo ver op een liter". Of: "De Porsche van de buren gaat nog harder maar daar heeft ie twee motoren voor nodig en Ferrari maakt geen modellen met twee motoren dus om de één of andere mysterieuze reden mogen we daar niet mee vergelijken".
@spawnagain: Je mag best een s/Ferrari/pats-automerk A/ en s/Porsche/pats-automerk B/ over mijn post heen halen als jij daar extreem gelukkig van wordt (of de essentie snappen en dit soort zinloze details negeren, dat mag natuurlijk ook...).
Ik ben vaste nVidia klant en blijf dat ook.
Goed dat je het er nog even expliciet bij zet; in de rest van je post klink je als een enorme ATI-fanboy...!? 8)7

[Reactie gewijzigd door robvanwijk op 5 mei 2010 23:44]

Waarom vergelijk je een waardeloos automerk als Porsche met n topmerk als Ferrari? |:(
Beetje loze fanboy roep om aandacht is dit? Bedenk wel, dat tessellation toch nog bar weinig wordt toegepast en als dit meer gebruikt gaat worden AMD alweer klaarstaat met hun nieuwe HD6xxx reeks. Zal prijs / performance wijs toch wel weer gaan winnen van de nV reeks van nu.

En als jij de hele dag naar de Supersonic Sled Demo zit te kijken, ga je gang! :) Wees dan vooral heel blij met je GTX470 want games met tessellation zijn er op een aantal na toch nog niet...

Kort samengevat: fanboy gezeik... En de HD5870 en HD5970 maar gelijk als waardeloos bestempelen... klinkklare onzin!
Plus dat dit gewoon niet klopt, ATi is de enige speler zijn tesselation units in dedicated hardware uitgevoerd heeft, Nvidia moet dit in de shader doen, die nog 5 andere dingen moet doen.

ATi-fans zouden juist spellen met Tesselation willen hebben, omdat Nvidia degene is die in elkaar zal storten waar ATi stug doorgaat.
Kerel, je snapt er helemaal niets van, doe eens wat research voordat je zomaar wat roept!
Als het op extreme tesslation aankomt blaast de gtx480 zelfs de 5970 voorbij, maar alleen in een benchmark, dirt2 en metro, verder word er weinig tesselation gebruikt. Maar in de nabije toekomst zal er wel wat meer gebruik van gemaakt gaan worden ga ik van uit.
Toch, value voor money blijft ATI nr1 op dit moment. Voor singlecore kaarten is de gtx480 zon 15% sneller voor ongeveer 30% hogere prijs dan de 5870.
Laten wij blij zijn met deze keuzes die we allemaal kunnen maken. Ik ben een performance freak en wil best wel vernieuwen naar een gtx480. (heb nu 5870).
Voor ieder wat wils, en als je het kan betalen en je wil geen CF of SLI, dan is zo'n gtx480 ook niet zo'n slechte keuze.
En ook bij doorverkoop is zo'n GTX480 meer waardevast dan een ATI (over een jaar dan ofzo), kijk maar naar de prijs van een gemiddelde 2e hands gtx285. Vind ik geen slecht argument lijkt me?

Ben wel benieuwd naar de nieuwe Nvidia kaartjes, maar ben bang dat prijs/prestatie kroon over de hele range wel bij ATI blijft. Tijd zal t leren!
.....
En ook bij doorverkoop is zo'n GTX480 meer waardevast dan een ATI (over een jaar dan ofzo), kijk maar naar de prijs van een gemiddelde 2e hands gtx285. Vind ik geen slecht argument lijkt me?
....
Wel als je bedenkt dat de afzetmarkt een stuk kleiner is/ zou moeten zijn, en daarbij, je kunt voor een kaart vragen wat je wilt, of je het krijgt is een tweede. Maw, ik vind dat een non-argument.. En als het al waar is; je hebt er in de eerste plaats ook veel meer voor betaald, dan voor een Ati die hetzelfde, of beter, doet. Het is dus logisch dat je er dan ook meer voor terug wil, als verkopende partij. De kopende partij zou in mijn ogen beter moeten weten, maar ja, zo'n marktverschuiving duurt altijd even. Leken kennen vaak maar 1 merk kaarten, en dat is nvidia. Op zich is daar dus nog wel wat werk aan de winkel voor Ati, maar het houde de prijzen tenminste goed. Ik zou er niet blij van worden als nvidia weg valt ivm. monopoliepositie ati, maar eerlijk is eerlijk- Ati is de meest/best innoverende fabrikant van dit moment.

[Reactie gewijzigd door Hammer op 5 mei 2010 09:36]

Plus dat dit gewoon niet klopt, ATi is de enige speler zijn tesselation units in dedicated hardware uitgevoerd heeft, Nvidia moet dit in de shader doen, die nog 5 andere dingen moet doen.
Ik zeg bullshit! Kom maar eens met bronnen/argumenten, behalve "Charlie zegt het". Daarnaast mag je ook met argumenten en bewijzen komen die ondersteunen dat tesslation bij AMD niet gewoon in software gebeurt, want daar hebben we ook alleen AMD's eigen woord voor.
Er is net zo veel (of eerder eigenlijk weinig) bewijs dat AMD's tesselation in hardware gebeurt als dat NVIDIA's tesselation in hardware gebeurt.
Jij krijgt van nvidia betaald zeker? In ieder nv-ati topic zie ik je heel fel reageren op bepaalde statements ;)

Ontopic: Tsja.. Als dit net zoiets wordt als de notebook chipjes die nV uitbrengt, heb ik er een hard hoofd in. Dan kom je in je mainstream pc niet meer daar met een 400W voeding :)

IMO zijn de kaarten van nvidia op het moment erg onder de maat.. Verouderde technologie, een zeer hoog verbruik, lawaaierig en, ten opzichte van hun verouderde ATI counterparts, met mindere prestaties per watt en euro.. Het wordt tijd dat men hun 80 jarige ontwerpers eens eruit schopt, en een troep jonge jaaghonden ervoor in de plaats zet; wellicht dat deze wel met de tijd mee gaan...

[Reactie gewijzigd door Hammer op 5 mei 2010 09:27]

Inderdaad, NVIDIA betaalt me om hele dagen op tweakers rond te hangen om een positieve draai te geven aan NV nieuws. Ook interesse? jobs@nvidia.com ;)

Maar tja, ik zal toegeven dat ik meer NVIDIA fan ben dan AMD fan op dit moment, hoewel ik absoluut niet iets tegen heb op AMD en ik zeker onder de indruk ben van wat ze de laatste anderhalf jaar voor elkaar hebben gekregen. De reden dat ik zo vaak reageer heeft echter niet daar mee te maken maar met het feit dat ik een hekel heb aan de ongegronde onwaarheden die telkens gespuid worden in deze topics. Tweakers zonder enige verstand van zaken roepen dingen waar ze niets van af weten omdat ze het ooit ergens anders hebben gelezen waardoor geruchten een compleet eigen leven krijgen. Dit hele tesselation verhaal is een mooi voorbeeld, er is geen enkel bewijs om Charlie's geblaat over software tesselation te ondersteunen, maar toch praat iedereen hem na. Ik hoop altijd (hoewel ik bang ben dat het ijdele hoop is) dat ik een heel klein beetje bijdraag aan het stoppen van dergelijke onzingeruchten.

Dat ik bijna altijd NVIDIA moet verdedigen heeft volgens mij meer te maken met het feit dat NVIDIA hier op tweakers de grote boeman is van dit moment, want waar nieuws over NVIDIA altijd gevolgd wordt door tientallen negatieve reacties (met nogal wat onwaarheden) lijkt er bij AMD nieuws alleen felicitaties en gelukswensen te staan, "is dit niet weer geweldig van AMD" :P
Ergens geef je hem wel gelijk ;) En het is zo dat nvidia in real-life beter is met tesselation, ati heeft echter ingezien dat er maar 1,2 games zijn met die optie, en n handvol demo's, en dat hebben ze goed bekeken.
Ik houd het nog wel even vol met mijn gtx260, mocht die nieuwe 8800gt zijn verwachtingen waarmaken, dan stap ik over, ati geeft bij mij nog veel te veel driver problemen, als ze dat oplossen, kunnen ze mij tot hun vaste klantenkring rekenen, heb geen zin om 380 euro te betalen voor een kaart, waar dezelfde performance bij ati 250 euro kost :)
Ik ben erg benieuwd. De GF100 valt me erg tegen...
En in Juni is m'n huidige kaart alweer een jaar oud en dus eigenlijk wel aan vervanging toe.

iig het statement, de "nieuwe 8800GT" staat me wel aan :)
welke driver problemen van ati ga je terug naar 5 jaar geleden,was het niet nvidia die laatst met een driver uit kwam waar de fan uit ging en waardoor een hele hoop kaartjes gesneuveld en beschadigd zijn geraakt.
Alweer alles door melkaar :? Ik snap der gee nzak meer van bij hun!
Ben benieuwd hoe ze zullen presteren ! :)
gtX= gf100?
gtS = gf104?
GT= 106&108?
Er zijn claims voor de GF104 dat deze kaarten met tags GTS en GTX zal voorzien. Daarbij is op GoT al voorbij gekomen dat er een kans is dat er een GTX460 komt op basis van de GF100, terwijl de GTX465 dan weer voorzien zou worden van een GF104.

Verder zou het logisch zijn om de GF106 als GT op de markt te zetten en de GF108 als G. Maar goed, de GT214GT215 is uiteindelijk op de markt gekomen als een GT240, dus niet eens GTS, dus dat is dan ook weer niet geheel in lijn met de verwachting voor de GF104, qua plaatsing.

Met andere woorden, heel erg veel systeem lijkt er nog altijd niet in te zitten bij nVidia.
dat er een GTX460 komt op basis van de GF100, terwijl de GTX465 dan weer voorzien zou worden van een GF104
Wacht even, was het idee niet GF100: überchip, GF102: iets minder, (..), GF108: slap aftreksel...!?
Dat zou betekenen GTX460: geweldige kaart, GTX465: semi-brakke kaart... Ik weet dat nVidia een naam heeft hoog te houden met onduidelijke product-nummers, maar als ze dat flikken hebben ze zichzelf echt overtroffen... :X
GF102 is 'nowhere to be found' en zal dus waarschijnlijk nooit materialiseren.

Probleem wat vervolgens ontstaat is dat een nog verder gecastreerde GF100 waarschijnlijk gewoonweg trager zal gaan zijn dan de snelste GF104. De laatste geruchten waren dat de nieuwe kaart met een GF100 nog eens 3 extra cudaclusters uitgeschakeld heeft. Als je dat combineert met de kloksnelheden die genoemd worden, dan mag die kaart al blij zijn als deze een HD5770 bij kan houden (als je kijkt naar wat voor prestatieverlies je al hebt met slechts 1 cudacluster uitgeschakeld, bij de GTX470 vs de GTX480).

Natuurlijk zijn dit boven alles niets dan de laatste geruchten, maar de tijd zal ons moeten leren wat er werkelijk waar van is.
Hopelijk voor Nv positioneren ze de GTX460 tegenover de HD5770/5830 met een prijs van max 200-225. Nog beter, gelijk ook een revisie/aangepast pcb om het stroomverbruik te temperen en zo nog een voet aan wal te krijgen in dit populaire segment. De uiteindelijke winnaar wordt de consument.
gelijk ook een revisie/aangepast pcb om het stroomverbruik te temperen
Op het moment moet nVidia het voor dik 99% hebben van zijn naamsbekendheid en merktrouwe consumenten; op technisch vlak kunnen ze totaal niet op tegen AMD. Eén van de grootste problemen is juist dat stroomverbruik. Dacht je nou echt dat als het alleen een kwestie was van even een nieuw PCBtje te ontwerpen dat ze dat niet allang gedaan hadden?
De uiteindelijke winnaar wordt de consument.
De consument heeft baat bij concurrentie; waarin het in sommige situaties beter is om een nVidia-kaart te kopen terwijl in andere segmenten ATI net iets beter is. Als het nek-aan-nek ligt en ze elkaar flink beconcurreren. In de huidige situatie, waar ATI zelfs ietsje speelruimte heeft om de prijzen wat hoger te leggen / laten dan ze eigenlijk van plan waren omdat nVidia ze toch niks kan maken wint de consument juist niet.
Okee, met de blik op de lange termijn kan het geen kwaad dat ATI wat meer geld binnen kan halen, maar als nVidia de volgende generatie ook niet meekomt (of, het niet lang genoeg kan uitzingen op zijn huidige reserves / niet genoeg nieuwe leningen kan krijgen) dan hebben we straks een situatie waar ATI een monopolie heeft op discrete grakas. Hoewel ik het beste met ze voorheb lijkt me dat toch ook weer niet wenselijk (want: nul concurrentie).
Hopelijk gaan al die kaartjes CS5 ondersteuning bieden zodat je niet een dure FX kaart van 1000+ euro hoeft aan te schaffen.
CS5 ondersteunt toch CUDA die o.a. op de GTX275 en GTX285 terug te vinden is? Die kaarten kosten geen 1000+ euro tenminste.
Sinds de 8 serie ondersteuenen nvidia kaarten cuda om precies te zijn. (volgens mij alleen de 8800 kaarten van de 8 serie, er waren in iedergeval wel een aantal eisen. )
Is het niet gewoon weer stiekem een gerebrande 8800?
Nee, het zijn chips met een 'nieuw' ontwerp, afgeleid van de huidige high-end.
We wachten de benchmarks wel af, dan zien we het wel. :')
Een goedkoop kaartje met toch wel wat prestaties als ik dit zo lees. natuurlijk niet geschikt om te gamen...

[Reactie gewijzigd door eagle00789 op 4 mei 2010 15:30]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True