Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties

Jen-Hsun Huang, ceo van Nvidia, heeft bij een toelichting op de kwartaalcijfers laten weten dat videokaarten op basis van de Fermi-architectuur pas in het tweede kwartaal van 2010 volop te koop zullen zijn.

Jen-Hsun HuangVideokaartenfabrikant Nvidia is officieel nog steeds van plan om de GTX 470 en de GTX 480 in het eerste kwartaal van 2010 uit te brengen. Tijdens de toelichting op de gisteren vrijgegeven kwartaalresultaten liet Jen-Hsun Huang echter weten dat hij verwacht dat deze en andere videokaarten die op de Fermi-architectuur zijn gebaseerd, pas in het tweede kwartaal van Nvidia's fiscale jaar een rol zullen spelen. Dat wil zeggen dat de kaarten op zijn vroegst vanaf mei volop verkrijgbaar zijn. De productie van dergelijke gpu's zou nu pas op stoom komen.

De ceo doelde op zowel Geforce-producten als Quadro- en Tesla-kaarten. Hij wilde verder alleen kwijt dat er videokaarten in verschillende prijssegmenten zullen verschijnen. Het blijft daarmee nog maar de vraag of er naast de GTX 470 en GTX 480 ook Fermi-videokaarten voor het mainstream- en budgetsegment zullen verschijnen.

Moderatie-faq Wijzig weergave

Reacties (75)

Bah ze laten alvast op zich wachten.
Niet dat de kaarten van ATI zo goed leverbaar zijn.
Maar kom ik vraag mij af of ze zich dan totaal niet druk maken over het marktaandeel van ATI.
Dat doen ze volgens mij wel, maar er waren zoveel problemen met deze chip dat hij keer op keer uitgesteld moest worden. Daar komt nog eens bij dat ze dezelfde 40nm problemen hadden als ATi.
Nee, ze hebben veel meer problemen met 40nm dan Ati. Ati heeft de HD4770 al een lange tijd geleden gemaakt om te kijken waar de problemen zaten met TSMC's 40nm-proces, ze zijn toen nogal wat problemen tegen gekomen en hebben er lang over gedaan om de oplossing nog te kunnen verwerken in de HD5000's. NVidia was nog een stukje later met zijn 40nm-proefkaarten, en heeft in de productie van fermi minder zelf een oplossing aangedragen, dan dat ze tegen TSMC hebben gezegd "je lost het maar op". Leuk, maar als TSMC daartoe niet in staat is kan je klagen wat je wilt, maar is fermi dus gewoon niet te doen. Het is inmiddels te laat voor een nieuw ontwerp (dan kunnen ze beter wachten op fermi 2) dus we zullen moeten hopen dat TSMC inderdaad zijn proces weet te verbeteren. Gebeurt dat niet, dan zal het misschien nooit echt massaproductie worden... Het is sowieso naief om er vanuit te gaan dat ze deze monsterchip vanaf een bepaald moment ineens heel snel en met hoge yields kunnen produceren, en dat is wel nodig voor succesvolle leverbaarheid.

Meer info in dit artikel. Ja, het is van Charlie en die is anti-NVidia, maar verwar zijn toon niet met de feiten die hij noemt, die zijn vaak best accuraat. Misschien overdrijft hij maar dan nog gaat het zeker niet goed met meneer fermi.

[Reactie gewijzigd door bwerg op 19 februari 2010 12:07]

Dude. AMD en NVIDIA hebben gewoon dezelfde problemen. Het verschil is dat AMD hun die veel kleiner is en je bijgevolg veel minder last hebt van die productiefouten.
Ze moeten beide wachten op hun bakker tot ze grotere aantallen kunnen krijgen voor lagere prijzen. En dat TSMC betere productie gaat krijgen is gewoon een feit.
Dude, als je niet weet waar je over lult, ziet het er een heel stuk intelligenter uit als je gewoon je mond houd.

Lees dit artikel "The RV870 Story: AMD Showing up to the Fight" maar eens van Anandtech over de ontwikkeling van de RV870 aka Cypress, daar laat de hoofd ingenieurs van ATi een kijkje in de keuken zien van de ontwikkeling van een huidige GPU,

En hoe zij bijna de zelfde fout maakte als nVidia om een te grote GPU temaken, ook heeft ATi veel meer ingenieurs die gespecialiseerd zijn in nieuwe processen dan NV, het is dus niet raar dat de ATi GPU wel naar behoren werkt en de NV niet, en waarschijnlijk ook nooit zijn geplande snelheid gaat halen.

Het maken van een te grote GPU is gewoon een ontwerp fout, je bouwt geen Ferrari (lees grote GPU) als er een grote kans is dat je er je er mee op zandpaden en B-wegen moet rijden (lees 40nm TSMC proces)

En de artikelen van Charlie Demerjian, zijn elke keer spot-on alleen jammer dat hij zich elke keer verlaagt tot het gooien van modder naar NV, zo dat veel mensen zijn artikelen niet serieus nemen, maar als je zijn artikelen van een jaar gelden leest zie je dat AL zijn voorspelingen zijn uit gekomen

[Reactie gewijzigd door player-x op 19 februari 2010 17:23]

Nou.... Er zijn anders voldoende vreemde problemen te vinden met NIEUWE 5xxx series van Ati. Deze problemen zijn zoo groot dat ik nog ff wacht, anders had ik er "allang" 1tje gehad.

[Reactie gewijzigd door mstreurman op 20 februari 2010 11:21]

Dat ligt er aan wat je als "problemen" ziet. De lange wacht tijd op de kaart? Dit is inmiddels al weer zo goed als geheel op gang gekomen. Sommige mensen hebben een grijs scherm of strepen ervaren op de HD57** en HD58** icm 10.1 of oudere drivers. Met de net uitgebrachte 10.2 drivers hebben nu ook die mensen (bij iedereen die ik ken die deze problemen had) geen last meet van dit "defect". Het zat hem dus in een fout in de driver (waarschijnlijk) welke de nieuwe power saving options van de HD5000 series niet goed aanstuurde. Mochten mensen nog problemen hebben na de upgrade van 10.1 naar 10.2 doen deze er verstandig aan 10.1 te uninstallen en nog even goed na te cleanen met een driver cleaner alvorens ze 10.2 installeren.

Voor de rest zijn er zo ver ik lees en hoor niet tot nauwelijks problemen met de HD5000 serie. Heb zelf ook een aantal in mijn bezit en moet zeggen dat het zeer fijne kaartjes zijn. Zijn stil, worden niet erg warm onder volle belasting, vermorzellen alle games die tot nu toe uitgebracht zijn. En naar de planning kijkend voor nieuwe ATi drivers gaan we er nog wat leuke features bij krijgen.

Dus de problemen zijn "zoo groot" valt echt enorm mee. Wat je vaak leest op verschillende fora zijn voornamelijk de mensen die dus problemen met een product gehad hebben. Mensen die positieve ervaringen delen kom je gewoon een stuk minder tegen.
Ik vind het gooien van modder richting Nvidia nog wel meevallen, als je ziet hoe ze om zijn gegaan met bumpgate dan zijn de reacties van charlie zeker terecht.
Dude... als jij het artikel even leest, dan weet je dat AMD een aantal oplossingen in hun kaarten ingebakken hebben die specifiek bedoelt zijn om de problemen met 40nm op te lossen. Daarover is ook een heel goed artikel verschenen bij Anandtech (zie http://www.anandtech.com/video/showdoc.aspx?i=3740). AMD heeft z'n zaakjes gewoon een stuk beter voor elkaar dan nVidia.

Natuurlijk helpt het dat de chip van AMD kleiner is. Dat is echter niet het gehele verhaal, AMD heeft z'n chip ook beter aangepast aan TMSC's 40nm proces.
En dat TSMC betere productie gaat krijgen is gewoon een feit.
Nou, leg dat eens uit. Als je ontwerp gewoon niet geschikt is voor TSMC's 40nm (daar zijn nogal wat problemen mee) zal er toch echt een wonder moeten gebeuren om de yields ineens omhoog te krijgen. Of TSMC's productieproces moet beter (is maar gokken of dat gebeurt, in ieder geval op de korte termijn), of NVidia moet zijn ontwerp wijzigen wat te lang duurt, dan komt fermi misschien pas in 2012...
Ik snap niet dat je geen toelichting geeft. Dat degradeert je reactie tot waardeloos.

Daarom voeg ik nog toe aan mijn post:
Ja, het is van Charlie en die is anti-NVidia, maar verwar zijn toon niet met de feiten die hij noemt, die zijn vaak best accuraat. Misschien overdrijft hij maar dan nog gaat het zeker niet goed met meneer fermi.
Weerleg dat of ga in op de inhoud. Charlie heeft het laatste half jaar steeds bij het juiste eind gehad als het om fermi en evergreen ging dus waarom die bron niet valide is is mij een raadsel. Als je zelf wel weet hoe het precies zit met de huidige yields lees ik dat graag. Honderd keer liever Charlie dan wat de PR van NVidia vertelt want hun releasedates en beloftes zijn ze afgelopen tijd totaal niet nagekomen. Het is echt niet voor de lol dat ze hun nieuwe serie meer dan een half jaar vertragen. Als NVidia zelf al zegt dat het mei wordt, wordt het misschien in Q3 dat de kaarten een beetje leverbaar worden, in het gunstigste geval.

[Reactie gewijzigd door bwerg op 19 februari 2010 15:06]

Omdat hij al jaren bij iedere nieuwe kaart van Nvidia problemen voorspelt. Uit eindelijk heb je dan een keer gelijk ja. Verder zal Charlie al het nieuws zo negatief mogelijk uitleggen, zoals je zelf ook een beetje doet met je Q3 voorspelling.

Het is jammer voor Nvidia dat het zo moeilijk gaat maar shit happens.
Over het algemeen zegt het gelukkig weinig over de volgende generatie omdat die weer door een ander team wordt ontwikkeld. Grote kans dat aan t eind van het jaar beide fabrikanten nog mooier spul op de markt brengen.
Omdat hij al jaren bij iedere nieuwe kaart van Nvidia problemen voorspelt. Uit eindelijk heb je dan een keer gelijk ja.
En toch komt hij de laatste tijd wel vaak met nieuwe info die achteraf goed blijkt te kloppen rondom fermi. En dan heb ik het niet over dat hij het toevallig een paar keer goed heeft gehad. Als je betere informatie hebt waarmee je kan concluderen dat Charlie's info niet klopt ben ik benieuwd.
Verder zal Charlie al het nieuws zo negatief mogelijk uitleggen
Dat zeg ik: prik door zijn toon heen en kijk naar de informatie. Ik trek me ook niks aan van zijn gebash. Enkel en zonder onderbouwing zeggen dat NVidia het allemaal kut doet is net zo nutteloos als enkel en zonder onderbouwing zeggen dat Charlie het kut doet.
zoals je zelf ook een beetje doet met je Q3 voorspelling.
NVidia zelf geeft zelfs aan dat ze halverwege Q2 pas beginnen met leveren (op zijn vroegst, zeggen ze zelf!), verwacht je serieus dat ze binnen een maand een goed leverbaar product hebben, terwijl Ati het een half jaar kostte met een veel gemakkelijker produceerbare chip? Q3 is helemaal geen negatieve uitleg, dat is juist het meest gunstige scenario (en met bovenstaande redenering zelfs erg optimistisch)! Ik bekijk het helemaal niet te negatief. Jij bekijkt het veel te positief want goede leverbaarheid in Q2 heeft met de feiten die nu bekend zijn gewoon nul komma nul kans. Leuk dat Charlie een negatieve toon heeft, als het gewoon kut gaat met NVidia is negatieve informatie geloofwaardiger dan een onrealistische positieve. Dat is het afgelopen half jaar wel gebleken, al het optimistische nieuws in die tijd bleek fout, en NVidia heeft nog helemaal niks over de specs of prestaties kunnen zeggen, het enige wat steeds bekend werd is dat 'ie geweldig gaat zijn, dat ze geen concrete benchmarks of demo's kunnen laten zien (wat hebben ze te verbergen?) en dat hij (al een keer of vier) vertraagd is. Nou vind je het gek als ik niet positief ben over fermi? In plaats dat dat je zegt "pfff, Q3 wat ben je weer negatief" geef zelf eens een goede schatting over wanneer jij de releasedatum en de goede leverbaarheid ziet, met daarin de feiten die nu bekend zijn (TSMC heeft nog geen goede yields met fermi, volgen de CEO van NVidia pas een Q2-release op zijn vroegst). Knap als je daarmee voor Q3 uitkomt.

[Reactie gewijzigd door bwerg op 19 februari 2010 23:41]

NVidia zelf geeft zelfs aan dat ze halverwege Q2 pas beginnen met leveren (op zijn vroegst, zeggen ze zelf!)
Misschien dat je over een woordje heen gelezen hebt maar er staat toch echt:
pas in het tweede kwartaal van 2010 volop te koop zullen zijn
Men zegt dus dat de kaarten in het begin niet zo goed leverbaar zullen zijn, net zoals ATI nog worstelt met hun 57xx en 58xx. En pas vanaf Q2 VOLOP leverbaar zullen zijn.
Dit is dus precies wat ik bedoelde met dingen negatief uitleggen.

Vandaag is het ook nog eens bevestigd:
nieuws: Nvidia introduceert GTX 470 en 480 eind maart
Zie http://www.anandtech.com/video/showdoc.aspx?i=3740&p=9

Samengevat: ATI/AMD koos voor een compleet andere strategie dan Nvidia.

Nvidia ging met Fermi naar nog groter en krachtiger, gecombineerd met de overstap naar TSMC's 40 nm procesgrootte. ATI daarintegen ging voor minder groei in transistor-count wat een veel flexibeler inzetbaar ontwerp opleverde.
Volgens mij zijn ze nu toch beter beschikbaar als in september tot en met december
Maar kom ik vraag mij af of ze zich dan totaal niet druk maken over het marktaandeel van ATI.
De snelste Nvidia kaart GTX285 is veel duurder om te maken dan de 5870 en flink langzamer. Dus Nvidia had de keuze tussen verlies maken op de kaart of gewoon niks uitbrengen. Nvidia had ook de keuze tussen GTX285 aanpassen en updaten voor DX11 en GDDR5 of een nieuwe architectuur die veel beter maar veel complexer is.
Helaas betekend dit wel dat ze er ongeveer 9 maanden langer deden over hun nieuwe ontwerp.
Jammer, de competitie voor ATI kaarten blijft hiermee een beetje uit waardoor prijzen langer hoog aan zullen blijven.

"Dat wil zeggen dat de kaarten op zijn vroegst vanaf mei volop verkrijgbaar zijn."
Laten we dat dan in ieder geval hopen, meestal duurt het toch nog wel even voordat de stroom van dit soort nieuwe kaarten echt goed op gang komt.

Het worden in ieder geval wel mooie kaartjes die fermi-kaarten :).
Het is echt nog maar de vraag of het 'mooie kaartjes' worden.
Ook als je de yield (en prijs) buiten beschouwing laat heeft Fermi nogal wat problemen (zoals het artikel dat bwerg linkt je vertelt).
De die size is eik te groot en de stroom consumptie ook. Daarnaast is het maar de vraag of er snel stabiele drivers zullen zijn, aangezien het onwerp zo anders dan anders is.

Het kan allemaal dus hard falen omdat NVidia misshien een te progressief design te vroeg probeert te realiseren. Dit is echter altijd het geval me nieuwe technolgieen en het valt toe te juigen dat NVidia de gok neemt.
Mwoah... nVidia is al jaren met niets nieuws gekomen op gpu gebied. Sinds de 8800 is er feitelijk weinig veranderd. Je zou dus kunnen zeggen dat nVidia momenteel gedwongen wordt door de concurrentie om de overstap naar 40nm, naar GDDR5 geheugen en een nieuwe architectuur te maken.

Als er iemand toegejuichd moet worden vanwege gedurfde stappen, dan is het de laatste 1.5 jaar zeker AMD geweest als je het mij vraagt.
Zoals ik het heb begrepen zal Fermi de eerste echte mainstream GPGPU ontwerp zijn.
De concurrentie (Intel Larrabee, AMD Fusion) is nog lang niet aan productie toe.
Hiermee loopt NVidia wel degelijk voor. Of het een goede comerciele keuze was om zo vroeg al (sinds de 8800 zoals jij zegt) alle resources op Fermi te zetten is wel de vraag.
en daar zitten wij als consument al tijden op te wachten?
Nvidia is begonnen met CUDA, voordat dingen als DirectX Direct Compute en ATI's initiatief er waren. Ook hebben ze 3D support als eerste met 3D Vision en 3D Vision Discover. Dit heeft ATI nog niet eens. Ook hebben ze ION, ION2 en HybridPower bedacht.
Wat wil je nog meer dat ze bedenken?
Dit heeft ATI nog niet eens.
Nee, nogal logisch dat ze die dingen niet hebben want daar heeft NVidia patent op en die geven ze niet zomaar vrij. Allebei de bedrijven bedenken features die de ander dan logischerwijs niet kan gebruiken. Overigens is ION 2 niet bepaald noemenswaardig, het is gewoon een low-end videokaart. :+ (ze hebben geen toestemming meer om chipsets te maken) Zo kun je ook wel zaken als multi-monitor display noemen, "die heeft NVidia nog niet eens".

Ik zeg niet dat NVidia in zijn geschiedenis niet innovatief genoeg is geweest, maar de vraag "en daar zitten wij als consument op te wachten?" is wel terecht. Consumenten kopen daar niks voor en supercomputer-achtige zaken moet ik ook nog maar zien, de grootste GPU-supercomputer gebruikt radeons omdat die veel betere DP-performance hebben. Opzich heeft het wel potentie hoor, maar het succes van GPGPU moet eerst nog maar eens bewezen worden.

[Reactie gewijzigd door bwerg op 19 februari 2010 23:42]

nV is begonnen met Cuda tuurlijk this van nv dus die begonnen er ooit mee.
Maar this een van de nieuwste Shader C like taaltjes. En hulp lib's en tools.
nV maakt daar veel werk van. Spendeerd daar aardig wat company resources op. Dus dat is wel goed uitgewerkt en zwaar gemarket. Meer high profile. Dus zeer bekend. Zelfs bij jan met de pet. Kent de kreet. Waar het meer Mythisch is.

This MS en OpenGL consortium die het eerste waren met shader code. HSML en openGL tegen hanger. nV uiteraard eigenzinnig en kwam met Cg. ATI was al bezig met R520 dus ook eigenzinnig bezig maar niet met die grote market voetprint als nV die eigenlijk later kwam.

Dus ergens is shader code van shader assembler naar iets C like taaltje gegaan.

HSML
ATI C taatjes bookttree " rendermonkey tool" etc
Steam compute AMD nieuwste( "naam")
Cg nV HSML tegenhanger, en met zekerheid een C taaltje.
Cuda, Cg evolutie, dito dus
Compute shaders HSML evolutie
OpenCL, MS DX11 CS tegen hanger

Dus Cuda is geen innovatie, niks nieuws in deze industre, maar een kreet voor C like iets wat giganties ook naar consumenten toe gemarket is. Als het 8ste wereld wonder. Wat nV met meer van hun kreten doen. Het is een door ontwikkeling.
Geen hond boeid ATI charisma engine maar nV infinitFX werd hoger gewaardeerd? This een marketing woord. En nV doet dit met zowat alles. En er is bij hun veel gevolg.
Daarnaast is ATI en nV eigenzinige oplossing kut want het verdeeld de dev wereld alleen maar waardoor de dev wereld juist de mogelijkheden van GPGPU in games laten liggen. Mainstream target. Wat gemneenschappelijk is zal snel gebruikt worden. GPGPU is dat niet dus mainstream CPU

Want je kan wel de game spect voor GPU verhogen zodat je leuke effect physics kan doen optioneel. Maar voor niet cuda merken zoals iNtel AMDTI S3 moet je terugvallen op mainstream CPU. En dat limiteerd de gameplay Physics. Want dit verschil is zo groot. Dat de default Physics gelimiteerd is aan een Dual core. (Ci7 is geen mainstream quadcore begint opt te komen als high mainstream)

'n standaard zoals Compute shaders en OpenCL voor dev's populaire middleware zoals Havok en PhysX zou 'n grotere Physics revolutie voor game betekenen als iNtel en nV en ageia geen owner van die middleware waren.
We hadden dan al HavokFX. ipv PhysX voor merk onafhankelijke GPGPU gebruik in games.

Zoiets als Warmonger gameplay physics feature set zou dan veel toegankelijker zijn en de spects moeten voor GPU iets hoger zijn. Dus de gameplay physics kan dan CPU mainstream onsteigen voor default minimum Physics load. Zolang je meer dan redelijke GPU gebruikt

Jammer de markt is crippled door iNtel -> Havok en nV -> PhysX. Met Cuda nV GPU only. Zijn GPGPU gebruikende PhysX games vooral gelimiteerd aan effect physics.
En iNtel killed GPGPU uit Havok.

En het hele irritantste aan deze game innovatie remming, is wel dat OpenCL juist een voor GPGPU gestandaardiseerde form van CUDA is. Porten van PhysX Cuda naar PhysX OpenCL is dus relatief eenvoudig.

Dus ATI/AMD heeft zoiets als cuda al veel langer. Maar kwa markt werking heeft nV hun op dat gebied ingehaald. Maar ondanks PhysX stagneerd dat juist meer de game markt op Physics gebied dan dat het helpt. Voor de Tegra markt lopen ze wel voor.

Compute shaders en OpenCL invloed is beperkt doordat belangrijke Gamedev middle ware zoals Havok en PhysX juist hun eigen hardware willen voortrekken en dus hun eigen ding blijven gebruiken.

Ik hoop dat 3D gedoe ook een standaard wordt. Ander heb ik een shutter glass voor nV en een voor ATI nodig.

En eigenlijk ben ik meer pissoff op iNtel voor HavokFX killen. Wat directe aanleiding is voor nV om physX in te lijven als antwoord op die hostile take over.

Dus d'r is zoiets als
1 ) AMD GPU vs nV GPU
2 ) Maar ook iNtel CPU vs nV GPGPU en AMD CPU+GPU daar tussen in.

Wat zou iNtel met Larrabee doen. Havok LRB GPPGU only?
Omdat LRB achterloop geld situatie 1. Maar indien wel dan situatie 2. Tja en dan heeft nV AMD nodig. Nu nog niet. En kan nV Cuda PhysX gebruiken om hun GPU te pushen in deze tijd van achterstand .
Als NVIDIA volgens jou met niets nieuws is gekomen is AMD ook met niets nieuws gekomen sinds R600. Beiden hebben verschillende aanpassingen aan hun ontwerp gemaakt in de opvolgende generaties. RV670 was een minor verbetering van R600, G92 was een minor verbetering van G80. RV770 en RV870 hebben beiden wel wat architecturele veranderingen gezien, maar niets wereldschokkends, terwijl NVIDIA in de tussentijd maar 1 nieuw ontwerp (G200) heeft gebracht, maar waar weer meer nieuwigheden in zaten.

Ja, je kunt absoluut zeggen dat NVIDIA met niets nieuws is gekomen, maar je kunt niet tegelijkertijd zeggen dat AMD wel aan het vernieuwen is geweest.
wat een kul.

DX 10.1/DX11 zijn best wel vernieuwend imho
Ja, want er zijn zoveel titels die het gebruiken ;)
Ja, want er zijn zoveel titels die het gebruiken
Ik denk dat je oorzaak en gevolg door elkaar haalt. DX10.1 zorgde ervoor dat veel DX10 effecten minstens 2x zo snel werden en DX10 was al efficienter dan DX9. DX11 doet hetzelfde maar voegt ook aantal nieuwe effecten toe die alles veel makkelijker maken.

Als Nvidia en Ati tegelijkertijd met 10.1 kaarten waren gekomen dan was adoptie van DX10 en 10.1 veel sneller gegaan. En Nvidia houd nu weer de vooruitgang tegen door geen DX11 kaarten te bieden.
Inplaats daarvan naait Nvidia 50% van hun potentiele klanten door games zoals Batman lelijker te maken als je een Ati kaart hebt.
Ja Game ontwikkelen duur lang. Dus eerst de API en later de games. Eerst de kip zodat er eieren kunnen komen. Dus DX11 is heel belangrijk. zodat de komende 4 7 jaren games verijkt worden met nieuwe features. Wat in die tijd dan de gewoonste zaak van de wereld is. En er komt een tijd dat DX9 wordt overgelagen en games vanaf DX10 ondersteunen. Dat is de cyclus.

Dus het is normaal dat voor DX2 DX5 DX 6 DX 7 DX8 DX9 DX10 DX 11 amper games op release zijn. Dat is normaal. Die komen met de tijd. Games ondersteuen 2 tot 4 API om de mainstream te beslaan. Optioneel de nieuwste. Of gelijkende OpenGL API's + Extentions.

Anders zaten we nog aan WinG. met zo'n atitude.

AMD en nV kunnen niet om API makers en Gamedev's heen. Het is de triangle van afhankelijkheid. Hoe GPU Software en API tot stand komen.

API en Hardware en software firma's werken door die afhankelijkheid samen om tot nieuwe standaarden te komen.

Dus MS + OpenGL vs AMD nV iNtel vs Top Gamedevs met als resultaat nextgen GPU API en games.

Doe je als GPU vendor Minder dan breng je de evolutie naar beneden. G80 G92 G200.
Zo ook nV brakke early Vista driver support. Dx10 verzwakken door te veel optioneel te maken en eisen aan MS. Die even DX10 API aanpast aan nV nukken. DX10.1 laten liggen. Wat deels oorspronkelijke dX10 is. Maar te veel is ook zinloos. ATI retail GPU DX9 met testalation. Wordt amper gebruikt.
Door nV deels DX10 en links laten liggen van dX10.1 vald dat ook buiten de boot.

D'r komen DX11 titles en zodra nV ook eindelijk een full line up heeft 2011 dan zullen die dx11 eitjes in grotere getalen komen.

Gamers denken op korte ternijn. API is langetermijn.

Als ik nu een game concept ga maken dan komt het gamepje pas ergens in 2012->
Dan kies ik nu voor DX11. Met DX10.1 als noodloop.

Als gamer kijk ik naar een leuke DX titel. En koop dan een HD5870, zo'n custom model. Als zo'n game er voor mij interrest uit gekomen is.
Ik heb het over architecturele veranderingen, niet over checkbox features. DX11 toevoegen aan een moderne SIMD gebaseerde DX10 GPU kost maar een aantal kleinere aanpassingen op specifieke punten. Het basisontwerp hoeft niet aangepast te worden.
Die prijzen gaan alleen omlaag als fermi ook echt concurrerend wordt neergezet qua prestaties en prijs en die zijn beiden nog niet bekend. Als de geruchten waar zijn dat de clocks te laag zijn en de productiekosten te hoog dan hoeven de prijzen van de radeons helemaal niet omlaag om competitief te blijven.

@onder: ik bedoel de prijzen van de radeons, die zullen niet omlaag hoeven als fermi niet mee weet te komen.

[Reactie gewijzigd door bwerg op 19 februari 2010 12:23]

Gaan ze niet juist omhoog als de kaarten concurrerend worden neergezet? Als ze slechter presteren wil niemand ze, tenzij ze goedkoper zijn toch?
En de GTS/X 420, 430, 450, en 460 dan? Die komen dus gewoon een jaar later dan de ATI Radeon 5000 reeks. En dan heeft ATI weer een voorsprong, want ik vermoed dat de 6000 reeks begin 2011 er al wel is.

De concurrentie is er waarschijnlijk wel (vermoed dat nVidia ATI wegblaast), alleen op het verkeerde moment. ATI en nVidia moeten in dezelfde kwartaal hun producten uitbrengen. Zo worden ze tenminste gedwongen met prijzen te spelen.
de fermi zal sneller zijn als de hd5870, maar niet zo veel sneller dat het de veel hogere productie kosten zal kunnen rechtvaardigen.
en de hd5970 inhalen kunnen ze ook wel vergeten.

dus wegblazen is rijkelijk overdreven.

[Reactie gewijzigd door Countess op 19 februari 2010 14:57]

daarbij komt nog dat ATi al 6 maanden gelden zijn kaart heeft uigebracht en "binnekort" met nieuwe kaarten komt.
source er is nog helemaal geen bench bekend...
goed het is meer een educated guess van mij en andere.

maar daar heb ik wel een onderbouwing voor.
40% meer transistors als de chip van ATI, maar wel een lagere kloksnelheid.
veel van die transistors zijn disabled omdat er geen versies uit gaan komen met de volle hoeveelheid core die er op de chip aanwezig zijn(yield en verbruiks problemen)

in de vorige 2 generaties wist ATI meer (FPS) snelheid per transistors uit hun GPUs te halen als nvidia(met een redelijke marge zelfs), en er is te weinig aan fermi veranderd om dat te veranderen.
in tegendeel zelfs er zijn nog meer transistors ingestopt die niks doen om de FPS te verhogen, en alleen nodig zijn voor GPGPU.

er passen zo'n 55% minder fermi cores op een wafer als r870's en daar komt het moeizame 40nm process van TSMC bij, wat extra nadelig is voor grote chips, en fermi is de grootste chip(in transistors hoeveelheid) ooit gemaakt met een bulk proces, dus de yields van die 55% minder chips zijn ook lager als bij ATI.

in het kort die 40% meer transistors kost nvidia een flink stuk meer als 40% extra per chip, maar levert ze minder als 40% extra snelheid op ivm ATI.

op GPGU gebeid zal fermi zeker een uitblinker worden maar niet als FPS kaart. maar als je daar naar opzoek bent verwacht ik dat larrabee als GPGPU nog veel beter dienst zal kunnen doen (en als gamekaart nog meer een flater slaat)

[Reactie gewijzigd door Countess op 20 februari 2010 19:01]

Hoe kan het nu dat Nvidia, ATi "wegblaast" als Nvidia de concurrerende kaarten pas uitbrengt op het moment dat ATi al bijna weer aan zijn volgende serie toe is? Die vat ik niet helemaal.
Goed nieuws voor ATI / AMD, en ook wel verdiend denk ik.

Kijk maar eens in de pricewatch: de 20+ populairste kaarten zijn allemaal ATI. Binnen een half jaar domineren ze de entry, main en highend segmenten. Enige minpuntje zijn de prijzen en beschikbaarheid; maar eerlijk gezegd valt een HD5850 voor 230 euro best mee alsje kijkt wat de concurrentie te bieden heeft.

Afgezien van de leveringsproblemen liggen ze mijlenver voor op Nvidia. En ik moet nog maar eens zien of Fermi een succes wordt; ik heb het zware vermoeden dat hij vies tegenvalt qua prijs en prestatie.

Nvidia heeft het een beetje laten versloffen. De G200 was te complex en te duur, de G200b was beter maar nog steeds te duur; vermoedelijk ook de reden dat er geen enkele G200b meer te koop is. Ook alle problemen met het overlijden van G80/G92 kaarten zet je te denken. Afgezien het feit dat ik erg tevreden ben met mijn GTX285 (niet eens zoveel langzamer als een HD5870), het volgende kaartje wordt zeker weer een ATI.
De g92-kaarten overleden niet massaal. Dat is naar mijn mening dan ook de beste chip van NVidia op dit moment (dus niet alleen qua prestaties, maar ook qua produceerbaarheid en prijs). Jammer voor ze dat de g92 oud begint te worden en nog enkel nog een beetje in de mid-range mee kan komen, voor hogere segmenten heeft NVidia helemaal geen praktische chips en dat is niets voor het bedrijf dat zo'n topper is in de grafische markt. Ach ja, NVidia heeft ook jaren gehad dat ze de markt domineerden in het high-end segment en Ati alleen was voor alternatieve mid-range kaartjes, die rol is nu omgekeerd. Hopelijk is de markt mooi 50/50 als NVidia weer terugkomt, beter kan het voor de concurrentie niet zijn.
Enige minpuntje zijn de prijzen en beschikbaarheid; maar eerlijk gezegd valt een HD5850 voor 230 euro best mee alsje kijkt wat de concurrentie te bieden heeft.
Bekijk het positief. Als ATI geen nieuwe generatie had uitgebracht, dan had nVidia nog 300e euro voor een GTX285 gevraagd. De 5850 is een aardig stukje sneller, en kost ook nog eens minder.

Maar toegegeven, jammer dat de introductie prijzen niet zijn behouden door de enorme vraag en het kleine aanbod.
vanaf mei pas? pff.. dat valt me extreem zwaar tegen.. ik dacht dat het eind maart oid werd..
Maar volop verkrijgbaar daar heb ik zelf ook me twijfels over eerlijk gezegd.. atleast dat gaat rond op het GOT forum..
En wederom geen enkele duidelijke informatie over de kaarten onder hun * high end lijn* ik begrijp er helemaal niets meer van.. daar valt toch je meeste geld in te verdienen.. ik zou zorgen dat die lijnen zo zsm op de markt komen maar goed zo denk ik er over..
Het komt op mij over alsof men niets geeft om de mensen die tussen de 100 tot 200 euro willen uit geven daar bij NVIDIA.. misschien is dit onjuist maar dit gevoel krijg ik onderhand wel..

Nee ik heb nu zoiets van moeten we weer langer wachten? ATI heeft dadelijk hun nieuwe lijn al weer uit bij wijze van.. ik vind het gewoon erg slecht nieuws om dit te moeten lezen
Niet omdat ik het ATI niet gun want ik gun het ze van harte maar wat meer concurrentie had ik graag eerder gezien dan 6 a 8 maanden maanden na introductie van de lijn van ATI..
Het word voor mij dus ondoenelijk om wederom langer te wachten tot hun mid range lineup en dan doel ik vooral op de tegenhangers van de 5770 tot 5850 er zijn
Helaas geen NVIDIA deze keer want veel vertrouwen heb ik niet na elke keer dit soort berichten.. wie weet word het dadelijk weer langer uitgesteld.. :'(

En de berichten die we allemaal lezen op oa GOT en andere fora/sites is dat het dus maar de vraag is of de eerste generatie Fermi gebaseerde kaarten wel je van het worden.. of dat er zo veel problemen zijn dat men paar maanden erna de 2e generatie wil uitbrengen..
Als dit zo is dan is het onverstandig denk ik om een Fermi direct te kopen maar ja..
Ik mag hopen voor ze dat deze weg die ze in zijn geslagen een goed einde heeft en dat de mensen die wel netjes op NVIDIA wachten worden beloont maar een goed gevoel heb ik er niet bij.. het zou allemaal nog wel eens kunnen tegenvallen

Edit:

Dit stuk valt bij mij ook niet echt goed

Nvidia’s chief executive officer did not provide any concrete timeframes for the transition of the whole lineup to the new Fermi architecture, but said that since the owners of mainstream and entry-level graphics cards hardly demand new functionality, it is not crucial for Nvidia to update currently available “fabulous” graphics chips. In addition, the speed of the transition depends on the supply of 40nm chips by TSMC.

Bron

http://www.xbitlabs.com/n...uarter_CEO_of_Nvidia.html

Oftewel,

Heb ik als persoon die midrange kaarten aanschaft geen baat bij nieuwe features en meer functies.. blijkbaar niet volgens de beste NVIDIA man..
Als ze er zo over denken zal men mijn geld iig niet meer gaan zien

[Reactie gewijzigd door pino85 op 19 februari 2010 14:39]

Tja, ergens heeft ie ook wel gelijk, als je tot 1920x1080 gaat als resolutie zijn kaarten zoals een GTX 275 of 285 snel genoeg eigenlijk.

owners of mainstream and entry-level graphics cards

Oftewel mensen die niet alles met 16xAA en AF spelen, wat wel klopt. Die mensen hebben volgens mij niet gelijk behoefte aan een enorm krachtige kaart die resoluties van 2560x1600 met 60 fps kunnen draaien.
Nieuwe chips gaat niet alleen om de resolutie, de features zijn ook wel handig. Bijv. MSAA met HDR zonder dat ze voor elke game nieuwe driver moeten maken (of geheime code in spelletjes hoeven te stoppen die ze dan weer uitzetten voor concurrenten). Tesselation is ook niet alleen maar geschikt voor de high end.

Support voor de nieuwere DirectX standaarden is gewoon handig, of je nou een top end kaart wil of niet.
er zijn bijna geen mensen die behoefte hebben aan een kaar die die reso draait omdat er bijna geenschermen voor zijn en degene die er zijn zijn niet te betalen.
ik geloof niet dat 5% van de gamers zon scherm heefd en dan is die 5% nog ruim genomen.

en die 16x aa en af heefd echt geen zin tegenwoordig als je screens vergelijkt heefd het echt compleet geen visueel effect.
Ach ja goede kwaliteit kost tijd. Maar soms worden producten wel erg vaak uitgesteld :|
Goede kwaliteit is de laatste paar jaar bij Nvidia ver te zoeken. Hiermee reverreer ik aan de produktie fouten in de G84, G86 en G92 GPU's in eerste instantie alleen de mobile varianten, maar inmiddels is duidelijk dat de 8800 desktop serie ook niet vrijgebleven is hiervan. Deze produktie fouten werden al in 2006 ontdekt, maar tot Juli 2008 hard ontkent. Hiermee zowel consument als oem partners in de koude laten staan.

En ja ik haal het weer aan, het onophoudelijk hernoemen van practice dezelfde kaarten, wat bijna tot oplichting aan toe doorgaat.

Nvidia mag vanaf nu wel heel hard aan de weg gaan timmeren om bij mij en veel andere mensen die ik ken weer enig vertrouwen terug te krijgen. Dus laat ze maar eens wat zien of ze net als de concurrentie nette kaarten voor schappelijk prijzen op de markt kunt zetten, want de ATi kaarten kun je niet echt duur noemen als je dit afzet tegen de prijzen die Nvidia altijd heeft gehanteerd, met name voor hun top kaarten.
ATi/AMD zit anders ook niet zonder problemen, bij de HD5xxx reeks is de 2D snelheid blijbkaar aan de zeer lage kant, wat blijkbaar op je windows desktop te merken is.

Tevens is volgens mij geen enkele chip meerdere keren hernoemd. Elke keer maar 1 hernoeming. Alsnog een slechte zaak, want het wordt er zou echt niet duidelijk op.

[Reactie gewijzigd door knirfie244 op 19 februari 2010 13:18]

Tevens is volgens mij geen enkele chip meerdere keren hernoemd. Elke keer maar 1 hernoeming. Alsnog een slechte zaak, want het wordt er zou echt niet duidelijk op.
Voor zover ik weet is het:

GeForce 9800 GTX+ --> GeForce GTS 150 --> GeForce GTS 240
8800GTS -> 9800GTX -> GTS250
8800GS -> 9600GSO

U riep?
De problemen bij ATi zijn nogaltijd software/drivers gerelateerd en daar wordt ook aan gewerkt om deze op te lossen. Nvidia daar in tegen ontkent gewoon bijna 2 jaar lang een produktiefout in de hardware, welke niet met software verholpen kan worden. Met andere woorden je koopt een produkt welke bijvoorbaat defect is. Het manifesteerd zich alleen pas na een jaar of anderhalf, het ligt een beetje aan hoe intensief de GPU wordt gebruikt.
ATi's drivers zijn (in windows) van hetzelfde niveau zo niet beter als die van nvidia Dat beblaas altijd over drivers. Nvidia, heeft geen release notes, geen duidelijke releases het is daar een zooitje waarbij je uberhaupt geluk hebt dat de drivers werken.

Dat komt doordat de drivers goed zijn opgezet, maar niet door wat momenteel aan het roer staat.
Leuk dat je dit zo zegt, ik wil niet teveel in een ATi <> Nvidia gevecht komen, maar zoals ik al aangaf Nvidia heeft de laatste paar jaar doodleuk onbetrouwbare hardware op de markt gezet, met een produktiefout welke niet met een driver aanpassing opgelost kan worden.

Met andere woorden Nvidia heeft bijvoorbaat defecte hardware verkocht en dit twee jaar lang verzegen, terwijl eind 2006 HP, Nvidia hier al van op de hoogte heeft gesteld. Pas in Juli 2008 hebben ze het toegegeven, maar een oplossing nooit geboden. Alleen het advies om maar GPU's van de nieuwe generatie te gebruiken, dat was op dat moment de G92, maar deze blijkt ook dezelfde problemen te kennen.

Daarnaast de bestaande hardware is niet zomaar te upgarden naar een andere GPU, neem bijvoorbeeld laptops, hier dient een geheel moederbord vervangen te worden. Eigenlijk zou Nvidia voor deze kosten op moeten draaien, nu snap ik dat dit hun ondergang zal betekenen, maar ze nemen nu helemaal geen verantwoording.

Maar ik zie dat ik in herhaling begin te vallen, mijn excuus hiervoor. :o

[Reactie gewijzigd door _Dune_ op 19 februari 2010 17:00]

Heb je toevallig een linkje naar een artikel dat meer verteld over die fouten in Nvidia's hardware? Dit is namelijk de eerste keer dat ik hierover iets hoor en wil er meer over weten ...
Oh, maar daar is genoeg over te vinden. Meestal gaat het over de mobile-chips omdat NVidia daarin zelf de productiefout heeft erkend maar ook over de 8800's is genoeg te vinden.
Damn zolang wachten tegen die tijd heeft de 3/4 wereld al een ATI kaart of komt ati met aankondiging van zijn nieuwe kaarten.

ik weet dat ik ongeduldig wordt, en het begin te overwegen ondanks me linux die Nvidia beter ondersteunt om toch een ATI te nemen.

Niet echt handig dit van Nvidia,

Ook het feit dat ze de prijzen van hun huidige kaarten niet echt omlaag gooien in prijs, vindt ik vreemd als ze de 275 en de 285 eens op een normale 150-200 euro zetten wat ze nog maar waard zijn in vergelijking tot de ATI 5000 serie verkopen ze die misschien nog een beetje.

Al met al maken ze het zichzelf niet makkelijk
Ook het feit dat ze de prijzen van hun huidige kaarten niet echt omlaag gooien in prijs, vindt ik vreemd als ze de 275 en de 285 eens op een normale 150-200 euro zetten wat ze nog maar waard zijn in vergelijking tot de ATI 5000 serie verkopen ze die misschien nog een beetje.
Een GTX 285 is kost veel meer op te produceren dan een 5850, die prijzenoorlog had nVidia nooit gewonnen. nVidia zei daarom dat ze de producten niet meer gaan maken omdat het niet meer rendabel is...
Ik snap de redenering van schrijver van het artikel niet helemaal.

Omdat fiscaal de nieuwe kaarten pas later een rol gaan spelen zouden ze dus niet voldoende beschikbaar zijn op het moment dat ze uitkomen ?

Het is toch logisch dat als je de kaarten aan het einde van het eerste kwartaal introduceert dat dit geen verschil zal maken in de fiscale resultaten van dat kwartaal, duh !!
Ik snap niet dat mensen niet de moeite nemen het artikel goed te lezen, maar wel de moeite nemen om hun ongezoute, foute kritiek te leveren.
Er staat toch duidelijk:
Tijdens de toelichting op de gisteren vrijgegeven kwartaalresultaten liet Jen-Hsun Huang echter weten dat hij verwacht dat deze en andere videokaarten die op de Fermi-architectuur zijn gebaseerd, pas in het tweede kwartaal van Nvidia's fiscale jaar een rol zullen spelen.
Dat zegt de CEO, niet de schrijver van dit artikel.

Als de CEO dat zo zegt, kan je er donder op tegen zeggen dat ze moelijk leverbaar zullen zijn de eerste maanden.

[Reactie gewijzigd door Madrox op 20 februari 2010 03:00]

nvidia's fiscale jaar waarover in het artikel wordt gesproken hoeft niet hetzelfde te zijn als een kalenderjaar. voor zover ik weet loopt het fiscale jaar van nvidia van 1 feb tot eind januari. scheelt niet veel maar toch.
Als het zo doorgaat is de HD 6xxx serie van ATI alweer verschenen tegen de tijd dat de Fermi's leverbaar zijn...
Lijkt een sarcastische opmerking, maar dat is niet onrealistisch. Volgens de roadmap van ATI ligt er al best snel dit jaar een nieuwe generatie klaar, al is het nog wat onduidelijk of dat een refresh gaat worden van de huidige serie of een complete vernieuwing. Het zou dus kunnen. Ik hoop voor NVidia van niet want een HD6870 tegen een GTX285 is niet echt een eerlijke strijd...

[Reactie gewijzigd door bwerg op 19 februari 2010 23:23]

Ik hoop voor NVidia van niet want een HD6870 tegen een GTX285 is niet echt een eerlijke strijd...
Iets met appels en peren :+

Maar even OT: de GTX 285 is nu al lang niet meer fatsoenlijk leverbaar, en al helemaal niet voor een fatsoenlijke prijs. Je kunt beter een 5850 voor 300 euro aanschaffen dan een GTX285 lijkt me.

[Reactie gewijzigd door StefanvanGelder op 20 februari 2010 09:12]

Iets met appels en peren
Nou, als die appels en peren tegelijk op de markt zijn en met elkaar concurreren... Leuk dat er steeds wordt gezegd dat fermi de concurrent van de HD5000's moet zijn, als 'ie nog wat verder vertraagd wordt is het gewoon de directe concurrent van de HD6000 hoor.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True