Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties

Nvidia-topman Jen-Hsun Huang heeft een verklaring gegeven voor het feit dat de Fermi-gpu's een half jaar later uitkwamen dan de bedoeling was: de videochips werden in april geleverd, terwijl ze eigenlijk al in 2009 uit moesten komen.

Huang gaf zijn verklaring tijdens de GPU Technology Conference die in het Californische San Jose gaande is. De Nvidia-ceo gaf tegenover techsite Heise aan dat de oorzaak zowel technisch als organisatorisch was. De technische problemen werden veroorzaakt door onverwacht veel interferentie in de communicatie tussen de verschillende stream-processors. Het substraat met daarin de interconnects moest om die reden opnieuw ontworpen worden om de communicatieproblemen te verhelpen.

Het herontwerp vergde dermate veel tijd, dat de introductie van de Fermi-gpu's, zoals de GF100-videochips van de GTX480 en GTX470, met een half jaar vertraagd werd. Dat werd mede veroorzaakt doordat niemand in het ontwerpteam direct verantwoordelijk was voor het substraat. Huang zegt van de fouten geleerd te hebben, maar wil geen garanties voor de release van aankomende gpu's met codenamen Kepler en Maxwell geven: hij hield een slag om de arm en gaf aan dat problemen altijd op kunnen treden.

Nvidia gpu roadmap met Fermi-introductie nog in 2009
Moderatie-faq Wijzig weergave

Reacties (87)

Het is echt altijd ontzettend leuk om te zien hoe iets gaat.

- Er wordt aan iets technisch gewerkt. De managers zijn allemaal blij want de mensen die het moeten maken zijn druk bezig. De managers kunnen doen waar ze zelf zin in hebben en alles is goed. De technici zijn blij want ze kunnen doorwerken zonder de hele tijd afgeleid te worden.

- Er wordt een technisch probleem gevonden.

- Ineens is elke manager zich er van bewust dat zijn baan misschien op de tocht komt te staan. Elke manager gaat zich met de technische oplossing bemoeien. Als een technicus in een vergadering iets wil zeggen, komt 'ie er niet meer tussen.

- De managers vechten onderling. De technici die hart voor het bedrijf hebben gaan achter de rug van de managers aan de slag om held te worden. De technici die het al jaren hebben meegemaakt gaan rustig zitten afwachten tot de managers uitgeruzied zijn en gaan dan pas aan de slag.

- De technici die nog graag de held willen worden komen met een oplossing, worden de held, merken dat dat niks oplevert en worden technici die de dingen al jaren hebben meegemaakt.

- De managers stoppen met ruzie maken, realiseren zich dat ze ruzie hebben zitten maken met mensen waar ze nog jaren mee samen moeten werken, en gaan zorgen dat alles zo snel mogelijk weer vergeten wordt. "Laten we leren van het verleden en weer naar de toekomst kijken".

En natuurlijk gebeurt er de volgende keer weer exact hetzelfde.

Te veel managers is dodelijk voor een bedrijf. Te veel controle is dodelijk voor wel creatief proces dan ook. Mensen leren het nooit. Diezelfde managers die alles in hun houdgreep houden zitten ook gewoon te kankeren op een overheid die te veel controle uitvoert.
Te veel managers is dodelijk voor een bedrijf.
Waaruit concludeer je dat NVIDIA te veel managers heeft?

Toen ik er werkte waren er te weinig managers. Iedereen met kennis van grafische hard- en software was immers hard nodig voor R&D. En het is zodanig technisch allemaal dat een manager minstens dezelfde kennis moet hebben. Dit probleem kent simpelweg geen oplossing. Technisch competente managers zijn zeer moeilijk te vinden.

En technische problemen zoals deze kan je niet uitsluiten. De fysica op deze al maar kleinere schaal gedraagt zich zeer onvoorspelbaar.

Eigenlijk hou ik vooral m'n hart vast voor ATI. Die hebben qua architectuur nog heel wat in te halen op Fermi, en hebben nog geen ervaring met hogere frequenties, wat noodzakelijk zal zijn om de chips klein en efficiënt te houden.
Da's de tussenmanagerlaag waar jij het over hebt, en die is inderdaad heel belangrijk voor je processen en het soepel verlopen ervan. Vermoedelijk is daar ook nog steeds gebrek aan. Waar het hier om gaat is de hogere laag hotshots, die er vooral is om de groepen mensen aan te sturen, en die geen idee heeft wat een via, een shader of een gate is... Misschien weten ze net wat een respin is, maar vermoedelijk weten ze alleen het effect : 6 maanden vertraging op je product. Hun conclusie is dan : die tijd kunnen we niet missen, breng die chip uit, en zorg maar dat ie werkt. Juist daar is het fout gegaan dit keer, door druk van de top (die wisten of hadden moeten weten dat ze geen concurrerend product in handen hadden), waardoor er te snel gewerkt is, en er niet geluisterd is naar de info en feedback van TSMC. Had men dat wel gedaan, en bijvoorbeeld eerst de GF104 uitgebracht (wat ergens vorig jaar al had gekund als daar eerder aandacht aan besteed was), dan was het wellicht soepeler verlopen.

ATi heeft absoluut problemen, maar architectuur lijkt me een van de minste :D Ze draaien soepel op dit moment, hebben een jaar voorsprong op NV, hebben de techniek onder de knie (en vermoedelijk hele korte lijntjes naar GloFo, die hun volgende chip gaan produceren), en ze kunnen bij de Fusion buurten voor integratie met de CPU (en snelheidsproblemen). NV zal het op eigen kracht moeten doen, met veel minder ingenieurs. Er wordt daar namelijk ook gewerkt aan een CPU, aan naar ik hoop 2 GPUs, aan de uitrol van de GF106 en 108, en vermoedelijk ook aan wat GPGPU-gerelateerde dingen.
ATI heeft natuurlijk wel de beschikking over de ingenieurs van AMD die ervaring hebben met hoge klok frequenties. Ik denk dat ze op dat gebied eerder een voorsprong hebben op nVidia dan andersom.
Zo'n tunnelvisie kun je op alles toepassen.

Te veel of te weinig van iets is altijd ongunstig. Waar de waarheid ligt bij dit geval kun je alleen maar naar gissen.
Mwa, net niet helemaal... We weten dat NVDA vroegah (8800-tijdperk) prima chips uitbracht, en die technici er ruwweg nog steeds zitten. We weten ook dat men met een vooral van bovenaf leuk bedachte nieuwe strategie kwam, namelijk GPGPU met bijna een CPU-achtig uiterlijk. Dat zou de GF100 moeten worden, maar dat faalde lichtelijk. De 2X0-serie was een stoplap-oplossing omdat er echt iets nieuws moest komen na de rebrands. Dat was een marketing-besluit, overigens, en kun je de technici niet aanrekenen. De GF100 werd nog steeds doorgepushed, er werden gouden bergen beloofd, en pas ongeveer vorig jaar september begon er gerommel te ontstaan omdat het echt onhoudbaar werd. De resultaten hebben we gezien.

De omgang met TSMC en de 'oplossing' van het 40nm-probleem liet ook te wensen over. ATi zag dat de boel fout ging met de 740 (4770, if you want), en heeft het hele ontwerp van de 5000-serie op de schop genomen. Kost wat tijd, maar dan heb je ook wat. NVidia kwam vers van 55nm, en besloot een GIGANTISCHE chip in 1 keer op een nieuw proces te bakken, zonder maatregelen. Tja, dat ging fout ja. Mag je dat je techneuten aanrekenen? Volgens mij niet, hier heeft een manager zich mee bemoeid (waarschijnlijk meerdere, tot aan JHH aan toe)...

Daarnaast zie ik JHH nu vooral de techneuten de schuld geven, dat 'organisatorisch falen' zie ik eigenlijk nergens, terwijl er wel even een zwarte piet naar de anderen wordt geschoven... Flauw, vind ik.

[Reactie gewijzigd door FreezeXJ op 23 september 2010 12:53]

Met je laatste alinea ben ik het niet eens... Juist met de zin;
"Dat werd mede veroorzaakt doordat niemand in het ontwerpteam direct verantwoordelijk was voor het substraat. "
Geeft hij juist toe dat er in het management iets niet goed zit, zij zijn immers degene die iemand verantwoordelijk moeten maken of moeten aanstellen als projectleider o.i.d.
En als CEO de fouten in je bedrijf toegeven doe je niet voor je plezier...
Concrete aanwijzing dat het management heeft zitten klooien: wiens verantwoordelijkheid is het dat niemand verantwoordelijk was voor het substraat?
Dat herontwerp is nog steeds niet optimaal veel te veel watts en hitte. Imho is de gf100 mislukt en de gf104 het eerste goede Fermi-ontwerp.

en weer weg

[Reactie gewijzigd door 140398 op 23 september 2010 12:05]

GF100 is niet mislukt. Enkel laat en minder gericht op gamers.

GF100 heeft immers ondersteuning voor double-precision floating-point bewerkingen voor elke ALU, hij ondersteunt ECC geheugen, heeft een kleine SIMD-breedte voor een lagere branching penalty, en ga zo maar door. Het is een ongeloofelijk krachtige chip voor GPGPU toepassingen.

Voor gamers zijn die features echter niet zo interessant. GF104 heeft slechts voor één op de zes ALUs ondersteuning voor double-presicion, geen ondersteuning voor ECC, en anderhalf keer zo brede SIMD. Prachtige compromis voor gamers, maar waardeloos voor GPGPU.

Als high-end gamer ben je uiteindelijk best af met twee GTX 460's in SLI. Presteert tot 30% hoger dan een GTX 480 en blijft veel koeler. Overklokt ook veel beter.
Alleen jammer dat die double-precision berekeningen kunstmatig gelimiteerd zijn om zo de Tesla aantrekkelijker te maken.
is dit een uit de lucht gegrepen verzinsel of heb je een bron?
Klopt hoor: http://www.geeks3d.com/20...le-precision-performance/

De kritiek is wel terecht uiteindelijk. Men had voor de game-markt beter een echte variant van de chip gemaakt met minder double-precision eenheden die dus ook koeler blijft.

De kans is reëel dat men zo'n product binnenkort aankondigt om tegen ATI's nieuwe reeks te concurreren...

[Reactie gewijzigd door c0d1f1ed op 23 september 2010 16:06]

Is dat niet al de GF104, aangezien die WEL koel blijft.
Ja dat van de double-precision berekeningen is wel teleurstellend (dat gaat op consumenten kaarten veelst te traag), maar daar zijn ook weer voorwaarden voor om dat in de hardware goed te kunnen doen (ECC geheugen).

Desalniettemin zou het beter zijn als fabrikant niet constant de boel liepen te verkreupelen om virtuele productlijnen te verzinnen, het is toch het omgekeerde van innovatie.
Iemand die niet gamed koopt geen Gf100 want dat zijn allemaal high end kaarten.
De gf100 was enkel gericht op gamers!
Onzin, de gf100 is een afgeleide van het hoofdontwerp, de Tesla Fermi kaart. nVidia heeft gaming niet als hoofddoel voor het ontwerp van de nieuwe GPU's.
Hier is meneer Jensen (sorry, kan nooit onthouden hoe je die naam correct schrijft O-)) heel duidelijk over geweest: hoewel fermi een GPGPU-ontwerp was zijn de tesla en en quadro gemaakt voor GPGPU-computing en de geforce is en blijft 100% op gamers gericht. Dus ja, als game-kaart is het wel een fail met bijvoorbeeld veel te veel DP-performance waar je niets aan hebt. Dan had 'ie maar moeten zeggen dat gamen ook op de geforce tweede prioriteit was, maar daar wilde hij natuurlijk niet aan (niet goed voor je fanbase onder gamers als je zegt dat het niet voor hun ontworpen is :P). Nou, dan beoordeel ik de geforce ook als game-kaart.

[Reactie gewijzigd door bwerg op 23 september 2010 19:00]

juist niet, juist voor gpgpu zijn snelle kaarten belangrijk. die fermi tesla dingen zit ook een gf100 in als ik het goed heb, en daar zijn die dingen dus juist beter voor gemaakt
En natuurlijk kopen alleen gamers high end kaarten!!!!

8)7
not.
Dat gebeurt wel vaker met de eerste chips uit een serie. De eerste CPU's uit een serie van Intel en AMD produceren ook vaak meer hitte tegen minder performance dan de meest recente uit de voorgaande serie.

Gaandeweg wordt alles verbeterd. (daarom kun je beter nooit de eerste in een serie kopen, no matter what it is )
Dat is onzin. AMD zat met haar 5000 serie meteen goed.
voor AMD was de 5000 serie dan ook niet de eerste kaartenreeks met een nieuwe architectuur of procedé. AMD had namelijk de HD4770 welke al op 40nm werd geproduceerd als voorloper en test van de nieuwe serie kaarten.

Een interessant artikel over poblemen en oplossingen rondom dit onderwerp staan hier: http://www.semiaccurate.c...480-broken-and-unfixable/
Nee die was ook uitgesteld alleen valt dat in het niets tov de uitstelling van fermi.
Dat ATI wellicht iets meer tijd had om de 5000 serie uit te rollen zegt meer over Nvidia's problemen.

Nvidia kreeg het stroomverbruik en warmteontwikkeling gewoon niet goed onder controle en dat valt goed te zien in de cijfers van de GF100 kaarten. Gelukkig hebben ze dat nu uiteindelijk wel dubbel en dwars goed kunnen maken met de GF104 chip.

Het lijkt erop dat de GTX 460 de beste kaart ooit van Nvidia is en wellicht dus ook de meest successvolle kaart ooit wordt. Nvidia kan zich nu dus wel wat eerlijkheid veroorloven.
Ja, maar de 5000 serie was dan ook gewoon de 4000 serie met wat optimalisaties en meer SIMD units en dergelijke.
En het is nattevingerwerk om in te schatten hoe de nog niet bestaande volgende-DirectX-versie-games op je hardware gedragen. Een jaartje later weet je dat wel en je kan een grafische kaart bouwen die beter aan de games passen.

Zo was de 384 bit geheugenbus in 9 van de 10 gevallen veel te breed voor een GeForce 8800 GTX. Dan maar versmallen naar 256 bit bus en de 8800 GT voor halve prijs verkopen voor dezelfde performance als een 8800 GTX.

Bij AMD zag je hoe 48xx serie beter dan 38xx serie werd zonder productieproces te verkleinen. De relevante onderdelen worden vermeerderd en niet-relevante onderdelen worden verminderd. Als de yields verbeterd zijn, dan kan je de omvang van de chip ook laten toenemen.
Ik denk dat EN nVidia EN AMD EN Intel al heel goed weten hoe DirectX 12 en wellicht al 14 in elkaar steken.

Het is niet dat Microsoft vandaag DirectX 12 aankondigt en dat de GPU bakkers dan pas beginnen met ontwerpen ervoor.
Wat de technische specificaties zijn weten ze uiteraard, ja. Niet hoe zwaar de software is die erop gedraaid gaat worden en hoe vaak specifieke functies aangeroepen zullen worden. Zo zit er een behoorlijk verschil in tesselation-performance tussen de HD5000 en de GTX470/480. Mochten games daar zwaar gebruik van maken dan is het een verkeerde inschatting van ATI. Mocht er juist nooit gebruik van gemaakt worden dan is het een foute inschatting van NVidia. Het probleem is niet hoe je iets technisch laat werken maar welke verhoudingen je de verschillende onderdelen geeft, dus bandbreedte, 256bit, 128bit? Ga dat maar eens bedenken als er nog geen games zijn die het goed testen.

rapture bedoelde uiteraard niet dat een videokaart een BSOD veroorzaakt als een GPU-functie aangeroepen wordt omdat de bakkers niet goed wisten te implementeren. ;)

[Reactie gewijzigd door bwerg op 23 september 2010 19:06]

Ze hebben die "extra tijd" niet eens gebruikt om het energieverbruik naar een normaal niveau terug te brengen en "stream processors die niet goed communiceren" is toch gewoon een technisch mankement, bewijs dat Nvidia gewoon op technologisch gebied achterliep.
Je kan dit op twee manieren bekijken, maar mijn inziens wijst dit meer op een project waarbij de communicatie niet goed is verlopen...
Op HWI is er iets meer uitleg over gegeven;
- http://nl.hardware.info/n...ft-uitleg-fermi-problemen
Er zijn dus verschillende teams die aan verschillende onderdelen van de chip werken, maar doordat er door de teams niet goed werd samengewerkt kon men het verbindingsnetwerk (een fabric) wat de onderdelen met elkaar moet laten communiceren niet goed laten werken (in eerste instantie).
Ik geloof niet dat je dan gelijk kan beweren dat men bij Nvidia op technologisch gebied achter loopt.
Sowieso was het mooie ontwerp van fermi gewoon veel te moeilijk om te produceren, een gigantische chip met nieuwe architectuur op een nieuw procedé waarvan niet bekend was of er problemen mee waren (zonder van te voren een proefchip te maken, zoals ATI deed, en dat was achteraf erg belangrijk geweest). Dat de technici van NVidia dat niet konden was niet zo gek want het was gewoon een onmogelijke opgave. En dat zal dan meer aan een belabberde planning gelegen hebben zoals het bij ontzettend veel bedrijven gaat. Zo ambitieuze plannen maken (de managers dan, niet de technici) terwijl je, als je het gewoon eerlijk en goed analyseert, gewoon kan zien dat het een onmogelijk plan is. Maar ja, als je het publiek verhaaltjes wilt vertellen over je fantastische chip vanuit marketing-oogpunt en niet vanuit technisch oogpunt dan krijg je de deksel op je neus.

[Reactie gewijzigd door bwerg op 23 september 2010 18:49]

Dat is meestal de standaard levensloop bij 3d-kaarten(processors soms ook). Eerst krachtig en veel verbruik om het snel op de markt te krijgen en de concurrentie voor te zijn. Daarna verder werken aan optimaliseren nu er wat geld binnenstroomt door de verkoop.
Alleen kwamen ze veel trager dan de concurrentie en toch verbruikten ze veel meer stroom tegenover slechtere prestaties.
Een ander zou al lang zijn C4 hebben gekregen.
Prachtig ze geven het eindelijk toe! En die laatste twee regels zijn ook geweldig.

Tja op zich is het niet erg. Het kan iedereen gebeuren. AMD had het met de HD2900. Maar ze hebben allemaal stunts (Fake fermi board) uit gehaald en gezegd dat er niets aan de hand was. Maar zelfs vandaag de dag hebben we geen GF100 met alle 512 shaders.
sinds jaren is de nvidia goed opweg .. komt door de GTX 460 en GTS 450
Ik sla de GTX460 ook over. wacht wel op de volgende. mijn 8800GT is nog niet overleden. :D

Maar het siert die CEO van NVIDIA wel om er mee naar buiten te komen.
En idd van fouten leert men :D
Mijn 8800 ultra wel :(

En daar ben ik nog steeds ziek van, een kaart van dik 600 euro vroegtijdig overleden, daarom geen nVidia voor mij de komende jaren. nVidia is niet meer wat het is geweest vind ik. Helaas want sinds de riva tnt was ik groot nVidia fan. Tot het 8800 debacel dus.
Wat is er overleden? De GPU zelf of het randgebeuren op de kaart? Op dat laatste heeft nVidia natuurlijk geen invloed, dat is een keuze van de kaartenbouwer geweest.
Ook kan de koeling niet goed geweest zijn, dat kan aan jou of de kaartfabrikant liggen.
Ik vind het wat gemakkelijk om nVidia gelijk de schuld toe te schuiven.
Het is vrij algemeen bekend dat de 8800 ultra kaarten er na 2-3 jaar mee ophouden (alle varianten).
Waar baseer je dat op dan? Bronnen svp!
Het doodgaan van GeForce 8000 serie kaarten: honderden pagina's waarin tientallen mensen langs zijn gekomen waarbij de 8800's het niet meer deden en het te repareren was door het in de oven te gooien, wat duidt op hun brak-soldeer-probleem wat ook bij de mobile-GPU's speelde.
Ik tel er 37... ;) Nee, maar je hebt gelijk dat er gewoon een fout zit in het gebruikte materiaal wat idd ook in de mobiele tak naar voren is gekomen.
algemeen bekend, google er maar eens op.
Google als bron (of weg naar de bron zonder de bron te noemen) is gen bron! Zeg dan niets.
check het doodgaan van 8800 topic hier op GoT maar is
Als je dan toch een kaart van 600 euro koopt kijk je misschien wat beter uit naar garantievoorwaarden, ik ben er vrij zeker van dat die 8800 ultra als je 'm van EVGA kocht met levenslange garantie komt. Ok dan moet je die gaan opsturen en zo, maar ik ken verschillende mensen die zo al een vervanging, zelfs 2 gekregen hebben.
Klopt heb hetzelfde gehad met mijn 8800GT, overleden ook door de hitte problemen.
Toen ik hem aanleverde maakte Club3d de kaart al niet meer maar kreeg ik heel netjes een vergelijkbare ATI kaart.

Dus gewoon garantie claimen bij dit soort zaken!
bij evga moet je hem wel fftjes registreren (word nogal eens vergeten) voor de korting.
Ook bij de andere grote videokaart producent zijn er wel de nodig gebreken. Ik was ook NVIDIA fan en heb tot m'n huidige ATI Radeon Mobility 5850 dan ook enkel NVIDIA gehad welke altijd perfect hebben gewerkt.
Nu heb ik al de laptop moeten laten repareren door oververhitting van de grafische kaart en geniet ik ook al 3 driver versies lang van een corrupte mousecursor. En die cursor bug bestaat blijkbaar al jaren zonder dat het opgelost word..

Ik ga bij de volgende aanschaf dan ook eens goed nadenken of ik wel een AMD (ATI) videokaart wil.
* Xthemes.us is ook windows/linux dualbooter, en de Linux drivers hebben nog meer issues dan de windows drivers.
Is oververhitting niet meer een probleem van de laptop? Ik kan nergens vinden dat het voor de HD5850 mobility in het algemeen een probleem is.

[Reactie gewijzigd door bwerg op 23 september 2010 19:07]

Ik was ook van plan om te wachten, maar heb besloten om toch voor de GTX460 van gigabyte te gaan :) (men 8800 GT kan wel in de stal ;) ) omdat ik een mooie meevaller had *Kuch* WK-poel *kuch* :*)

Ach, dat de ceo naar buiten moet komen met een excuus vind ik persoonlijk ook wel zwak. Laten we maar hopen dat ze idd van hun fouten hebben geleerd

[Reactie gewijzigd door HesRuud op 23 september 2010 12:04]

Hoezo zwak? Dat een CEO uitleg geeft over de problemen vind ik best een goed iets. Juist daarom vind ik het eerder een sterk optreden, men had het ook simpel kunnen wegmoffelen en het onder het tapijt kunnen vegen. Je fouten publiekelijk toegeven doe je niet voor je plezier...
Enfin, het is maar goed ook dat ze weten waar ze de mist in zijn gegaan, dan maak je die fout iig niet nog eens. Helaas wil dit niet zeggen dat er iets anders mis kan gaan, maarja, dat houd je altijd!
Op zich is dat inderdaad een goede zaak, alleen komt net als de Fermi ook deze uitleg te laat.
Ik sla de GTX460 ook over. wacht wel op de volgende. mijn 8800GT is nog niet overleden. :D
Een reden voor mij om over te stappen op iets nieuws zit hem niet in de prestaties alleen. Het verschil in verbruik aan energie kan ook al een hele goede reden zijn. Als je je pc voor een groot gedeelte van de dag aan hebt staan maakt dit nogal een verschil.
Maar als je gaat uitrekenen wat een nieuwe kaart kost en wat de kaart je op jaarbasis kost is het de overstap zelden waard. Uit milieuoogpunt hoef je het ook niet te doen want het kost ook veel energie/andere vervuiling om een kaart te maken.

Wanneer je een nieuwe pc bouwt is het natuurlijk wel de moeite om een kaart uit te zoeken met een laag idle verbruik.

[Reactie gewijzigd door haarbal op 23 september 2010 13:41]

Het verbruik van een gpu als je geen 3d doet is anders niet al te hoog.
Pas als je flink aan het 3D'en bent ga je het verschil merken
Juist ja, die 2 kaarten zijn ook al JAAAAAAAAAAAAAAAAAAREN op de markt. 8)7

Laatste keer dat Nvidia goed bezig was was met de 8800GTX en afgeleiden.
Daarna was toch alleen maar dieshrinks en rebrands.
Ze hebben te lang achterovergehangen met als gevolg dat ATi //AMD ze voorbij zijn gestoken.
Door in eerste instantie DX10.1 niet te implementeren hebben ze zelfs bewust de vooruitgang geblokkeerd.

Met de Fermi dachten ze wel even een inhaalslag te maken, helaas voor Nvidia is dat maar deels gelukt. Door hun ontwerp en produktieproblemen rennen ze nog steeds achter ATi aan die nu alweer de volgende generatie klaar heeft staan.
Ook de 5000 serie van ATi heeft zo zijn problemen, vooral op het gebied van tesselation.
En dat word denk ik aangepakt in de 6000 serie waarmee ze 1 van de 2 troeven van Nvidia teniet doen. (De andere is PhysicX).

Nee Nvidia zal nog hard aan t werk moeten voor ze weer goed op weg zijn.
Van mij mag het, ik heb geen voorkeur voor 1 van beide merken, maar ik hou wel van keuze en concurrentie.
Mijn mening.
Het heefd geen zin om meer features te bieden dan de competitie, gezien de dev wereld de meeste gemeneschappelijk deel gaat ondersteunen.
Dus Testalatie in DX9 was meer chip space ballast. DX10,1 werd gemeden. PhysX beperkt tot CPU of wat eye candy effect physics.

Het probleem van nV licht hier in.

Té GROTE chip met grote risiko's en kosten. Een competitie die voor Prijs performance vermogen continuiteit ( tegenhanger van risiko) en volume sales gaat. Die laaste aan pak is veel saver en ondermijn de te grote chip aanpak.

Er komt een tijd dat nV begind met 'n nieuw chip ontwerp waarvan ze al bewust zijn van AMD sucsesvolle PRijs_PErformance_Vermogen_Continiteits_Volume aanpak hebben.
Wat gaan ze doen toch weer die godzilla chips?
Absoluut belangrijk. En ik kan daar meerdere argumenten voor geven, maar de belangrijkste is wel. Je bent toch nederlander? Ken de basis van je moedertaal.

Het tweede argument: Luie donders!!

Dyslectie en adt soort argumenten zijn ongeldig. Ik had genoeg leerlingen met dyslectie en toen ik en anderen hen (en niet hun) het goed aanleerden, konden ze ook gewoon goed nederlands schrijven.

Een typfout kan iedereen maken, maar de spelling over het algemeen hier is abominabel slecht. Zelfs in bovenstaand artikel zit een spelfout.

Het ligt niet aan dyslectie of iets anders, het ligt zelfs niet aan het niet goed aangeleerd hebben. Het is een mentaliteits- en opvoedkwestie.

Hoevaak ik hier al dingen lees als: " hij begind" en dat soort dingen of " ik wordt".

Als je het niet snapt heb dan de jusite mentaliteit en vraag iemand anders of ga anders meer boeken lezen.
De 460 is zeker een goede. Ik ben blij dat ie er is gekomen, nu is er voor elk budget wel iets.
Ik denk dat Fermi met de gtx460 is, wat men van plan was.
We zijn er nog niet helemaal maar de potentie is er wel.

Technisch is het wel heel knap dat een midrange in sommige gevallen de high end van de concurrent verslaat en dan hebben we ook nog het overklok potentieel. Geweldig gewoon.

Speel zelf met gtx460 1gb in SLI en ben zeer tevreden
voor deze prijs is de gtx460 echt geen mid-range hoor.
en hoewel hij nu redelijk mee kan komen, zal dat met de hd6xxx serie volgende maand snel ophouden waarschijnlijk.
Het beste dat dan van de gtx460 gezegd kan worden is dat hij er voor zorgde dat nvidia een paar maanden mee kon komen met AMD zonder verlies te hoeven maken per verkochte chip.

edit :
de hd6xxx serie gaat er niet voor zorgen dat je een nieuwe videokaart gaat kopen als je er al een hebt uit deze generatie. dat zeg ik ook niet.
maar als je op dat moment een nieuwe kaart gaat kopen moet het raar lopen wil je niet als eerst naar de hd6xxx kijken.

[Reactie gewijzigd door Countess op 23 september 2010 20:51]

Een 460 sli setup zal nog zeker een hele tijd goed meekunnen hoor en daar zal het uitkomen van de 6xxx reeks niets aan veranderen angezien het van de games afhangt. Ik heb zelf ook zo'n setup en ben er eveneens enorm tevreden van, en al zeker van de overclockbaarheid van die beestjes. Normaal gezien ging ik twee 5850 kopen maar op de valreep (letterlijk want de bestelling was al geplaatst) toch nog van gedacht verandert na een review gelezen te hebben van de sli prestaties.
Nee, dat is het zeer zeker niet. Ze wilden met fermi een dikke GPGPU-game-kaart maken (vraag me ook niet waarom) maar uiteidelijk zijn ze erachter gekomen dat dat gewoon niet te combineren valt als je goede prijs/prestatie en prijs/verbruik wilt bieden voor gamers. Dus hebben ze zaken gestript die voor gamen overbodig waren en dat is de GF104 geworden, dus ze hebben het oorspronkelijke idee van fermi laten varen. Niet dat het een slechte keuze was want aan mijn post kan je al merken dat ik het niet zo handig vind om voor tesla en geforce één dezelfde chip te gebruiken.
shit happens alsof ati nooit kaarten geproduceerd heefd die veel te heet werden verder is de fermi een prima kaart buiten stroomverbruik om hij word alleen niet volop gebruikt door games maar dat is niet nvidia's fout.
Ehm, buiten het stroomverbruik om? Als een dikke chip veels te heet wordt, net zo heet als de dual-chip variant van de concurrent, dan loop je toch achter? En als het niet verkoopt, dan is het toch NVidia's fout? De Geforce4xx was gericht op gamers en daar blinkt de kaart qua verbruik/prestatie niet bepaald uit. De prijs/prestatie was niet goed, dat is nu niet meer maar ik geloof echt niet dat ze die dingen voor 300 euro verkopen met winst. Dus nee, ik vind het niet in de categorie "prima" vallen, eerder "matig". Als je het alleen op prestaties gaat beoordelen dan is de grootste chip bijna altijd de beste en dat vind ik een veel te simpele kijk op het beoordelen van GPU's.

offtopic:
zou je misschien interpunctie willen gebruiken, dank u wel :)

[Reactie gewijzigd door bwerg op 23 september 2010 18:59]

een half jaar maar ;) ik bedoel er zijn dingen (en games) nog veel langer uitgesteld ;)
dit doet me aan een simulatie race game voor de ps3 denken ;) ;) (he sony) :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True