Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 137 reacties

Nvidia en zijn partners ontkennen dat de productie van de GeForce GTX285, GTX275 en GTX260 gestopt is. Woensdag doken geruchten op dat Nvidia zijn mid-range en high-end-kaarten op korte termijn de end-of-life-status ging geven.

De nieuwe lijn van grafische kaarten van AMD ATI heeft Nvidia in een lastig parket gebracht: de Radeon HD5870 en HD5850 presteren beter dan Nvidias tegenhangers, die op de GT200 gebaseerd zijn, en doen dat tegen een lagere prijs. De GeForce-fabrikant zou niet van plan zijn de prijzen te verlagen, maar het handhaven van het huidige aanbod lijkt ook geen optie, terwijl kaarten op basis van de nieuwe Fermi-architectuur nog op zich laten wachten.

Woensdag verscheen het bericht van notoire anti-Nvidia-journalist Charlie Demerjian op SemiAccurate dat Nvidia zijn partners had laten weten dat drie mid-range en high-endkaarten eol waren. De eerste videokaarten die het onderspit zouden delven zouden de GTX285-kaarten zijn. Deze zou met onmiddelijke ingang end-of-life zijn. Twee overige kaarten in het midden- en topsegment, de GTX275 en GTX260, zouden eveneens geen lang leven meer beschoren zijn. Alleen de GTX295 zou het high-end-segment blijven bedienen.

Partners van Nvidia ontkennen echter dat de kaarten op korte termijn gaan verdwijnen. "De laatste berichten van Nvidia die wij gehad hebben wijzen daar niet op", vertelt Milan Rado van Asus Nederland, "het lijkt mij ook een vreemd besluit. Nvidia heeft ons laten weten dat de kaarten in ieder geval tot het einde van het laatste kwartaal beschikbaar blijven." Ook het Nederlandse bedrijf Point of View, dat uitsluitend Nvidia-videokaarten levert, spreekt de geruchten tegen: "We hebben woensdag meteen met Nvidia gebeld en kregen te horen dat het bericht nergens op gebaseerd is." De GTX285 is wel slecht leverbaar maar dat is al tijden zo. Voor de overige twee kaarten is de aanvoer ruim voldoende", laat Jeffrey Ching van Point of View weten. Of er een prijsverlaging op komst is claimt hij niet te weten.

Tegenover Hard OCP laat Nvidia zelf bij monde van woordvoerder Ken Brown weten dat de geruchten niet op waarheid berusten. Wel resteert dan de vraag op welke wijze Nvidia de midrange- en  high-endmarkt gaat bedienen de komende maanden. De aankomende Juniper-videokaarten van AMD staan alweer in de startblokken en de 40nm-productie geeft AMD een groot voordeel wat betreft productiekosten.

Moderatie-faq Wijzig weergave

Reacties (137)

Wat niet moet worden vergeten is dat EOL van produktie niet betekend dat nVidia niet meer kan leveren.

Er is namelijk zoiets als voorraad.

Als de huidige high-end kaarten verkoop lam is komen te staan, omdat de HD5000 series beter presteert voor minder geld, en zelfs enkele die-hard nVidia fans aan het twijfelen heeft gezet voor een upgrade van een ouder systeem, dan is het gewoon slim van nVidia om zich van de dure vooraad af te maken en te concenteren op de Fermi versies. De goedkopere 40nm versies zullen dan wel gemaakt blijven worden, ik heb het puur over de $400+ videokaarten die het zwaar afleggen.

Iemand die $1000 op dit moment te besteden heeft voor een Windows 7 systeem, zal daar sneller een HD5000 series videokaart in willen dan een vergelijkbare nVidia kaart, omdat je gewoon veel meer waar voor je geld krijgt. En nVidia kan zeggen wat ze willen, maar deze kerst worden de advertentie en marketing slogans vol open gezet door zowel AMD als OEMs en winkeliers om DirectX11 in de toonbank te plaatsen. En ook al is er een klein spel aanbod, en kan nVidia met hun DX10 kaarten aardig meelopen als het op OpenCL/DirectCompute aankomt en hebben ze nog steeds de PhysX troef, zullen er horde schapen overtuigt worden dat DirectX11 beter is. Hoe je het ook bekijkt, AMD is op dit moment de enigste met een echte DX11 videokaart lijn, en ik voel aan alle kanten dat hier in Amerika de economie aan een opmars bezig is.

Edit: Toevallig staat de TV aan met economisch nieuws en door de beter dan verwachte verkoop cijfers van Alcoa, Pepsi, Costco, en vooral de Macy's winkelketen wordt er een heisa verwacht op de beurs. De Amerikaanse kerstverkoop startdag, beter bekend als Black Friday, begint over 7 weken, en door de betere economie en de vele mensen die met hun oude computer aan het wachten waren op Windows 7, ziet het er goed uit voor de computer industrie (in ieder geval in Amerika).

@Rutger, dat is de Tesla lijn, we hebben het hier over consumenten produkten. Een bedrijf die high-end kaarten koopt gaat voor de professionele Tesla serie natuurlijk, omdat de ontwikkelings software veel beter is, en er ECC inzit (afaik). En niet alleen nVidia heeft een produktie voorraad, maar alle grote OEMs (EVGA, Asus, Gigabyte, MSI, etc) hebben natuurlijk zelf ook een bescheiden voorraad (ze kopen namelijk niet per stuk, maar 10,000 tegelijk bijvoorbeeld). Hun hebben inzichten in verkoop cijfers die op een veel beter nivo liggen dan wat wij kunnen dromen.

En als hun inzien dat de verkopen totaal ingestort zijn voor de $400+ kaarten (wat ik me zeer goed kan voorstellen), dan is het logisch dat ze allemaal denken "wacht effe, waarom maken we eerst niet de voorraad op, want tegen de tijd dat alles verkocht is, is de G300 klaar". Het zijn ook vooral de OEMs, zoals Asus, Gigabyte en MSI die zowel nVidia als AMD videokaarten produceren en exact kunnen zien waar hun klanten intresse in hebben.

Ze kunnen waarschijnlijk tot op de week nauwkeurig uitrekenen wanneer de voorraad op is, en als dat in lijn ligt met de belofte van nVidia dat ze G300 chips gaan ontvangen, dan zouden ze stom zijn om nog te produceren voor de dure G200 range, want zodra de G300 klaar is, stort de G200 verkoop in natuurlijk (met uitzondering van de sub $200 markt eventueel, het zal wel een tijdje duren voordat de goedkopere G300 versies in die prijsklasse komen).

[Reactie gewijzigd door Ron.IT op 9 oktober 2009 12:17]

Jou denk wijze is verkeerd want er bestaat niet alleen de consument als klant van nvidia. Je hebt namelijk veel meer bedrijven die die dure nvidia kaartjes afnemen omdat het voor hun makkelijker te betalen in. De consumenten markt voor de high-end is erg klein. Bedrijven willen juist de CUDA features van nvidia en niet directx 11 die ati nu biedt. Het zou dus totaal onlogisch zijn voor nvidia om te stoppen met hun duurste videokaarten want die verkopen ze toch wel. Het is voornamelijk de low en mid end die voor nvidia gevoelig is omdat daar de consument een belangrijkere rol speelt en het is nog even wachten voorat ati met de nieuwe low end komt...
anti-Nvidia-journalist Charlie Demerjian = deze gast heeft duidelijk een hobby nodig of therapie

hoe kansloos ben je als je een anti Nvidia journalist bent vraag me in wat je functie dan is het verspreiden van haat, leugens en bedrog dan ben je geen journalist want een journalist zijn werk is de waarheid laten zien en of uitzoeken.

Voor de rest lijkt dit me sterk bericht op het moment is de 275 en de 285 de beste concurrent van de ATI kaarten.

De 295 is te duur om echt concurrent te zijn als Nvidea de 295 voor de zelfde prijs zou gaan aanbieden als de ATI 5000 serrie dan wordt de keuze lastig.
Charlie doet het prima. Hij laat duidelijk zijn mening weten, dus hij is geen objectief journalist, maar hij weet echt wel waar hij het over heeft en heeft best vaak gelijk. Het enige wat hem in het kwaad daglicht zet is de toon waarop hij het doet, maar de inhoud klopt vaak wel degelijk. Leugens en bedrog is dus onzin (en gek genoeg moet ik bij die termen eerder aan de NVidia-marketingafdeling denken... abrupte prijsdalingen, nep-demonstraties).
Voor de rest lijkt dit me sterk bericht op het moment is de 275 en de 285 de beste concurrent van de ATI kaarten.
Ja, héhé, het zijn de ènige concurrenten. Het ontgaat je kennelijk dat de GT200-chips veel duurder zijn om te produceren. Om hiermee een prijzenoorlog aan te gaan is dus zeer lastig, of NVidia moet het accepteren dat ze flink verlies lijden met hun verkopen. Daarbij is het ook nog eens zo dat geproduceerde chips die niet verkocht worden ontzettend veel geld kosten voor een producent, en dat dit voorkomen kan worden door op tijd met je productie te stoppen. Nee, de GT200 staat helemaal niet sterk tegenover de Ati-kaarten.

[Reactie gewijzigd door bwerg op 8 oktober 2009 11:37]

je zou toch eens wat vaker charlie moeten lezen, hij heeft vaak namelijk wel gelijk.
en nu heeft hij ook zeker een punt.

de 275 en 285 zijn helemaal geen concurrenten van de hd5xxx serie, op prestatie gebeid lopen ze al ver achter en is het eigenlijk vooral de 295 waar nvidia het van moet hebben, die weet de hd5xxx serie nog af en toe voor te zijn.

maar dat is ook gelijk nvidia's grootste probleem
Nvidia heeft op dit moment 2 chips nodig van elk 576 Mm² om te kunnen concurreren tegen ATI's enkele chip met een oppervlakte van 334mm²

nvidia zou dus wel gek zijn om deze kaarten in grote getalen te blijven produceren.

[Reactie gewijzigd door Countess op 8 oktober 2009 11:35]

je zou toch eens wat vaker charlie moeten lezen, hij heeft vaak namelijk wel gelijk.
en nu heeft hij ook zeker een punt.
Nee hij heeft geen punt. Hij zegt iets wat 100% onwaar is. Het is nutteloos van hem te blijven verdedigen. Hij heeft niet "zeker" een punt. Als hij zegt dat NVIDIA stopt met die kaarten te maken en daarna ontkennen zowel NVIDIA als de partners dat, dan is zijn bericht niet waar. Simpeler kan het niet zijn.

[Reactie gewijzigd door aval0ne op 8 oktober 2009 14:44]

zijn conclusie gaat misschien verder dan dat nvidia wilde gaan, maar zijn redenen staan nog steeds als een huis.
nvidia heeft een paar duur om te maken en nagenoeg nutteloze producten.

nvidia moet wel echt compleet gek zijn willen ze de productie niet heel ver terug schroeven.

en daarbij, wat zou nvidia anders moeten zeggen? de duur om te maken kaarten die ze hebben liggen willen ze nog steeds kwijt. door te zeggen dat ze nu al EOL zijn blijven ze bijna zeker zitten met de huidige voorraad.
dat zou helemaal een gigantische financiële strop zijn.

[Reactie gewijzigd door Countess op 8 oktober 2009 16:52]

anti-Nvidia-journalist Charlie Demerjian = deze gast heeft duidelijk een hobby nodig of therapie

hoe kansloos ben je als je een anti Nvidia journalist bent vraag me in wat je functie dan is het verspreiden van haat, leugens en bedrog dan ben je geen journalist want een journalist zijn werk is de waarheid laten zien en of uitzoeken.

Voor de rest lijkt dit me sterk bericht op het moment is de 275 en de 285 de beste concurrent van de ATI kaarten.

De 295 is te duur om echt concurrent te zijn als Nvidea de 295 voor de zelfde prijs zou gaan aanbieden als de ATI 5000 serrie dan wordt de keuze lastig.
Concurreren wel... maar het gaat juist om de prijsstelling en daar doelt Charlie juist op.... Je hebt gewoon de keuze

Wel verkopen en dan er geld bijleggen
Niet verkopen (mid - high end) en wachten op de G300.

Verstandige mensen gaan nu echt geen 285/275 aanschaffen die meer kost en minder presteert, dus de verkoop van dat segment zal toch flink in elkaar storten.

Het probleem is verder dat ze waarschijnlijk binnenkort het High end weer kunnen bedienen maar voor het mid/low end is nog geen goede opvolger van hetgeen ze nu bieden.
Hij is gewoon journalist (of eigenlijk techie blogger), maar heeft wat nare ervaringen gehad met NVidia... Op erg veel leugens heb ik hem ook niet kunnen betrappen trouwens, en het bedrog komt op dit moment meer van de fabrikant (neppe kaarten laten zien en keihard beweren dat ze echt zijn, om dat later stiekem toch weer in te trekken).

Daarnaast : 275 en 285 gaan er dus uit, omdat ze een gigantische die hebben, dus veel silicium kosten. Dat kun je niet onder productieprijs gaan verkopen, dus dan stop je. Hun gigantische ontwerp werkte prima in het begin, toen die dingen nog voor 250-300 euro verkocht werden, maar de marktprijs is zo hard gezakt dat ze nu voor 150 euro weg moeten... En dan wordt het zuur.
Ik kan ook niet anders zeggen dan dat dit wel heel erg wishfull thinking is van het anti-nvidia kamp. Zelfs een anti-nvidiaactivist als Charlie Demerjian moet toch wel snappen dat als je slechter bent en duurder, weglopen uit de markt nog steeds een stuk slechtere tacktiek is dan gewoon je verlies nu nemen en in de markt blijven zitten.
Als je de markt opgeeft, ben je hem kwijt en is het een stuk minder makkelijk om weer terug te komen.
Er zijn nog steeds 2 voordelen van Nvidia die redelijk zwaar wegen. Cuda en PhysX.
Cuda is echt in opmars. Steeds meer encoders en decoders ondersteunen dit. Recentelijk zelfs de gratis tool mediacoder en deze laat met mpeg4 een flinke snelheidsboost zien wanneer Cuda aan wordt gezet. ATI/AMD kan op dit moment wel wat encoding/decoding jobs doen met zijn kaarten maar dat is nog lang niet zo doorontwikkeld als Cuda. Wat PhysX betreft, ook steeds games maken daar gebruik van. ATI kaarten kunnen dat (nog) niet. Je kunt er wel een cheopo nvidia kaartje naast hangen en dan met een hack PhysX gebruiken maar hoe lang blijft dat werken?
Ja en juist met hierboven gezegt wordt, hoop ik dat Charlie weer eens fout zit.
Ik fold sind een jaar 24/7 en tot nu toe geven ATI kaarten een slechtere ppd als een NVidia, mede omdat f@h op Cuda is gebaseerd en omdat ATI gewoonweg niets heeft wat hierop lijkt en wat goed werkt.
Hopelijk zal er uiteindelijk ook een goeie ATI client komen van f@h/ATI, maar tot nu toe klagen ATI houders nog steeds over hun mindere ppd.
Dit is wel de belangrijkste reden voor een NVIdia geweest voor mij.
Nvidia kan veel sneller folden met Cuda en mede daarom wilde ik eind dit jaar een GTX275/285 erbij halen, maar als dit waar is, kan ik wel een naast de pot vissen.

Het kan beide kanten op mijns inziens.
Hun budget/midrange kaarten zijn best goed en daar verdienen ze nog op en op de duurdere jongens (bijna) niet, dat was al een publiek geheim.
Hun highend is overprized en presteert ondermaats vergeleken met ATi op dit moment.
Fermi is nog steeds toekomstmuziek en gaat deels over op andere, lees nog meer cuda met bijbehorende, shaderprocessors.
Dus nu hebben ze geen antwoord op de nieuwe ATi kaarten en dus ja ze hebben goede redenen om te stoppen in the high end markt.

Echter er zomaar even uitstappen is ook niet slim, je stapt daar niet zomaar even in nl.
Met 1 highend kaart ben je er nl lang niet.
Tuurlijk verliezen ze nu geld en aandeel, maar voor jongens zoals ik die willen folden, kiezen meestal voor een NVidia kaart vanwege hun ppd en dan wil je wel een highend kaart, ook al is ie overprized vergeleken met ATi, maar zolang ATI geen goed spul voor folden heeft, blijft alleen NVidia dus over.
En dan hebbie ook nog de echte fanboys, die willen pronken met hun 3 GTX285, die zul je altijd houden.

Dus gewoon even afwachten en niet meteen de wildste dingen verzinnen/posten/lezen is mijn devies.
NVidia zelf weet het het beste, alleen jammer dat er aan ons, Jan Publiek, niets verteld wordt NA zo'n grote roddel.

[Reactie gewijzigd door DaLoona op 8 oktober 2009 16:52]

Een grafische kaart is initieel ook niet gemaakt om te folden. Dat ze het kunnen is gewoon goed meegenomen.

Het feit dat er momenteel door ATI niet veel vor f@h gedaan wordt komt doordat de volgende update voor OpenCL zal zijn. En door deze update zal f@h op veel meer kaarten kunnen draaien en natuurlijk ook veel sneller. Doordat ze hier aan aan het werken zijn is het updaten van de huidige versie weggevallen omdat het toch verloren werk zal zijn.
Cuda gaat gigantisch op zijn bek wanneer developers DX11-parallel-computing gaan implementeren en OpenCL gaan gebruiken (lees: begin 2010).
Een proprietary SDK en een enkele Physics library om daarmee een kleine 30% van de markt mee tegemoet te komen is nou niet echt iets om als developer warm voor te lopen zolang er geen grote zak geld van Nvidia op de tafel ligt.
Physx-effecten die enkel gebruikt kunnen worden voor Nvidia kaarten zullen nooit meer voorstellen dan wat gimmicks en special effects, aangezien geen enkele developer zomaar 70% (ATI en Intel) van de markt wil buitensluiten door hardware-Physx gameplay elementen in te bouwen.

AMD en Intel werken samen met Havok Physics, en AMD heeft ook zijn steun toegekent aan BulletPhysics, beide physicslibraries die groter zijn dan PhysX.

[Reactie gewijzigd door SirNobax op 8 oktober 2009 11:08]

Cuda gaat gigantisch op zijn bek wanneer developers DX11-parallel-computing gaan implementeren en OpenCL gaan gebruiken (lees: begin 2010).
Je begrijpt het doel van CUDA niet. Het doel is niet om consumer applicaties te versnellen, dat kan inderdaad mooi via OpenCL of DX Compute. Het doel is HPC developers CUDA te laten gebruiken. Bedrijven in de financiele, medische of mijnbouwwereld, om maar een aantal voorbeelden te noemen. NVIDIA biedt die bedrijven een platform (CUDA), met een uitgebreide toolchain (binnenkort met Visual Studio debugger support), meerdere talen waarin ontwikkeld kan worden (straks ook C++) en een uitgebreide lijn aan hardware om deze CUDA software op te draaien. AMD biedt bijna niets aan op dit gebied, geen software en geen hardware. Dit soort bedrijven gebruiken geen standaard videokaarten om op te werken, ze kopen gewoon een supercomputer met Tesla chips. OpenCL is daar niet voor bedoeld, laat staan DX Compute.

Oh, en als je dacht dat er hoge marges zaten op NVIDIA's high-end kaarten van vroeger? Een schijntje vergeleken bij dit soort producten.
Ik begrijp CUDA prima, ik heb mijzelf er ook tijdelijk in verdiept omdat ik wou weten wat de mogelijkheden waren voor voor acceleratie van bepaalde hashing methodes. Dit is dan ook het gebied van die Tesla producten. Echter, was dat ook mijn punt niet, en hebben die Tesla-producten absoluut niets met dit artikel te maken.
Het gaat erom dat CUDA en Physx voor consumenten niet interessant is om hier in de toekomst rekening mee te houden.

[Reactie gewijzigd door SirNobax op 8 oktober 2009 12:07]

Je leest niet wat ik zeg. Ik zei niet dat je CUDA niet begreep, ik zei dat je het doel van CUDA niet begreep. Je herhaalt alweer dat het "voor consumenten niet interessant is". CUDA is niet bedoeld voor consumenten, en dus gaat het niet "keihard op z'n bek" als OpenCL er aan komt, zoals je in je eerste post beweerde. CUDA is bedoeld voor HPC en zal daar een grote rol blijven spelen.
Volgens NVIDIA is CUDA wel voor consumenten want ze proppen het op een GeForce. De grootste fout die NVIDIA recent heeft gemaakt en ze willen er blijkbaar gewoon mee doorgaan.

Het is NVIDIA die niet weet waar CUDA voor dient, anders hadden ze het gewoon op de Quadro's gezet en op de consumentenmarkt enige concurrentie kunnen tonen. Nu zitten ze met dure energiemonsters welke we niets aan hebben in de markt met betere concurrentie voor eender welk budget of doel van thuispc.
Volgens NVIDIA is CUDA wel voor consumenten want ze proppen het op een GeForce.
Nee, CUDA is ook handig voor consumenten. Op dit moment is daar echter nog weinig markt voor.
De grootste fout die NVIDIA recent heeft gemaakt en ze willen er blijkbaar gewoon mee doorgaan.
Ze zullen er wel mee moeten doorgaan, want ze willen DirectX 11 certificatie, en DX Compute is een onderdeel daarvan. GPGPU functionaliteit is opeens een vereiste. OpenCL is hetzelfde verhaal, het lijkt zelfs in grote mate op CUDA. NVIDIA en AMD moeten dus GPGPU functionaliteit bieden willen ze meekomen, en juist door de vooruitstrevende aanpak van NVIDIA hebben zij nu 3 jaar technologische voorsprong op AMD.
Het is NVIDIA die niet weet waar CUDA voor dient, anders hadden ze het gewoon op de Quadro's gezet en op de consumentenmarkt enige concurrentie kunnen tonen.
Werknemers van NVIDIA hebben al vaker aangegeven dat het voor hen economischer is om 1 architectuur te ontwikkelen die voor zowel GPGPU als 3D graphics geschikt is. Het zou dus alleen maar nadelen hebben als ze twee losse ontwerpen zouden maken, en zorgen voor langere ontwikkeltijden en hogere ontwikkelkosten (dus hogere prijzen)
Nu zitten ze met dure energiemonsters welke we niets aan hebben in de markt met betere concurrentie voor eender welk budget of doel van thuispc.
Energieverbruik van G200 kaarten valt heel erg mee. Sterker nog, AMD moest het tot voor kort altijd afleggen op gebied van idle verbruik, en pas met de 5000 serie hebben ze hier weer iets aan kunnen doen. Ook als je naar verbruik onder load kijkt zul je zien dat NVIDIA en AMD kaarten niet heel veel verschillen, in ieder geval niet als je de 4000 en 200 series met elkaar vergelijkt. De 5000 serie met de 200 serie vergelijken lijkt me niet echt eerlijk, wacht dan even wat Fermi, die ook op 40nm wordt gebakken, straks brengt.

Daarnaast zijn G200 kaarten helemaal niet zo duur. Ja, ze zijn voor NVIDIA misschien wat duurder om te maken, maar dat maakt voor de consument natuurlijk niet uit. NVIDIA heeft in de prijzenslag met AMD keurig prijzen verlaagd en is zo zeer concurrerend gebleven. Uiteraard zijn de marges lager voor NVIDIA, maar daar staat natuurlijk wel een HPC en GPGPU markt tegenover met gigantische marges, terwijl AMD op dat vlak niet echt meetelt.

Tot slot klopt het dat NVIDIA met de release van de 5000 serie van AMD niet meer mee kan komen. Ten tijde van de 4000 serie had NVIDIA echter op alle prijsvlakken prima alternatieven voor AMD.
Er is maar 1 reden meer om als thuisgebruiker NVIDIA te kopen in de laatste 2jaar: als je een fanboy tot het einde bent. CUDA is geen reden, PhysX is geen reden, stroom/prijs/prestatie/gemak/... ook allemaal geen reden.

Moet niet om de pot gedraaid worden. Je moet maar eens kijken hoeveel mensen er zijn die sinds hun eerste pc NVIDIA kopen maar het bij de 4870 en 4890 beu zijn geworden.
Er is maar 1 reden meer om als thuisgebruiker NVIDIA te kopen in de laatste 2jaar: als je een fanboy tot het einde bent. CUDA is geen reden, PhysX is geen reden, stroom/prijs/prestatie/gemak/... ook allemaal geen reden.
Ik had een 8800GTX, ik ben overgestapt naar een GTX260. Ik had inderdaad ook een 4870 kunnen kopen. Waarom heb ik dat niet gedaan?
-Veel lager idle verbruik
-Minder hitte in mijn kast, zowel idle als in gebruik
-Praktisch gelijke performance (de GTX260 wint het net)
-Geen gedoe met AMD drivers
-Geen gedoe met installeren, ik had al een NVIDIA kaart, dus de oude er uit halen en de nieuwe er in steken was voldoende, werkte prima met de al geinstalleerde drivers.

Op dit moment heeft AMD inderdaad een voorsprong op NVIDIA door de release van de nog steeds moeilijk verkrijgbare 5000 serie. Tot vorige maand was er echter weinig verschil te merken tussen de beide partijen. Zowel AMD als NVIDIA hadden bijna gelijke performance voor praktisch gelijke prijzen.
Zowel AMD als NVIDIA hadden bijna gelijke performance voor praktisch gelijke prijzen
Ehm ik kan me toch een 1GHZ HD4890 herineren, die de heel wat duurdere GTX285 bijbleef of er zelf voorbij ging
Ehm ik kan me toch een 1GHZ HD4890 herineren, die de heel wat duurdere GTX285 bijbleef of er zelf voorbij ging
Dat is een fabrieksovergeclockte chip. Sommige NVIDIA AIB partners hebben die ook. Het heeft echter niet s met de strijd tussen AMD en NVIDIA te maken. Als AMD zelf een SKU had uitgebracht met 1 GHz clocksnelheid tegen een lagere prijs is dat een heel ander verhaal, maar dat deden ze niet. We hadden het over de concurrentie tussen NVIDIA en AMD, niet over stunts die AIB partners uithalen.

[Reactie gewijzigd door Snoitkever op 9 oktober 2009 15:56]

Mag ik een tweede reden toevoegen: Ondersteuning in Linux en andere FOSS operating systems.
sure, maar ook een grote rol in die omgeving betekend weinig centjes - ze maken nu 10 miljoen omzet in de HPC markt tov een kleine 1 miljard totaal. Dus dat zal ze echt niet redden...
De term 'groeimarkt' zegt je iets? Of 'hoge winstmarges'?
Even the other two major software platforms (OpenCL and Microsoft's Direct Compute) are based on CUDA in significant ways.

http://news.cnet.com/8301...ubj=news&tag=2547-1_3-0-5


BulletPhysics wordt ontwikkeld met hulp van Nvidia:

http://www.pcgameshardwar...von-AMD/Grafikkarte/News/
Even the other two major software platforms (OpenCL and Microsoft's Direct Compute) are based on CUDA in significant ways.
Wat heeft dat er mee te maken? :?
Het lijkt mij logisch, dat twee Parallel Processing standaarden uit 2008 (openCL en DX11) veel lijken op een gelijksoortig project uit 2007 (CUDA).
Zolang CUDA exclusief blijft voor Nvidia GPU's heeft het echter geen enkele kans van slagen.
BulletPhysics wordt ontwikkeld met hulp van Nvidia:
Klopt, BulletPhysics heeft ook ondersteuning voor CUDA. Daarnaast heeft hij ook ondersteuning voor OpenCL, en krijgt daarbij hulp van ATI/AMD.
Zie deze presentatie, slide 21 en 22.
Als developer zijnde, zou ik dus geen enkele reden hebben om deze 'cuda-only' te maken.

[Reactie gewijzigd door SirNobax op 8 oktober 2009 12:33]

Dat Microsoft's Direct compute op CUDA gebaseerd zou zijn is grote onzin.

Microsoft zit op dat punt nou juist zeer nauw samen te werken met ATI. Dat is ook de reden dat ATI zich geen zorgen maakt over CUDA. Ze weten dat zij op de langere termijn (vanaf win7) een groot voordeel hebben tov CUDA.
Helaas kan het meeste Physx-gebeuren prima met de CPU. Dat geeft aan hoe licht deze taak meestal is. Het word inderdaad in best veel spellen gebruikt, maar dat is meer om een zak geld van NVidia te krijgen of om je spel te promoten bij consumenten met een NVidia-kaart (want als je een physx-kaart hebt wil je dat ook gebruiken). Dus geven ze de hoofdpersoon in het spel maar een cape die beweegt met physx ofzo. Nee, ik heb een ati-kaart en met een simpel physx-drivertje werken physx-spellen hier ook prima. Alleen in spellen als mirrors edge is een NVidia-kaart een meerwaarde. Maar spellen met physx in die hoeveelheid zijn er niet meer van dan bijvoorbeeld spellen met DX10.1 (wat ook weer eens voordeel geeft in alle DX11-spellen). Daar heeft een Ati kaart weer voordeel, en dat is voor mij eigenlijk een sterker argument.

En alles wat met Cuda kan, kan ook met functies van Ati-kaarten. De Ati-functies worden inderdaad nog steeds minder gebruikt, maar Cuda wordt ook niet zoveel gebruikt om het een sterk verkoopargument te maken voor de gemiddelde consument.

[Reactie gewijzigd door bwerg op 8 oktober 2009 11:18]

En alles wat met Cuda kan, kan ook met functies van Ati-kaarten.
Haha, zouden ze willen bij AMD. Nee, er zit een wereld van verschil tussen de CUDA functionaliteit die in de AMD chips zit en CUDA, zeker als je kijkt naar NVIDIA's Fermi architectuur die straks uitkomt. C++ support, ECC memory, exception handling, Visual Studio support, Visual Studio debugging support. Nee, je kan een heleboel zeggen over NVIDIA's GPGPU support, maar ze lopen mijlen voor op AMD op dat gebied, en dat hebben ze altijd al gedaan.
NVidia loopt zeker voor op GPGPU. Maar of er een grote markt voor is, dat is maar zeer de vraag. Het zou wel zo kunnen zijn dat die markt er komt naarmate de ontwikkeltools daar voor komen. En daar zet NVidia zich voor in.

AMD heeft alle tijd om met een concurrend produkt voor GPGPU te komen als de markt daar is. Uiteindelijk zullen ontwikkeltools voor de open standaarden er ook komen. Vooralsnog is het een kleine markt met misschien grote marges. Het is in ieder geval een slecht excuus om de core-bussiness, de grafische markt, te verwaarlozen. Dat is en blijft NVidia's 'bread and butter'.

Mijn inschatting is dat NVidia hier op inzet uit pure noodzaak. Ze hebben immers geen X86 licentie. Zowel Intel als AMD gaan hun grafische kaarten integereren op de CPU, NVidia kan dat niet doen. Ze zoeken dus noodgedwongen een nieuwe markt. Je merkt het ook aan de CEO, hij spaart kosten nog moeite om mensen te wijzen op GPGPU, CUDA en PhysX. Echt overtuigend zijn ze mijns inziens nog niet geweest. PhysX is een wassen neus, CUDA is proprietary en zal het loodje leggen ten opzichte van open standaarden en de algemene GPGPU kaarten, tja, misschien wordt dat wat, maar of het groot wordt?

[Reactie gewijzigd door ten99 op 8 oktober 2009 16:58]

NVIDIA is 3jaar geleden beginnen zagen over CUDA en AMD over Tessalation. Kijk wie z'n creaties vandaag het liefst wordt bekeken door alle gamers.
CUDA is leuk maar ze moeten er al de mensen niet mee opscheppen die er niets aan hebben.
NVIDIA is 3 jaar geleden begonnen met CUDA, terwijl ATI geen noemenswaardig alternatief heeft. Kijk wie z'n creaties vandaag het liefst worden gebruikt in de HPC markt.

NVIDIA maakt dankzij CUDA miljoenen meer winst. AMD maakt 0,0 extra winst door tesselation, vooral ook omdat het nog niet gebruikt wordt.

Jou maakt het dus niet uit of je videokaart wel of niet GPGPU kan. Prima, maar het is niet alsof je GPU er slechter van wordt. Zolang NVIDIA goede performance voor een goede prijs biedt, maakt het dan uit of er ook andere functionaliteit in zit? Mij niet. Al kon m'n GPU sjaals breien, dan nog boeit het me niets, zolang het maar de snelste GPU in z'n prijsklasse is.
Het maakt mij wel degelijk uit. M'n kaart wordt duurder, ze wordt warmer, ze wordt luider en ze gaat meer verbruiken. Kan mij niet schelen dat de kleine HPCmarkt daar nut aan heeft, ik ben geen universiteit die denkt kanker kunnen op te lossen.
Als gamer wil ik een GeForce die gewoon gemaakt is voor games, anders moeten ze maar een nieuwe lijn uitbrengen naast Quadro en GeForce die wel terug is bedoelt voor gamers.
M'n kaart wordt duurder,
Begrijpend lezen is wel lastig he? Ik heb het nit over duurdere kaarten, ik heb het over goede performance voor een goede prijs. NVIDIA heeft het laatste jaar ondanks hun grotere en voor hen dus duurdere chips altijd hele competitieve prijzen gehanteerd ten opzichte van AMD.
ze wordt warmer
Waarom waren AMD's veel kleinere chips in de 4000 serie dan zoveel warmer dan NVIDIA's veel grotere chips met CUDA functionaliteit?
ze gaat meer verbruiken
Toch wel bijzonder dan, dat NVIDIA's GTX200 serie in idle veel minder verbruikte dan AMD's 4000 serie, en dat het verschil onder load ongeveer gelijk was.
Als gamer wil ik een GeForce die gewoon gemaakt is voor games
En hoe zie je dat voor je? Door DX Compute en OpenCL moet elke GPU straks GPGPU functionaliteit ondersteunen. Ook al zouden AMD en NVIDIA willen, ze kunnen helemaal geen chips meer ontwerpen zonder die functionaliteit.

[Reactie gewijzigd door Snoitkever op 9 oktober 2009 10:50]

Wat PhysX betreft, ook steeds games maken daar gebruik van.
de games die daadwerkelijk gebruik maken van GPU-physx (en niet de normale CPU-physx gebruiken) zijn werkelijk op 1 hand te tellen, en in geen van die gevallen heeft het invloed op de gameplay.

en er word al gewerkt aan een openCL physics engine, die dus werkt op GPU's van beide fabrikanten.
zolang phyisx het enkel doet op nvidia hardware zullen game ontwikkelers er niet warm voor lopen, zeker niet met een (gratis en open) multi-platform oplossing in aantocht.
De games die dx11 gebruiken zijn ook op 1 hand te tellen en toch wordt dit als voordeel beschouwd. Vreemd toch.
DirectX 11 bestaat sinds enkele dagen, PhysX al vele jaren... |:(
Ja 't zelfde werd dus gezegd tijdens dx10, dx10.1 en nu Dx11. CUDA en PhysX waren zovéél belangrijker.
ik zie dat niet als voordelen, ik koop een kaart om te spellen, niet om video te coderen, en ati kaarten kunnen zich prima reden zonder die mysterieuze PhysX. :)
Tjah, Ati Eyefinity en DX 11 in de 5*** reeks kaarten zijn ook 2 voordelen van Ati die redelijk zwaar wegen. Ik vind dat gamers (die niet veel aan cuda hebben, en er zijn bovendien weinig nVidia-only PhysX games) meer hebben aan het toekomstgerichte DX 11. Als straks de 57** kaarten uitkomen, kan ook de mainstream-markt van DX 11 genieten, en kan nVidia z'n kaarten enkel als physx-hulpkaartje of niet-gamer-georiënteerde cudakaart verkopen. Dat is toch een hele grote markt die gemist wordt...
Tja, het is voor NVidia een keuze uit twee kwaden.

Ofwel ze proberen marktaandeel te houden door verlies te draaien. En dat betekent een behoorlijk verlies, want ze waren al gedwongen hun high-end en midrange kaarten zonder noemenswaardige winst te verkopen door de 4000 serie van ATI. De enige manier voor NVidia om ATI qua performance bij te houden is met een veel groter (dus duurder) chip-oppervlak.

De andere mogelijkheid is zich tijdelijk uit die markt terugtrekken en proberen het een half jaar tot een jaar uit te zingen. Dit zal alleen veel kwaad bloed zetten bij kaartmakers en retailers.

Wat is beter? Ik weet het niet.
Of keuze 3: Ze houden de kaarten in de verkoop zonder prijzen te verlagen en nemen het marktaandeelverlies maar op de koop toe. Lijkt mij de beste strategie, mede omdat er nog steeds genoeg mensen zijn die alleen NVIDIA kopen of juist gebruik willen maken van CUDA of PhysX. Ze verliezen dan waarschijnlijk wel marktaandeel op AMD.

De eerste optie die je noemt lijkt me ook nog een mogelijkheid, als ze prijzen gaan verlagen zodat ze kunnen concurreren. NVIDIA heeft die tactiek vaker toegepast. Het lijkt me alleen erg onwaarschijnlijk dat ze zich totaal terugtrekken uit de markt.

[Reactie gewijzigd door Snoitkever op 8 oktober 2009 11:18]

Ja, dat is inderdaad ook een mogelijkheid. Het gevaar alleen van die optie is dat het wel erg lastig is om in te schatten hoeveel je moet produceren. Het risico is vrij groot dat retailers met een overschot blijven zitten.
Aan de andere kant is dat risico er zoiezo. Het lijkt erop alsof NVidia in ieder geval de produktie op een zeer laag peil gebracht heeft. Op verschillende fora wereldwijd zijn meldingen van plotselinge schaarste.
Die schaarste zou kunnen kloppen. Ik las dit bericht op xbitlabs, waarin NVIDIA topman Hara aangeeft dat ze bezig zijn hun voorraad beter op orde te krijgen. Of dat daadwerkelijk waar is durf ik niet te zeggen, het lijkt mij in ieder geval een logische verklaring, maar het zou natuurlijk ook een afleidingsmaneuvre van NVIDIA kunnen zijn als Charlie wel gelijk zou hebben
Ik verwacht eigenlijk dat het volgende aan de hand is:

NVidia zal komen met een Stop-gap solution, namelijk een GT200 op 40nm maar dan wel gewoon met DDR3 geheugen gezien de problemen met GDDR5 controllers.

Deze zullen nog steeds niet goed kunnen concurreren met de 5000 serie van ATI, zeker niet nu ook de goedkope Junipers gelanceerd worden. Ze hebben echter een voordeel ten opzichte van de huidige GT260, GT275 en GT285, ze zijn goedkoper te produceren.

NVidia zal aan deze transitie niet veel ruchtbaarheid geven, omdat de kaart in elke test niet aanbevolen zal worden bij gebrek aan DX11 en nog steeds vanwege de lagere prijs-prestatie verhouding. Dit past prima in het plaatje van NVidia dat stiekem zijn GT200 serie uit de markt terugtrekt.

Het is echter zeer de vraag hoe snel deze kaarten echt leverbaar zullen zijn. Een deel van het kostenvoordeel van het kleinere chipoppervlak zal in negatieve zin gecompenseerd worden door de lagere yields op dit process. Als deze chips op tijd zijn dan kunnen ze het daar misschien wel mee uitzingen tot de goedkopere varianten van GT300 op de markt komen ergens in 2010.

In dit scenario heeft Charlie in ieder geval voor een groot deel gelijk. (edit)

[Reactie gewijzigd door ten99 op 8 oktober 2009 23:03]

Ik denk dat Charlie wel iets meer credit verdient dan dat jij hem geeft. Zelfs zijn ruwe anti-nvidia uitspraken, kloppen, naar mijn weten, vrijwel stuk voor stuk.

Bovendien klinkt dit nog redelijk geloofwaardig, aangezien de 8800GT/8800GTS/9800GT/9800GTX/GT250-rebrand-serie het vele malen beter doet in de verkoop dan hun grote, dure >GTX260 chips die duidelijk in de vuurlinie van de veel goedkopere HD4*** en HD5*** serie zit. (goedkoper, als in, veel meer winst per chip voor ATI)
Het is niet dat Nvidia na morgen, geen chips meer kan leveren. Waarschijnlijk ligt er nog meer dan genoeg in hun magazijn, dure chips blijven produceren die z.g.a. geen winst geven en het afleggen tegen de concurentie is dan ook geen logische stap.

Het is ook volkomen logisch dat zowel Nvidia als zijn partners dit ontkennen. Retailers vinden het niet fijn om te horen dat hun huidige bestelling >GTX260's, "obsolete" is geworden in de ogen van Nvidia en niet meer in productie is.

[Reactie gewijzigd door SirNobax op 8 oktober 2009 10:43]

Ik denk dat Charlie wel iets meer credit verdient dan dat jij hem geeft. Zelfs zijn ruwe anti-nvidia uitspraken, kloppen, naar mijn weten, vrijwel stuk voor stuk.
Sorry, dit is weer eens het beste bewijs dat charlie gewoon onzin verkoopt. En toch blijven mensen hem krediet geven. Als maar vaak genoeg schiet zal ooit wel eens iets raak zijn, maar dat is geen reden om iemand krediet te geven.
In het land van de blinden ...
Hij heeft wel deels gelijk. Het stoppen van de productie geeft een sein aan consumenten, namelijk dat het product niet rendabel is. Dat wil niet zeggen dat het meteen een slechte koop is maar het zet consumenten wel aan het denken (en dat wil NVidia met de sterke alternatieven van Ati niet).

Aan de andere kant zie ik toch dat mensen die de Ati-NVidia strijd niet volgen, meestal toch weer een GTX uitzoeken. In dat opzicht denk ik dat er toch meer vraag zal zijn dan aanbod. Dat de vraag krimpt is voor NVidia niet erg, zolang het maar genoeg blijft.

Ook klopt het helemaal dat de GT200 gewoon niet geschikt is voor een prijzenoorlog. In het artikel van Charlie staat hoe rampzalig het is voor een producent als zijn kaarten uiteindelijk niet verkocht worden. Dan moet de producent de reseller namelijk financieel gaan compenseren, en lijd ècht flink verlies per kaart.
Het klopt natuurlijk dat GT200 niet geschikt is voor een prijzenoorlog, maar als NVIDIA geen prijzenoorlog aangaat wil dat niet meteen zeggen dat ze zich terug trekken uit de markt, zoals Charlie suggereert. Ze kunnen ook gewoon de huidige prijzen handhaven maar de kaarten wel inde verkoop houden. Lijkt mij een betere strategie dan helemaal niets meer produceren.
Indien de producten niets meer opleveren, maar ook nog geen verlies, kun je het beste gewoon doorproduceren om zoveel mogelijk marktaandeel en naamsbekendheid te behouden.

Indien de producten meer opbrengen dan de variabele kosten, dan maak je verlies, omdat je de vaste kosten (afschrijvingen machines) niet meer terug verdiend. Stop je echter met produceren, dan gaan die afschrijvingen vaak gewoon door en heb je nog meer verlies, en is dus ook geen optie. Wel moet je er dan snel iets aan gaan doen.

De handdoek in de ring gooien is in beide gevallen absoluut niet verstandig.
Als je bedenkt hoeveel een KPN en T-mobile betaalden voor Telfort en Orange, dan begin je waarschijnlijk de waarde van marktaandeel te snappen. De kosten die men bespaart door productie (en dus verkoop) te stoppen wegen al heel snel niet op tegen het verlies aan marktaandeel en dus afzetmarkt.

Wat nVidia wel zal doen is om zolang de GT300 nog niet klaar is, dus niet geproduceerd kan worden, de bestaande productie zo efficient mogelijk in te delen.
Waarschijnlijk, maar ik ben nu puur aan het speculeren, is het zoiets wat nVidia aan het doen is of heeft gedaan. Mischien hebben ze op een bepaalde productielijn of bij een bepaalde vestiging inderdaad de GTX285, GTX275 en GTX260, terwijl ze op een andere, ter compensatie daarvan er juist meer van maken (en minder GTX295 of andere types).

Ook zullen ze voor de GT300 productiecapaciteit moeten vrijmaken, en het kan best zijn dat ze daar nu al mee zijn begonnen.

Wat ik wel zeker weet is dat ik, als ik nu een nieuwe kaart zou moeten kopen, voor een nVidia-kaart zou gaan, en als ik een mobo met igp zou kopen het er ook absoluut één zou worden van nVidia.

Op dit moment is de driver-ondersteuning in Linux stukken beter, en ik vermoed dat dit voor Haiku niet anders is. Mijn oude BeOS install-CD doet het ook prima met nVidia kaartjes terwijl een Radeon alleen via een hack (Max-edition) aan de gang te krijgen is.

Ook voor Windows, is mijn ervaring met de Radeon-drivers niet bevredigend. Allereerst is het een enorm gepuzzel welke drivers nog wel een oudere gpu ondersteunen (8500DVI), kort na de overname was dit zelfs onmogelijk, alleen de laatste niet-geschikte driver was te vinden. Daarnaast moeten voor het installeren van een nieuwere driver eerst alle oudere drivers, tools en applicaties verwijderd zijn. Één kleinigheidje vergeten, en je krijgt het nooit meer goed zonder complete herinstall van Windows. Daarnaast schijnen ze erg buggy te zijn, in ieder geval werkte de originele driver van de Remote Wonder bij mij niet en met latere versies van de deze en bijbehorende radeon-driver heb ik de combinatie ook nooit fatsoenlijk aan de praat gekregen.

Wie echt de oude Beos wilt draaien is denk ik het beste af met Intel cpu+nVidia gpu, voor het overige geef ik de voorkeur aan AMD cpu + nVidia gpu.
Dat nVidia stelt dat
er geen vraag is naar Nvidia-chipsets voor AMD-processors
nieuws: Nvidia staakt ontwikkeling nieuwe chipsets vind ik daarom erg vreemd. Ze hebben dan straks alleeen nog gpu's voor discrete graka's en die markt is veel kleiner als de igp/chipset-markt en lijkt door de integratie van cpu en gpu nog te verminderen.

[Reactie gewijzigd door BeosBeing op 9 oktober 2009 12:10]

Toch lijkt me het nog rampzaliger voor een producent om een aantal kaarten al eol te verklaren als je daar nog geen opvolgers voor hebt,want dan weet je wel zeker dat je niets meer verkoopt.
Klopt, maar als sommige fabrikanten gaven ook aan dat de kaarten niet EOL waren maar "voorlopig niet meer verkrijgbaar waren". Ik heb dan ook het vermoeden dat NVidia stilletjes de verloop wilt afbreken zodat het grote publiek niet weet dat ze EOL gaan. Eigenlijk hetzelfde dus, maar dan met een ander verhaaltje eromheen. Als een verkoper in een winkel tegen een klant zegt "die is heel slecht verkrijgbaar" dan lijkt het juist een goed product, maar als ze zeggen "nee die wordt niet meer gemaakt, Ati is nu nog de enige op de markt" dan is dat een dreun op het imago van NVidia.
Is het niet beter dat er juist meer concurrentie komt.. lijkt me verstandig zodat er een prijzen oorlog komt.

Zou niet goed zijn voor de concurrentie als nvidia er in eens mee stopt, het is ook niets voor nvidia.
maar er was al een prijzen oorlog aan de gang, eentje die ATI duidelijk heeft gewonen omdat de GT200 te duur was om te maken.
de GT200 werd al voor zo'n lage prijs verkocht dat er nauwelijks winst op werd gemaakt.
en nu komt ATI met de hd5xxx serie, die even groot is als de hd4xxx serie qua oppervlakte (en dus ongeveer qua prijs) maar die ineens nog een flink stuk sneller is.

Nvidia heeft op dit moment 2 chips nodig van elk 576 Mm² om te kunnen concurreren tegen ATI's enkele chip met een oppervlakte van 334mm²
3 keer zo'n groot oppervlakte is gewoon 3 keer de kosten (meer misschien door lagere yields en verlies aan de rand, iets minder omdat ze nog op het oude process zitten).

Nvidia heeft gewoon simpel weg niet de mogelijkheden meer om de prijs verder te verlagen.

[Reactie gewijzigd door Countess op 8 oktober 2009 16:49]

Charlie is niet goed bij zijn hoofd, nvidia gaat niet al zijn producten van de markt halen omdat ze misschien 3-6 maanden niet goed kunnen concureren. Dan wordt de prijs aangepast naar de prestaties en als er dan een tijdje verlies geleden wordt, so be it. Overigens is een gtx260-216 al prima in verhouding qua prijs en prestaties t.o.v. een 5850. Je kan al een gtx260 op de kop tikken voor rond de 135 euro, t.o.v. dik over de 200 voor een, niet verkrijgbare 5850.

Daarbij wordt even makkelijk vergeten dat veel mensen een kant en klare pc kopen, alwaar 9 van de 10 keer een nvidia kaart inzit. (als er geen onboard inzit)

Wat we nu nog nodig hebben zijn ati kaarten met nvidia drivers ;) *grapje*

[Reactie gewijzigd door HaseMike op 8 oktober 2009 14:17]

Ik zou het een domme zet vinden van Nvidia als het gerucht uit dit artikel waar zou zijn, naar mijn mening kan Nvidia namelijk prima concurreren met ATI videokaarten. Het is altijd al zo geweest dat je voor de beste (top van highend) bij nvidia moet zijn en voor een bang-for-buck (wel highend maar niet de top) kaart bij ATI/AMD beter af bent. Ik zie niet in waarom dat deze keer niet zo zou zijn en ik zie ook niet in waarom ze dan hun productie zouden stoppen. Ik ben het ermee eens dat de gtx285 overpriced is op het moment, maar als ik deze review lees: reviews: GTX275 vs HD 4890 vs GTX260 ,vind ik niet dat je kunt zeggen dat nvidia slecht kan concurreren met ATI.
Volgens mij heb jij de laatste tijd onder een steen geleeft, want inmiddels heeft ATI haar HD5 serie in de winkels gelegd. In sommige gevallen (alhoewel de meeste niet) gaat de HD5870 de GTX295 voorbij.

De HD4890 is totaal niet meer interessant, zeker niet om te vergelijken in reviews. Met de HD5770 op komst (Nieuws: Specificaties HD 5700-serie duiken op) gaat ATI ook even op de mainstream markt de boel omver blazen. Dan heeft Nvidia echt geen poot meer om op te staan (tenzij er iemand is die de top-kaart wilt en niet kan wachten op de HD5870X2, dan koopt die een GTX295).

Nvidia heeft natuurlijk wel de GT300 op het programma staan, maar die komt voorlopig niet. Anders hadden we er allang meer van gehoord.
Dan wordt de prijs aangepast naar de prestaties en als er dan een tijdje verlies geleden wordt
normaal gesproken wel... maar nvidia zat al zo laag dat er nauwelijks winst werd gemaakt op de gt200's voor dat de hd5xxx serie uit kwam.

en nvidia heeft al gezegd geen prijs verlagingen door te gaan voeren.

volop door produceren van een kaart die te duur is en niet kan concurreren is volslagen krankzinnig. als ze dat wel doen is het nvidia die niet goed bij hun hoofd zijn, zeker niet charlie.
Net alsof iedere computergebruik nu spontaan geen Nvidia meer koopt omdat de prijs/prestatie verhouding in het voordeel van AMD ligt. Een groot gedeelte van de potentiele klanten is nou eenmaal niet op de hoogte van de fijne details van de ontwikkelingen in dit gebied en zal gewoon Nvidia blijven kopen omdat: ze goede ervaringen met het logo hebben, de kaart in de uitverkoopt was, de reclame er beter uitzag, etc etc etc. Tweakers zijn en zullen een klein gedeelte blijven, het is de grote marketing die het verschil maakt.
De mensen die er het fijne niet van weten kopen gewoon een OEM. Die gebruiken de laatste jaren ook steeds vaker een AMD want daar wint de budgetkoning.
Zeker als je dan gaat kijken wat NVIDIA van plan is om deze keer in hun Fermi te steken aan nutteloze zaken.
de nvidia 9300 en 9400 zijn ook nogsteedst erg populair voor OEM bakken :P aangezien die in de meeste budget bakken zit.

Ik hoop dat nvidia nog een beetje kan concurreren tegen ati..
Inderdaad, dat is ook de reden waarom alle geruchten dat NVidia failliet gaat onzin zijn. Oke, het zou kunnen maar daar zijn nu geen aanwijzingen voor: NVidia zijn G92 chips kunnen nog prima mee voorlopig. Het was voor NVidia ook beter geweest om een nieuwe low-end chip te ontwerpen (zoals de GT212 die ze helaas gestaakt hebben), makkelijker te produceren en die verkopen toch meer dan high-end.

Nu komen ze echter in de positie waarin Ati zat toen de GF8000-serie uitkwam. Echt niet mee kunnen komen in prestaties, maar gewoon op low-end blijven focussen om je verlies te beperken, en dan gaan voor een goede toekomstige chip. En dan met name de GT400, de GT300 zie ik niet makkelijk boven de 5000-serie uitkomen (om dezelfde redenen dat het nu minder lekker loopt met de GT200).
Je kan beter zeggen dat ATI normaal gedraagd en zijn mindere high-end kaart gewoon als subhigh-end verkoopt. En daarmee omzet en vrliezen beperkt in de high-end.
nV30 was zoals oorspronkelijk gepland ook een grote vooruit gang tov daarvoor heerste de GF4Ti4600. Maar ja toen kwam de R300 en die was gewoon een heel stuk krachtiger. Tja dan zooi respins om die klokability op te schoeven van nV30 en dan dé stofzuiger op de markt loslaten. En met zo'n handpickes super factory OC'ed GPU amper te verkrijgen. Een op papier beter antword te geven dat totaal niks goed maakt. Ze hadden net als ATI gewoon veel eerder een mindere maar volume produkt van nV30 kunnen releasen voor een concurerende prijs aan de hand van performance positie en de performance kroon even aan de ander overlaten. En met de refresh orde op zaken stellen.

Dit is eerder bewijs dat ze zich obsesief richten om nr1 te zijn. Omdat je als GPU bakker al heel vroeg in ontwikkelstadia keuzes moet maken, waarbij je totaal geen kloe hebt wat de concurentie doet. I GPU architekturen ontwikken echt 'n ondernemen waar je geen kijk op hebt hoe dat gaat uitpakken.

Als je dwangmatig nr1 kwa performance moet zijn dan is dat enigzins te garanderen door zo groot als het maar kan chip te maken op de nieuwste procede.

Die GT300 wordt sneller tenzij ze hun transistoren erg onefficient gebruikt hebben, tov concurentie. Maar met bijna 1,5 transistor voordeel hebben ze wat speling.
prijs/prestatie is ook niet het enige onderdeel waarop een besluit word genomen, er is met videokaarten een hoge mate van klantentrouw (net als intel, die ging ook niet onderuit toen ze slechtere producten dan amd leverden) en ondersteuning is erg belangrijk (drivers)

Overigens vrees ik dat op de middellange termijn nvidia zich meer zal gaan specialiseren in algemene chip(sets) en minder op de videokaarten markt, wat jammer zou zijn want dan vrees ik een terugkeer naar de donkere jaren van ati en 3dfx (voordat nvidia de markt openbrak was ati de grootste en dat was GEEN zegen voor de consument), al denk ik dat intel dat gat dan gaat vullen.

[Reactie gewijzigd door blouweKip op 8 oktober 2009 11:15]

nvidia kan zich niet gaan specialiseren in chipsets. ze mogen geen i5 of i7 chipset maken, en ze willen geen AMD chipsets maken.
alleen met eoin doen ze nog mee. (die die zit intel liever eigenlijk ook verdwijnen)

edit : lol, een paar uur nadat ik dit poste is kwam er een bericht over op de frontpage.

[Reactie gewijzigd door Countess op 8 oktober 2009 16:45]

Je zult altijd fanboys houden, dus weglopen van je fanboys is het domste wat je kunt doen.
Ik heb een tijd geleden een HD4870 ingebouwd voor iemand die tot nu toe altijd Nvidia heeft gehad:
- Diamond Edge 3D (NV1)
- Voodoo Banshee (3dfx, inmiddels ook nvidia)
- Geforce4 Ti4200
- Geforce 6600GT
- Geforce 8800GTS

De 6600GT en 8800GTS doen het niet meer, zijn in korte tijd beide gestorven. Een dergelijke videokaart zou langer dan anderhalf tot 2 jaar mee moeten gaan, maar misschien dat Nvidia daar anders over denkt. Toen de 8800GTS stierf heeft hij twijfelachtig de stap gewaagd naar AMD/ATI, en is ie tot nu toe gewoon helemaal tevreden.
De 8800GTS bevatte een productiefout, en was te repareren door de GPU in de oven te doen. Dat geeft wel aan dat fanboys meestal niet bij een merk blijven omdat dat merk technisch beter is ofzo, maar puur om het gevoel. Qua kwaliteit van hardware en software ontlopen Ati en NVidia elkaar niet veel.
Volgens mij is het grootste gedeelte dat losse kaarten koopt, echt wel op de hoogte wat er aan de hand is op het GPU gebied.

De rest doet het lekker met de GPU die al in zijn computer zit
AMD is goed bezig met het beconcurreren van NVidia. Ze zetten lekkere druk op de ketel en dat zorgt er voor dat wij, de consumenten / liefhebbers / gamers, steeds betere hardware krijgen aangeboden.

Waar AMD op de processor markt een beetje achter de feitjes aan loopt (mijn mening) vind ik ze op de grafische markt een steeds sterkere marktleider worden. Vroeger was ik een grote fam van Nvidia en dat ging zo ver dat ik gewoon per definitie al niet naar kaarten van (toen nog) ATi keek. Altijd moest ik een Geforce hebben.

Tegenwoordig blijven de kaarten van AMD beter scoren heb ik wel eens het idee. Natuurlijk uitzonderingen (8800GT) daar gelaten.
Niet overdrijven he. De 200-serie van Nvidia was een stuk beter dan de 4000-serie van ATI.
Met de 5000-serie heeft ATI wel weer een voorspong genomen. Nvidia zal op moeten schieten met de 300-serie.
De prijs/prestatie verhouding van de HD4000 was stukken beter dan die van de 200-serie. En het is puur door die HD4000-serie dat de prijs van de 200-serie omlaag ging. Voor Ati waren de chips veel goedkoper en concurreren is voor hun dan ook makkelijker. Geef eens een goede reden waarom de 200-serie beter was? De snelste single-chip oplossing is niet altijd de beste. Het gaat erom bij wie je het meest waar krijgt voor je geld, in verschillende prijsklassen. En voor de producent gaat het erom wie er het meeste winst kan maken en het meeste marktaandeel kan pakken. In al die dingen heeft Ati toch wel gewonnen (Naar mijn mening, maar als je de BBG-topics doorkijkt ook naar de mening van vele anderen).
Leuk,om te zien hoe feiten verdraaid worden.
De snelste chip is doorheen de jaren altijd al de duuurste geweest. Simpelweg omdat je altijd mensen hebt die de snelste willen hebben en dus een premium betalen. Hier is prijs/prestatie van geen tel.
Dus high end 200 serie is gewoon sneller en kost dus meer. NVIDIA dwingt ATI er dus toe zijn prjizen te verlagen omdat anders ATI niet concurrentieel is.
o god over feiten verdraaien gesproken.
zullen we er even wat echte feiten bij pakken?

mm² van de ATI hd4870 toen die uit kwam = 263 mm²
mm² van de gt200 op 65nm = 576 mm²
mm² van de gt200 op 55nm die maanden later uit kwam = 470mm²

conclusie: gt200 VEEL duurder om te maken, zelfs op 55nm nog steeds 1.8 keer zo groot als de rv770. op 65nm is hij zelfs meer als 2 keer zo groot.

prestatie verschil hd4870 vs gtx280:
http://www.tomshardware.c...deon-hd-4870,1964-19.html
nog geen 20% gemiddeld.

mag jij raden wie er zijn prijzen flink naar beneden moest bijstellen toen de hd4870 uit kwam.
een hint : het was niet ATI.

en toen kwam nvidia met de gtx285... en de prijs van de h4870 veranderde nauwelijks.

nvidia heeft ATI dus helemaal nooit tot een prijs verlaging kunnen dwingen, behalve misschien voor hd4870x2 toen ze de gtx295 lanceerde(omdat ATI toen niet meer de absolute snelste kaart had) maar dat is een reletief klein marktsigment, en valt kompleet in het niet bij de prijsverlaging die nvidia moest doorvoeren bij hun gt200 producten.

[Reactie gewijzigd door Countess op 8 oktober 2009 17:18]

Daarom dat de 5870 voor €300 in de winkels ligt? Je theorie telt enkel voor NVIDIA die niet anders kan dan dure prijzen opstellen.
Niet overdrijven he... de 200 serie is gewoon anders ontworpen dan de 4000 serie. Eerlijk gezegd zou ik de 4000 serie beter willen noemen omdat AMD hier meer winst op kon maken dan nvidia op de 200 serie. AMD kon met de 4000 serie gemakkelijk concureren met de 200 serie van nVidia. Ja, nVidia had toen de snelste single chip oplossing. Maar we weten allemaal dat het niet de strategie van AMD is om de snelste single chip te hebben.
Niet om lullig te doen, ik ben het wel met je eens dat ATI een fantastische serie chips had met de 4000 serie, maar als we jouw logica volgen heeft Intel een veel betere serie GPUs dan AMD en NVIDIA, omdat ze niet alleen goedkoper zijn, maar ook vele malen meer verkocht worden. En iedereen weet dat het niet Intel's strategie is om de snelste single chip te hebben ;)
Kwa aantallen heeft hij gelijk. Het leverd voor de fabrikant natuurlijk meer op. Een fabrikant heeft liever kwantiteit dan kwaliteit ivm omzet. Maar het ligt er gewoon aan wat voor een mark je wil bedienen en wat voor een naam je hoog hebt te houden. zo heeft elke speler zijn eigen stratagie.

Maar ik denk zelf dat NVIDIA Wat meer pepers bij het ontbijt van zijn medewerkers zal moeten serveren. :+
Misschien had ik aan mijn redenatie toe moeten voegen dat AMD een dual gpu gebruikt voor de high-end toepassingen (dat doet Intel niet). Ja, ik weet dat nVidia vervolgens ook met dual gpu oplossingen is gekomen (en daardoor uiteindelijk weer de snelste kaart had). Maar als je kijkt naar de prijs/prestatie verhouding, dan denk ik toch dat de HD4870X2 het wel won van de high-end nvidia kaarten.

Je vergeet voor het gemak ook even dat ik erbij zeg dat de 4000 serie gemakkelijk kan concureren met de 200 serie van nVidia. Dat kan Intel niet.

[Reactie gewijzigd door The Flying Dutchman op 8 oktober 2009 12:03]

Je vergeet alleen wat, iets dat intel niet kan
AMD kon met de 4000 serie gemakkelijk concureren met de 200 serie van nVidia
edit: oeps
Het is hoe je het bekijkt. De GT200b is maar 10% sneller dan de RV790. De RV790 is vele malen kleiner. Dus goedkoper om te maken.

Als je naar prijs performance gaat kijken is de HD4890 een betere keuze dan de GTX285. Helemaal als je een HD4890 1 GHz hebt. Die zijn goedkoper en ook nog eens sneller.

+ ze hebben support voor DX10.1. Daar naast hebben de nVidia kaarten wel weer CUDA En Physx. Maar ik vraag me af hoeveel consumenten CUDA gebruiken. De meeste willen gamen met hun vga kaart.
Inderdaad, en hoeveel consumenten gebruiken dx10.1?
Op Steam kan je zien dat meer dan 45% van de gamers al een OS heeft voor Dx10, Dx10.1 en Dx11. Dus meer dan je blijkbaar denkt!
Da nog, is dat voor de meerderheid (55%) niet het geval. Trouwens, hoe representatief is Steam voor de gehele markt. Ik denk dat ze niet zo representatief zijn, volgens mij kopen veel mensen nog bij voorkeur iets fysieks.
De enige manier voor nvidia om de ati 4000 serie qua performance bij te houden is door de gt200 een veel groter chip oppervlak te geven. Ze hebben dus een veel duurdere chip en kunnen dus nauwelijks winst maken. Ik noem dat niet beter maar slechter.
Geld bijleggen, geld bijleggen. Da's een beetje relatief natuurlijk. Je hebt de werkelijke kost prijs en de kost prijs met R&D kosten erbij in begrepen. Dus nu hebben ze een keus.

- deel van de R&D kosten afschrijven;
- gewoon een prijs blijven hanteren die ook de R&D kosten eruit haalt;

Kijk een deel van de mensen zal NVidia blijven kopen ook al is de concurrent sneller en goedkoper. Dat kon je toen ook wel zien met Intel en AMD in het AthlonXP tijdperk. Een deel van de mensen en de leveranciers heeft een voorkeur en die gaat niet zomaar weg.

Een deel van de R&D kosten afschrijven kan natuurlijk ook dus het ligt er maar net aan hoe NVidia dit wil oplossen.
Dit was vooral omdat Intel gewoon veel en veel bekender was als AMD dit zorgde ook voor OEM bouwers om dan toch voor Intel te kiezen omdat iedereen het kende, dit ligt bij ATI en Nvidia wel iets anders.
ATI heeft een goede naam opgebouwd de laatste jaren en heeft veel minder negtief in het nieuws gestaan als Nvidia denk bijvoorbeeld aan de laptops gpu's waar een grote fout in zat.
Ook zal het voor OEM bouwers een makkelijke keuze zijn, die letten immers alleen op de centje en wat voor kwaliteit daar tegen over staat.

Het is op het moment gewoon de betere keuze, simple as that.
Intel is ook al twee jaar gewoon de betere keuze, toch kopen nog genoeg tweakers AMD. Loyaliteit heet dat, en merkwaardig genoeg (or is it?) heeft NVIDIA nogal veel loyale klanten.

EDIT: Excuses pennenlikker, bwerg, Phenom II is inderdaad redelijk competitief, zeker in de goedkopere segmenten. Voor de komst van Phenom II was dit echter wel een ander verhaal, en voor Phenom 1 had AMD helemaal weinig te bieden. Toch bleven mensen nog AMD kopen (en gelukkig maar). Onderschat de kracht van trouwe klanten en fanboys niet.

[Reactie gewijzigd door Snoitkever op 8 oktober 2009 12:27]

Dat valt ook best mee hoor. toen socket 1156 nog niet uit was (tot enkele weken geleden dus) was de phenom II met grote voorsprong de beste CPU voor gamers. In games net zo snel als de i7 920 en véél goedkoper. Ook doen de athlon II CPU's het nu erg goed.

Over de loyale klanten klopt ook wel: als NVidia hun huidige prijzen blijft hanteren, zal iedereen die iets van de Ati-NVidia strijd afweet hun producten uitlachen. Er zijn echter ruim genoeg mensen die gewoon voor de merknaam van NVidia gaan en als ze de GT200 op een laag pitje zetten zijn die loyale klanten toch wel genoeg om niet met een voorraad GT200's te blijven zitten.
Ik heb het idee dat er een grotere groep loyale Nvida klanten is dan Ati (alleen videokaarten). Velen weten niet van de negatieve berichten rond Nvidia, waaronder het relabelen. Hoewel dit volgens mij wel aan het veranderen is met de 4800 serie en nu de 5800 er nog eens overheen.
Waarschijnlijk zal de GT300 Nvida gaan maken of breken
Nou nee ben ik niet met je eens bij de meeste configuraties is de bang for buck kroon nog steeds in het bezit van AMD, dus weet niet waar je die wijsheid vandaan haalt?

Ik heb ook voor AMD gekozen laatst en dat heeft totaal niets te maken met fan zijn van een merk maar gewoon nuchter hollands denken: meer prestaties voor minder geld.

Dan is de keuze snel gemaakt imho.
Dat betekent nog steeds niet dat NVidia de volgende dag geen kaart meer verkoopt. Leveranciers gaan ook niet zo maar product lijnen omleggen.

NVidia en Ati zijn bekend genoeg tegenwoordig. Dit is allemaal niet zo'n ramp als sommige mensen je willen doen laten geloven. Ati was een paar jaar geleden ook down en out. De heftige reactie op het feit dat Ati na vele, vele jaren eens een keer een koploper wordt is een beetje overtrokken.
ATI is nooit "down and out" geweest. NVIDIA was gewoon veel sterker vroeger tot het moment ze het gedrocht FX5xxx hebben gebracht. Toen zijn ze masaal geld gaan pompen bij developers om NVIDIA's logo in games te zetten en spellen enkel voor NVIDIA te optimaliseren zodat ze op die manier benchmarks konden winnen. Zelfs 3DMark hebben ze meermaals zover gekregen om NVIDIA een ferme boost te geven in de cijfertjes.

Dat gaat zelfs tot vandaag op bij Vantage waar je masaal meer punten krijgt met PhysX wat in 99% van de games niets toevoegt en bij die 1% niets nuttig. Dat noemen ze dan een gaming benchmark. Mensen die snel even hoogste nummertje zoeken denken dan dat ze de beste gaming card kopen.
Dat kon je toen ook wel zien met Intel en AMD in het AthlonXP tijdperk. Een deel van de mensen en de leveranciers heeft een voorkeur en die gaat niet zomaar weg.
een voorkeur misschien, maar in dat geval was het voornamelijk een kunstmatige voorkeur in het leven geroepen door intel. een praktijk waar ze nu dus voor veroordeeld zijn in 2 landen en de EU.

maar de situatie bij ATI en Nvidia ligt heel anders. daar kan een van beide partijen niet het zelfde doen, gewoon omdat beide partijen als het moet de hele markt zouden kunnen bedienen gewoon door meer capaciteit bij TSMC te kopen.
AMD had die mogelijkheid niet, en daarom kon intel zijn spelletjes spelen.

goed er zijn nogsteeds mensen die persee nvidia wilden, maar aan de tweakers pole laatst te zien was dat hooguit 20% van de mensen. de rest zou op zijn minst een ATI kaart overwegen.

[Reactie gewijzigd door Countess op 8 oktober 2009 12:36]

Hoe goed ATI kaarten ook zullen zijn, het voor gamen 'belangrijke' ; PhysX en uiteraard Nvidea 3D Vision voor de betere game ervaring (ik heb het, en ik zou enkel daarom nooit een ATI kaard willen hebben die dat niet kan ondersteunen). Zelfs de kleine extra van PhysX vind'k belangrijker dan een ietwat hogere resolutie die een ATI kaart dan mogelijk zou bieden.

Gezien de extra's die Nvidea bied naast de normale prestaties moet ATI ook wel lager geprijsd zijn, zouden ze even duur zijn, dan zou geen enkele gamer een ATI kaart pakken.
HAHa, het 'belangrijke' is de prijs en prestaties, en extra's die jij noemt zijn voor de meeste gamers nutteloos, 3D bril van NvidIa is een lol, hoeveel mensen hebben die? ik ken geen een die dat wil hebben ook al was het gratis...
Nutteloos? 3D is de toekomst met alles. Tv's, films en ook games. Je hebt het zonder twijfel nog nooit met eigen ogen ervaren, anders zou je smeken om het gratis te krijgen.
Moesten we niet beter weten en denken dat NVIDIA ooit iets goedkoper gaat brengen of iets open, dan zouden we het misschien vragen. NVIDIA heeft z'n filosofie van klantvriendelijkheid echter al genoeg getoond om mensen beter te weten.
Belangrijker ook dan het ondersteunen van DirectX 11 en multi monitors?
Ook als je weet dat de markt uiteindelijk toch wat betreft Physics voor DirectX of OpenCL zal kiezen omdat dit niet proprietary is? Zo is het tot nu toe altijd gegaan in het verleden.
DirectX 10 heeft ook nog weinig gedaan en als we de verschillen tussen 10 en 11 op dit moment bekijken dan is het zeker niet noemenswaardig.
dx10 werkte alleen op vista. en dat was niet echt een succes.
dx11 werkt op vista (dat inmiddels toch een redelijk marktaandeel heeft) en op windows7, en die laatste lijkt het een stuk beter te gaan doen.

daarbij heeft dx11 zeker wel wat te beiden :
battleforge benchmarks. het eerste spel dat dx11 ondersteund.
http://pclab.pl/art38674-8.html
een snelheids winst van zo'n 15% op een hd5870 ivm dx10 op de zelfde kaart.

dan is er ook nog GPGPU ondersteuning in DX11. dat is een gemakkelijkere API als die vna openCL (al is openCL wel veelzijdiger, maar dat is voor games geen voordeel) waardoor het ook nog best een succes kan worden in games.

en de hierboven genoemde tesselation.

elke van deze opzich is al een beter verkoops argument dan 3d of cuda/physx.

[Reactie gewijzigd door Countess op 8 oktober 2009 12:44]

Dit is erg persoonlijk. Als ik zie wat PhysX extra bied bij bijvoorbeeld Batman: Dark Assylum, dan vind ik dat veel meer toevoegen dan bijvoorbeeld Tesselation, iets dat tijdens het spelen van een game amper opvalt.

Verder is 3D Vision op dit moment gewoon erg prijzig omdat de meesten er ook een nieuwe monitor voor moeten aanschaffen. Maar aangezien de meeste ontwikkelaars van PC games zoals bijvoorbeeld Capcom zich nu volledig richten op support van 3D technieken die op dit moment dus enkel wordt ondersteund door 3D Vision.

Ik denk dat jullie zowel het verschil van PhysX als 3D nog nooit met eigen ogen hebben ervaren, want dan zouden jullie meningen erg anders zijn.
Daarom wordt DX11 al "DX10 done right" genoemd. Het biedt zeker meer dan physx in ieder geval. Tesselation bijvoorbeeld ziet er harstikke mooi uit. DX10 was ook veel groter en beter gepland maar een deel hiervan werd geschrapt omdat NVidia het niet wilde.

Daarbij nog het feit dat je CPU ook de meeste physx afkan... Dat wordt er dan nooit bijgezegd.

3Dvision is helemaal geen goed verkoopargument, ik ken niemand die het gebruikt en het is een hele kleine markt. Daarbij lees ik van iedereen die het gebruikt dat het tien minuten leuk is en daarna pijn doet aan je ogen. (eyefinity is in dat opzicht al nuttiger omdat het ook door mensen gebruikt kan worden die gewoon veel schermen willen aansturen, niet alleen voor games)
nvidia doet het inderdaad laatste jaren slechter. teveel rebranden, onduidelijke kaart aanduidingen. de 200 serie was neit goed genoeg tov ati, zie hun cijfers. ze zullen nu echt met een klapper moeten komen om terug te komen. wat ik lees gaat dit lukken maar ati blijft lager geprijst en dus meer mensen aanspreken. of ze moeten een killer kaart neerzetten en niet met gdr3 zaols ik dacht gelezen te hebben maar met gdr5 of ze zullen iets moeten doen om echt te kunnen concurreren met ati. ik heb voor het eerst sinds jaren een ati gekocht terwijl ik altijd nvidia kocht. mij maakt het merk niet uit maar moet wel een killer kaart zijn met toeters en bellen. dx11 is wel het minimale. ik ben klaar voor een nieuwe kaart, laat maar komen. zodra de testen zijn gedaan weten we welke standaard kaart het snelste is gt300 of de 5000 serie en dan weten we wie de slag dit jaar gewonnen heeft. dat de gt 300 na kerst zou uitkomen is onzin. ze missen dan de kerst omzet. ik verwacht elk moment nog wat lekken van nvidia info. lekken ofwel marketing.
Waarom is het onzin dat de GT300 na kerst uit zou komen? Het is hun eerste DX11-kaart, waarop ze een veel grotere achterstand hadden dan Ati. Het is hun eerste 40nm-kaart. Twee factoren die het lastig maken om een nieuwe chip goed te maken. Tel daar bij op dat de chip ontzettend groot is, en de yields dus sowieso al laag liggen. De berekeningen die charlie heeft gedaan (uitgaan van minstens twee respins, gezien de slechte omstandigheden best waarschijnlijk) en je komt ergens in de zomer van 2010 uit. Als ze in de kerst een grote hoeveelheid GT300-chips willen hebben, hadden ze die al weken geleden helemaal klaar moeten hebben. Er is niets wat er op duid (wél dat de GT300 nog niet klaar is vanwege de nep-presentatie, en ook veel geruchten dat de yields veel te laag liggen).
Charlie weet niet waar hij het over heeft. De kans is groot dat er al lang 1 respin is geweest, de chip die op GTC te zien was was A1 silicium. NVIDIA telde tot nu toe altijd vanaf 0.
Nee, inderdaad grote kans dat Charlie wat overdrijft. Maar al neem je zijn berekeningen met een korreltje zout dan is het nog steeds onmogelijk voor NVidia om in de kerst een grote hoeveelheid GT300-chips gereed te hebben. Q1 2010 lijkt me dan ook het meest optimistische (voor iemand die de feiten ruwweg kent). Aangezien ze fermi nog niet wilden laten zien is het aannemelijk dat de kaart in ieder geval nog niet goed genoeg is.

Dat NVidia vanaf 0 telde wist ik niet (en Charlie volgens mij ook niet, die gaf aan dat het hun eerste chip was :P).
Er was helemaal geen chip op de GTC. NVIDIA heeft toegegeven dat ze nepkaarten hebben getoond :D
En wat is dit dan? De kaart die NVIDIA op GTC liet zien was inderdaad een mockup voor de show, maar dat wil niet zeggen dat er geen chip was. NVIDIA heeft zelf ook gezegd dat ze een aantal demo's wel degelijk op Fermi hardware hebben gedraaid.
Sinds mijn 2 laptops beiden last hebben van falende Nvidia chips (8600m/9650m) heeft Nvidia bij mij afgedaan. Onder garantie komt de fabrikant (Dell) weliswaar mijn moederbord vervangen, maar ook deze exemplaren vertonen dezelfde problemen, wellicht omdat Nvidia het niet kan bekostigen om het merendeel aan chips in omloop te vervangen. Volgens mij hebben ze hierdoor veel klanten verloren, inclusief mezelf.

bron falende chips:
http://tech.yahoo.com/blog/null/99597
http://www.theinquirer.ne...028703/nvidia-g84-g86-bad

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True