Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 154 reacties

Nvidia's DirectX 11-gpu zou de codenaam Fermi dragen en nog dit jaar te koop zijn. De fabrikant zou de videochip een 384bit brede geheugeninterface geven en deze willen combineren met gddr5-geheugen. De gpu zou nog een respin nodig hebben.

Tot op heden werd Nvidia's aankomende gpu bestempeld als GT300, maar volgens anonieme bronnen zou de gpu binnen Nvidia de codenaam Fermi dragen. Nvidia's partners zouden onlangs mondjesmaat geïnformeerd zijn over de nieuwe chip van Nvidia, die onder andere een 384bit-geheugenbus zou hebben en gebruikmaakt van gddr5-geheugen. Hiermee zou de bandbreedte tot anderhalf keer zo hoog kunnen liggen als bij AMD's DirectX 11-videokaarten. Nvidia claimde anderhalve week geleden nog dat DirectX 11-ondersteuning geen belangrijk argument zou zijn voor de consument om tot aanschaf over te gaan, maar aan partners zou de fabrikant nu hebben laten weten dat Fermi DirectX 11 ondersteunt en er binnenkort aankomt.

Over het aantal shaderprocessors was Nvidia minder expliciet, maar naar verluidt zou het aantal minimaal twee keer zo hoog zijn als bij de voorgaande generatie. De GT200 heeft 240 shaderprocessors aan boord, dus als de geruchten kloppen zitten er dus minimaal 480 shaderprocessors op Fermi. De kloksnelheden van de gpu en de shaderprocessors zijn nog niet bekend. Deze zouden ook nog niet vaststaan omdat de gpu volgens anonieme bronnen nog een respin nodig zou hebben. Pas nadat de eerste echt werkende exemplaren van de band af rollen kunnen de kloksnelheden worden bepaald. De respin zorgt ervoor dat het ongeveer zes tot acht weken zal duren voor dit het geval is. Mocht dit waar zijn dan is de kans groot dat de eerste videokaarten gebaseerd op Fermi nog dit jaar op de markt verschijnen.

Moderatie-faq Wijzig weergave

Reacties (154)

Tjah de ene site roept dit en de andere site roept dat
Oftewel allemaal bullshit...

Van de yields is niks bekend, tenzei iemand hier een FEIT heeft ? nee, het is dus allemaal speculatie.

Zo kunnen we ook kijken naar de HD5780 welke qua prestaties ( voordat het bekend was ) erg goed waren.
Nu is de kaart uit en vallen de resultaten enigsinds tegen, oftewel geen revolutie.

Als het waar is wat nvidia claimed ( een verdubbeling van performance tov de 88xx serie )
Dan huppelt ATI weer achter de feiten aan, en kunnen ze er bar weinig tegenover zetten.

Het is jammer dat de Nvidia kaarten wat langer opzich laten wachten maar ik heb een gevoel dat dat meer dan waard zal zijn.
tegen? hij haalt een hd4870x2 in, en zit zo dicht bij de performance van de gtx295 dat het niks meer uit maakt. maar is goedkoper, zuiniger en stiller als die laatste, is vrij van de nadelen van SLI/Crossfire (zie een nieuwe game als NFS-shift) en kan dx11 aan. gemakkelijker keuze lijkt me.

en nvidia zegt niet dat de performance verdubbeld, alleen dat het aantal shaders minimaal 2 keer zo groot is. dat was bij de hd5870 ook zo t.o.v. de hd4870.

de nieuwe single gpu van Nvidia gaat zeker sneller zijn als de hd5870. dat staat gewoon vast. maar dat was de gt200 ook, maar de enige reden dat die goed verkocht is omdat Nvidia daar de prijs zo hard van heeft laten zakken, waardoor hun marges minimaal werden. de kosten voor het maken van een gt200 waren veel hoger als de kosten van een rv770.

en het is ook helemaal niet ATI's doel om met 1 GPU sneller te zijn als nvidia's snelste single GPU.
daar hebben ze de hd5870x2 voor straks. die zal (zo goed als) zeker sneller zijn als de gt300, maar ongeveer het zelfde kosten, of iets duurder zijn (ligt er aan hoe weinig marge nvidia bereid is te nemen op de gt300)

de enige reden om op de gt300 te wachten is omdat ATI dan de prijzen van de RV870's naar beneden haalt, naar waar ze eigenlijk ' horen' te zitten (nu vragen ze er, terecht ook, meer geld voor omdat ze de enige zijn, wat erg goed is voor hun marges.)
Ze vallen tegen? De 5870 is in bijna alle games sneller dan de gtx285, is ongeveer even snel als de 4870X2 en hangt in de nek van de gtx295! Dat zijn allemaal Dualkaarten.

http://tweakers.net/revie...ctx-11-los-inleiding.html

[Reactie gewijzigd door skelleniels op 28 september 2009 15:38]

Dat zegt totaal niks over GT300. Da's een compleet nieuwe architectuur .

De 5870 is teleurstellend doordat het een twee maal zo grote chip is als z'n voorganger maar slechts 50% sneller in de praktijk. Dat laat heel wat ruimte voor NVIDIA om beter te doen. De efficiŽntie van grafische kaarten is de laatste jaren wat achteruit gegaan. Maar met een nieuwe architectuur zou daar wel eens verandering in kunnen komen.
De chip is niet 2 maal zo groot qua oppervlakte(Wat het belangrijkste is, want dat betekend hoeveel chips je uit 1 waver kan halen. Meer is goedkoper). Daarbij zijn de geheugenbus en de texture units niet verdubbeld, alleen het aantal shader units. Tel er ook nog eens bij op dat het nog beta drivers zijn met nog ruimte voor veel verbetering. Dat de beeldjes van de HD5 serie bij het gebruik van AF -altijd- mooier zijn door de betere berekening hier van(ten opzichte van vorige series). Als je bedenkt dat hij nu al heel dicht in de buurt van de X2 komt, kan je bedenken dat hij sneller gaat zijn met betere drivers en je geen last hebt van dingen als profielen en de laatste micro stutters(waar je toch nooit 100% van af komt met AFR).

Daarbij, jij claimt een complete nieuwe architectuur, ik zeg, jahoor, eerst zien dan geloven. De laatste jaren achteruit gegaan? De HD4 serie deed het toch erg goed tenopzichte van de voorganger en ook ten opzichte van de concurrent. Zeker qua $ voor prestatie waar het mij om gaat(mijn vorige bang for $ kaartje koste 280 euro en was een nVidia. De volgende koste maar 140! en was een ATI).

[Reactie gewijzigd door Reinman op 28 september 2009 16:59]

De chip is niet 2 maal zo groot qua oppervlakte...
Irrelevant in m'n vergelijking. Ik heb het niet over afmetingen maar het aantal transistors. Ook GT300 gaat wellicht nauwelijks fysiek groter zijn dan GT200, maar door de overgang van 55 nm naar 40 nm technologie passen er wel veel meer transistors op.
Daarbij zijn de geheugenbus en de texture units niet verdubbeld, alleen het aantal shader units.
Da's net een van de redenen waarom ze gezien het grote aantal extra transistors maar een bedroevend kleine prestatiewinst halen.
Tel er ook nog eens bij op dat het nog beta drivers zijn met nog ruimte voor veel verbetering.
Da's pure nonsense. De chip verschilt nauwelijks van z'n voorganger. De grootste verandering is misschien dat de interpolatie nu in de shadercores gebeuren. Maar ook daar moet je echt geen heuse sprongen voorwaarts meer voor verwachten.
Dat de beeldjes van de HD5 serie bij het gebruik van AF -altijd- mooier zijn door de betere berekening hier van...
NVIDIA heeft al jaren hoekonafhankelijke anisotrope filtering. De berekening van het mipmap-niveau gebeurt nu op hele accurate wijze op de RV840, maar nůg slagen ze er niet in om NVIDIA's hoogste kwaliteit te evenaren.
Als je bedenkt dat hij nu al heel dicht in de buurt van de X2 komt, kan je bedenken dat hij sneller gaat zijn met betere drivers en je geen last hebt van dingen als profielen en de laatste micro stutters(waar je toch nooit 100% van af komt met AFR).
De X2 heeft praktisch twee keer zo veel bandbreedte tot z'n beschikking. Geen driver kan daar verandering in brengen.
Daarbij, jij claimt een complete nieuwe architectuur, ik zeg, jahoor, eerst zien dan geloven.
Lees m'n post hierboven over Fermi.
De laatste jaren achteruit gegaan? De HD4 serie deed het toch erg goed tenopzichte van de voorganger en ook ten opzichte van de concurrent.
Ja hij deed het goed. Maar ik zeg gewoon dat het beter kan.

De Radeon HD 5870 haalt 2.7 TFLOPS. Da's drie keer zo veel als GT200, en toch liggen de prestaties in games niet zo beduidend veel hoger. Conclusie: ATI verspilt enorm veel rekenkracht.

De geruchten wijzen erop dat GT300 een hogere bandbreedte zal hebben, en een nieuwe architectuur. Als je de ontwikkeling rond CUDA volgt dan is duidelijk dat men veel meer onafhankelijke cores zal gebruiken om meer taken van een kleinere granulariteit in parallel te kunnen draaien om zo de efficiŽntie naar een nieuw niveau te tillen.

[Reactie gewijzigd door c0d1f1ed op 29 september 2009 07:53]

Irrelevant in m'n vergelijking. Ik heb het niet over afmetingen maar het aantal transistors. Ook GT300 gaat wellicht nauwelijks fysiek groter zijn dan GT200, maar door de overgang van 55 nm naar 40 nm technologie passen er wel veel meer transistors op.
Kan mij jouw vergelijking schelen? Het gaat om $ niet om transistoren. Het gaat dus over hoeveel kan je uit een wafer halen. Dat doet de RV870 dan weer heel goed.
Da's net een van de redenen waarom ze gezien het grote aantal extra transistors maar een bedroevend kleine prestatiewinst halen.
Niets bedroevend kleine prestatie winst. Ze komen netjes in de buurt van de X2, die dat wel allemaal heeft. Tel daarbij betere drivers op. Voila. Daarbij, ging de RV670 naar RV770 ook niet van 320 shaders naar 800 en die ging voor % shaders ook niet % voor uit.
Da's pure nonsense. De chip verschilt nauwelijks van z'n voorganger. De grootste verandering is misschien dat de interpolatie nu in de shadercores gebeuren. Maar ook daar moet je echt geen heuse sprongen voorwaarts meer voor verwachten.
Nee wat jij zegt is onzin. Er gaat zeer zeker nog wel winst zitten in drivers. Was de RV770 zo anders dan de R600? Nee, zat er ruime winst in drivers over het jaar? Hell ja!
NVIDIA heeft al jaren hoekonafhankelijke anisotrope filtering. De berekening van het mipmap-niveau gebeurt nu op hele accurate wijze op de RV840, maar nůg slagen ze er niet in om NVIDIA's hoogste kwaliteit te evenaren.
De qualiteit van ATI was net zo goed als die van nVidia, nu zelfs beter
Lees m'n post hierboven over Fermi.
Kan mij het schelen wat jij claimt. Eerst zien dan geloven.
Ja hij deed het goed. Maar ik zeg gewoon dat het beter kan.

De Radeon HD 5870 haalt 2.7 TFLOPS. Da's drie keer zo veel als GT200, en toch liggen de prestaties in games niet zo beduidend veel hoger. Conclusie: ATI verspilt enorm veel rekenkracht.

De geruchten wijzen erop dat GT300 een hogere bandbreedte zal hebben, en een nieuwe architectuur. Als je de ontwikkeling rond CUDA volgt dan is duidelijk dat men veel meer onafhankelijke cores zal gebruiken om meer taken van een kleinere granulariteit in parallel te kunnen draaien om zo de efficiŽntie naar een nieuw niveau te tillen.
Misschien moet je eens bedenken dat flops niet alles zegt over prestaties. Dat ook geheugenbus niets zegt over prestaties. En ja ik volg de ontwikkelingen rond CUDA, gezien ik daar tegenwoordig in programmeer.

En hou eens op met selectief quoten. Je verdraait hierdoor woorden.

[Reactie gewijzigd door Reinman op 29 september 2009 09:56]

Kan mij jouw vergelijking schelen? Het gaat om $ niet om transistoren. Het gaat dus over hoeveel kan je uit een wafer halen. Dat doet de RV870 dan weer heel goed.
Neen dat doet hij dus niet heel goed. Een chip met die afmetingen op 40 nm zou in staat moeten zijn om veel hogere prestaties te halen. Erg veel rekenkracht blijft onbenut.

NVIDIA heeft dus een reŽle kans om voor dezelfde $ een chip te maken die veel efficiŽnter is en daarmee hogere absolute prestaties behaalt.
Nee wat jij zegt is onzin. Er gaat zeer zeker nog wel winst zitten in drivers. Was de RV770 zo anders dan de R600? Nee, zat er ruime winst in drivers over het jaar? Hell ja!
Nietes. De RV770 is een serieuze verbetering ten opzichte van de R600. Om te beginnen was de AA resolve van R600 compleet FUBAR en moest het in de shaders gebeuren. RV770 ondersteunt wel dedicated resolve en dus is de driver ook aanzienlijk verschillend voor AA. Verder gooit de RV770 ook de ring-bus van de R600 door het raam, en vervangt die door een crossbar en hub. Dat vergt een aanzienlijk andere aanpak in de driver, die over tijd geoptimaliseerd werd.
De qualiteit van ATI was net zo goed als die van nVidia, nu zelfs beter
BS. Volg de discussie op Beyond3D.
Kan mij het schelen wat jij claimt. Eerst zien dan geloven.
Ik claim niks. Ik heb nog stage gelopen bij NVIDIA. Deze benamingen zijn de interfaces van de hardware. GT300 is de eerste met een Fermi interface. Negeer dat als je wil, maar jij hebt geen enkel argument waarom GT300 gťťn efficientere architectuur zou kunnen hebben dan RV870.
Misschien moet je eens bedenken dat flops niet alles zegt over prestaties. Dat ook geheugenbus niets zegt over prestaties.
Da's precies wat ik zeg! Ja er is geen enkele garantie dat GT300 beter zal presteren, maar er is ook geen enkele reden om aan te nemen dat hij slechter zal presteren. Alles wijst erop dat er nog gigantisch veel te winnen valt door de efficiŽntie op te krikken. Of ze daar in zullen slagen is afwachten, maar het potentieel is er.
Neen dat doet hij dus niet heel goed. Een chip met die afmetingen op 40 nm zou in staat moeten zijn om veel hogere prestaties te halen. Erg veel rekenkracht blijft onbenut.

This is partly down to the increased texture throughput available inside Cypress, but also because AMD has doubled the number of ROPs (or render backends) in its new GPU. It's all about effective use of the bandwidth available and, if anything, memory bandwidth is the one area where we initially felt the Radeon HD 5870 fell a little short.

The Radeon HD 4890 featured 1GB of 975MHz (3.9GHz effective) GDDR5 memory on its 256-bit memory interface, resulting in a theoretical peak bandwidth of 124.8GB/sec. By contrast, the Radeon HD 5870 has 1GB of GDDR5 clocked at 1.2GHz (4.8GHz effective) attached to the same memory bus, meaning a theoretical peak memory bandwidth of 153.6GB per second. This is only a 23 per cent rise, where we’ve seen 100 per cent rises in the architecture elsewhere (core count, ROPs, etc.). When questioned, AMD's David Nalasco seemed to have the answers.

Cypress's memory architecture
He claimed that the Radeon HD 4800-series cards using GDDR5 had almost unlimited bandwidth compared to the amount of compute horsepower available and so there were very few scenarios where it ran out of memory bandwidth. In comparison, the HD 5870 is apparently a much more balanced design, where the card is memory bandwidth limited just under 50 per cent of the time and data limited for the remainder.


Blijkbaar heeft ATi/AMD keuzes gemaakt, als je bovenstaande leest. Ze hebben er bewust voor gekozen dat de kaart in sommige gevallen geheugen en data gelimiteerd is. Dat verklaart meteen waarom er niet alle potentie uit de core gehaald is die erin zit. Daar zullen ze wel goede redenen voor gehad hebben; zoals het niet willen van een supergrote core zoals Nvidia dat wel doet. Nvidia gaat in mijn ogen op de oude voet verder, steeds grotere cores om toch de beste kaart neer te zetten; tegen elke prijs!

We zullen wel zien wat ervan terecht komt, iets zegt mij dat ze zichzelf twee maal aan diezelfde steen gaan stoten :+
Dit zijn de eerste drivers. Dat terwijl de drivers voor de 48xx wel volwassen zijn.

In het begin was de 9800GX2 ook sneller dan de GTX280.
Eh, ja het gaat hier idd om geruchten/speculatie.. maar daarom is het nog geen bullshit.
Natuurlijk probeert NVidia het publiek te overtuigen af te zien van het kopen van een kaart van de concurrentie door 'gouden bergen' te beloven als ze nog eventjes geduld hebben.. Business as usual dus
waar heb je gelezen dat de resultaten tegenvallen van Ati of help je weer mythes de wereld in nou?
Nu ga ik toch twijfelen of ik nou de 5870x2 ga kopen of even wachten op de 300GTX :(,

Dillema's :O
ik kan je met een aardig grote mate van zekerheid voorspellen dat de hd5870x2 sneller gaat zijn als een gt300.
maar voordat de gt300 uit komt zal hij aardig aan de prijs zijn waarschijnlijk.

edit : omdat de gt300 niet groot genoeg is om ~4 miljard transistors te herbergen, (en omdat dat een onwerkbaar grote chip zou zijn die hoe dan ook op kosten niet zou kunnen concurreren met de kosten van 2 keer de 2 miljard transistors tellende ATI GPU's)
en omdat ATI per transistors meer performance uit zijn chips weet te halen vanaf de RV7xx, en omdat Nvidia zelf al aan heeft gegeven extra transistors op de chip te gebruiken puur voor GPGPU versnelling.

omdat Nvidia aan geeft een dual gpu versie te gaan uitgeven. dat kan alleen als de kosten niet te hoog liggen voor 2 chips, en het verbruik laag genoeg blijft (nog een reden waarom ik niet geloof dat de gt300 in de beurt van de 4 miljard transistors komt)
omdat de GT300 een hele grote chip gaat zijn, met een navenant verbruik, waardoor de kloksnelheid lager uit zal vallen als die van de ATI single GPU versie.
(verder Nvidia heeft nog weinig ervaring met 40nm, maar wil wel gelijk de grootste chip ooit gaan maken op dat proces, voorspelt ook weinig goed voor de kloksnelheid dan wel prijs.)
hooguit word hij ~gelijkt geklokt aan de kloksnelheid van de hd5870x2 chips.

en omdat het relatieve verschil in geheugen bandbreedte te klein is. alles wijst erop dat de hd5870 precies genoeg geheugen bandbreedte heeft voor zijn snelheid(waar de hd4870 veel te veel bandbreedte had). nvidia gaat daar 50% boven zitten, en er even vanuit gaande dat ze hun GPU niet te weinig bandbreedte geven is dat ook weer een indicatie voor in dit geval de bovengrens van het snelheidsverschil.

de enige 2 echt onzekere factoren zijn hoe goed Crossfire schaalt op de hd5870x2 en hoe veel beter nvidia's nieuwe chipontwerp is (waarvan ze zelf zeggen de grootste verandering sinds the g80)
maar crossfire schaalt aardig goed bij de hd4870x2, en met dx11 waarschijnlijk beter zelfs vanwege het multithreaded karakter van de API en beter wordende game ondersteuning,
en wat het chip ontwerp betreft... ik geloof niet in wonderen, en heb nog niks gehoord wat mij doet geloven er eentje aan zit te komen.

[Reactie gewijzigd door Countess op 28 september 2009 23:03]

Niemand kent de precieze specificaties van GT300 (tenzij je voor NVIDIA werkt, maar dan ga je natuurlijk geen 5870 aanraden). Bovendien zeggen die ook helemaal niet alles. Het is dus onmogelijk nu reeds voorspellingen te maken.
En waar baseer je dat dan op? Je onderbuik gevoel?
Als je alles zo'n beetje leest lijkt het dat de 5870x2 een stuk sneller zal zijn dan de GTX300.
Uiteraard is wel te verwachten dan de GTX300 weer sneller is dan de single core 5870.
Zeker weten doe ik het uiteraard niet, er zijn simpelweg nog geen benchmarks van beide nog niet bestaande kaarten.
Time will tell, holiday season is altijd een leuke tijd voor nieuwe graka's :9
En da's nu net hetgeen nVidia probeert te bewerkstelligen met dit soort artikelen.

Ik geloof er maar weinig van, want enkele weken geleden wilde ze nog even wachten met de dx 11 kaarten, en nu zouden ze er al zeer snel een op de markt willen zetten? No way. Verder hebben ze nog geen enkel werkend exemplaar. Tenminste, daar heb ik nog niets van kunnen vinden. Zolang dat er niet is (icm. harde feiten over geproduceerde hoeveelheden), denk ik dat het om een paperlaunch gaat. Het hele 8800-uitknijp gebeuren backfired nu, en ik kan hier alleen maar om lachen :)
(...) Hiermee zou de bandbreedte tot anderhalf keer zo hoog kunnen liggen dan bij AMD's DirectX 11-videokaarten. (...)

is de geheugenbandbreede Łberhaupt de bottleneck bij ATI kaarten, nee toch?
dan maakt het verbreden van de bus toch ook geen kont uit?
volgens mij heeft ati al sinds de x800 series een 256bit bus, en momenteel nogsteeds. Volgens mij is die 'smalle bus' ook de reden dat ze gddr5 zijn gaan gebruiken met de 48xx chips. Dus ja 256bit is momenteel een bottleneck voor amd kaartjes
Dat is een behoorlijk verkeerde stelling (nogal kort door de bocht). :)

De geheugenbandbreedte hangt van drie factoren af:
1. Type geheugen (ddr2, 3, 4, 5)
2. Bus wijdte
3. Kloksnelheden geheugen

Zoals je ziet zijn er meerdere factoren. ATi gebruikt nu GDDR5 op een 256bits bus, dit geheugen is zelf al geweldig sneller dan het DDR3 van toen. Daarom hoeft de bus niet breder gemaakt te worden. Darentegen had nVidia nog DDR3 op de laatste serie kaarten, iets wat effectief op halve snelheid liep (om het simpel te houden), dus daarom dat ze ter compensatie een 512bit bus hadden gebruikt.

Over het algemeen is het beter om een zo smal mogelijke bus wijdte te hebben omdat het het ontwerp van de kaart onnodig complex maakt. Voor de snelste kaarten van de series wordt hier vaak een uitzondering gemaakt omdat daar snelheid centraal staat. GDDR5 is ontwikkeld om dus de bandbreedte te bieden zonder op 512bit over te stappen.

Snelweg vergelijking:
DDR3, 512bit, 1000MHz: 1000 auto's op een vierbaansweg, met 50km/h
DDR5, 256bit, 1000MHz: 1000 auto's op een tweebaansweg, met 100km/h

Zelfde doorvoercapaciteit, met minder asfalt.

[Reactie gewijzigd door Cid Highwind op 28 september 2009 13:46]

Is die ddr5 in jouw voorbeeld nu niet sneller?
Juist, DDR5 ** IS ** sneller...

Want wat je nu vergelijkt is wanneer de volledige bandbreedte wordt benut, ik vraag mij af hoe vaak de volledige bandbreedte werkelijk wordt benut. Want in het verhaal van de ATI 5870 review lees ik het volgende:

reviews: AMD laat ATI HD 5870 met DirectX 11 los

Door streamcores kunnen hooguit 1600 berekeningen tegelijk afhandelen. In de praktijk is dit echter nagenoeg niet haalbaar. De vijf streamcores kunnen namelijk alleen tegelijk actief zijn als ze exact dezelfde bewerking uitvoeren. In het ergste geval is er per clockcycle dus slechts ťťn stream core actief, terwijl de andere niets doen.

Wanneer de volledige bandbreedte niet wordt gebruikt, dan is DDR5 sneller.
juist. Ik denk echt niet dat 256-bit een bottleneck is voor AMD het houd de productie kosten laag en laat ruimte over om de uiteindelijke snelheid meer afhankelijk te maken van het gebruikte geheugen daardoor kan AMD voor veel minder geld bijvoorbeeld een 5850 verkopen dan nvidia zal kunnen met bijvoorbeeld hun GTX350 als deze bijvoorbeeld een 512-bit geheugen bus mee zou krijgen. Ook zal AMD makkelijker verschillende modellen op de markt kunnen zetten door de lager geclockte varianten van minder duur en minder snel geheugen te voorzien zonder dat ze vast zitten aan een grote chip of ingewikkelde printplaat waardoor een lagere verkoop prijs mogelijk is.
Dat scheelt in zowel het aantal geheugen chips als in het aantal lijnen op de printplaat als aan connecties vanuit de chip. Daarbij komt dat de chip ook nog kleiner blijft en minder warm zal worden. Misschien zijn deze boven genoemde verschillen niet in alle gevallen revolutionair of doorslag gevend maar alle kleine beetjes helpen. Natuurlijk zijn er met een grotere geheugen bus ook echt wel voordelen en kun je bijvoorbeeld delen uitschakelen en een minder groot gedeelte van de geheugen bus benutten. Maar om weer terug te komen op het topic AMD heeft momenteel idd een hele sterke line-up alhoewel nvidia blijkbaar ook van plan is om dit jaar nog hun top model op de markt te zetten dat juich ik alleen maar toe .Want misschien dat dat de prijzen van de nieuwe radeon 58xx's nog een beetje gunstiger doet worden. Ik ben benieuwd maar het is zeker een spannende periode nu in het 4e kwartaal nadat het lang stil is geweest in de GPU wereld.

[Reactie gewijzigd door Mietex op 28 september 2009 18:55]

nee want als de 2baans weg net zoveel auto's moet herbergen als de 4baans
moet deze 2 keer zo lang zijn
vandaar heeft hij de snelheid verdubbeld
Volgens mij is die 'smalle bus' ook de reden dat ze gddr5
Nee juist anders om, door dat GDDR5 beschikbaar is er geen behoefte aan een dure en grote 512bit bus. Het schijnt zelf zo te zijn dat high-end GDDR3 gewoon duurder is dan mainstream GDDR5 en aangezien een grote bus het ook alleen maar duurder maakt is een kleine bus met GDDR5 alleen maar win-win.
Dus ja 256bit is momenteel een bottleneck voor amd kaartjes
Daarnaast is een 256bit bus geen probleem en bij de HD4870 was het gewoon dikke overkill, ze hadden in theorie ook genoeg gehad aan een 192bit bus of langzamer GDDR5. Bij de nieuwe HD5850 en HD5870 is de 256bit bus juist aardig in evenwicht met de rest aangezien geheugen overklokken niet echt voor een performance boost zorgt. :)
Volgens mij merk je weinig van het geheugen overklokken juist omdat de bus te krap is :+

Heb toch in meerdere reviews gelezen dat met de geheugenbus verdenkt bij het achterblijven van de verwachtte performance in sommige benchmarks/spellen.

VB: Je kan een motor van de auto wel flink opvoeren, tot een max van 300km per uur, als die afgeknepen word op de snelweg doordat het druk op de weg is en maar twee rijbanen; staat die net als het fiatje, gewoon in de file ;-)

[Reactie gewijzigd door Madrox op 28 september 2009 18:09]

pff die redenering klopt absoluut niet

Om de auto's er nog maar even bij te pakken. Als je op de tweebaansweg van de 5870 stock 100 mag en je verhoogt de snelheid met zeg maar 10 % maar de performance van de videokaart gaat niet omhoog. dan is er geen sprake van een bottleneck door geheugen snelheid. Op een geheugenbus staat namelijk nooit file ;)
als je in de file staat kan je de matrix borden wel op 200 zetten, de auto's gaan er niet harder door rijden :+
dus als de file 80 rijdt ipv 50 merk je daar weinig van?

lees deze nog eens: http://tweakers.net/react...=Posting&ParentID=3398735
Misschien ga ik iets te kort door de bocht, want behalve de bus moet de data die er doorheen gaat ook nog verwerkt worden. Wellicht schuilt daar het probleem ;-)

Of de file nou 80 of 50 rijdt, de 300km auto rijd dan even snel als een fiatje.
Oftewel, word afgeknepen ;-)

Moest even zoeken waar ik het gelezen had, maar dit is het:
This is partly down to the increased texture throughput available inside Cypress, but also because AMD has doubled the number of ROPs (or render backends) in its new GPU. It's all about effective use of the bandwidth available and, if anything, memory bandwidth is the one area where we initially felt the Radeon HD 5870 fell a little short.

The Radeon HD 4890 featured 1GB of 975MHz (3.9GHz effective) GDDR5 memory on its 256-bit memory interface, resulting in a theoretical peak bandwidth of 124.8GB/sec. By contrast, the Radeon HD 5870 has 1GB of GDDR5 clocked at 1.2GHz (4.8GHz effective) attached to the same memory bus, meaning a theoretical peak memory bandwidth of 153.6GB per second. This is only a 23 per cent rise, where we’ve seen 100 per cent rises in the architecture elsewhere (core count, ROPs, etc.). When questioned, AMD's David Nalasco seemed to have the answers.

Cypress's memory architecture
He claimed that the Radeon HD 4800-series cards using GDDR5 had almost unlimited bandwidth compared to the amount of compute horsepower available and so there were very few scenarios where it ran out of memory bandwidth. In comparison, the HD 5870 is apparently a much more balanced design, where the card is memory bandwidth limited just under 50 per cent of the time and data limited for the remainder.
Lezen we dit goed !? (en dat komt van een AMD/Ati woordvoerder!)

Ik lees: De kaart is geheugen en data gelimiteeerd net onder 50% van de tijd en daar hebben we bewust voor gekozen. Dat, getuige het "balanced design" idd blijkt te kloppen ;)

[Reactie gewijzigd door Madrox op 1 oktober 2009 01:16]

De aanleiding voor het gebruik van GDDR5 en 256bits is de noodzaak om de geheugenbus smal te houden. Een brede bus maakt het zaakje namelijk enorm ingewikkeld, en daarmee duur.

Na de problemen met de R600 heeft ATI daarom daarmaals de ontwikkeling van GDDR5 enorm gepushed. GDDR5 is er gekomen omdat ATI er om vroeg. Het was nog niet eens volledig gespecificeerd! Is ook de reden waarom het idle stroomverbruik zo hoog was... GDDR5 was nog te nieuwe dat men stroombesparende features had kunnen inbouwen. Dat kon nu pas.

Een heeeel interessant artikel aangaande deze punten is deze: http://www.anandtech.com/video/showdoc.aspx?i=3469
Als ik het goed heb dan wordt de PCB dikker naarmate de bus breder wordt. Door deze extra dikte krijg je meer warmte-ophoping, meer materiaal-kosten en dus hogere verkoopprijs of lagere marge.
Ze zijn juist op gddr5 gaan zitten omdat ze dan de PCB goedkoper kunnen houden. Minder bandbreedte betekent minder verbindingen en dus een eeenvoudiger PCB waardoor weer de kosten omlaag kunnen.
GDDR5 is er net gekomen om MEER bandbreedte te krijgen
Mischien wel bij GT300...

Maargoed, gaat het hier over het 'flagship model GT300' ?.. Want ik meen ergens gelezen te hebben (eVGA forums) dat ze eerst een 'budget' versie launchen, en rond maart pas met het 'flagship' model aan komen zeilen....
Het gaat hier om de GT300, naam zegt het al, een budget model. Top modellen worden waarschijnlijk de GTX3xx series, geen bron maar common sense.
Volgens mij laat jouw "common sense" je een beetje in de steek...

GTX zie je alleen terug in de benaming van de kaarten, de chips hebben alleen GT in de benaming. Zo maken de GTX 285/295 kaarten gebruik van de GT200b chip/gpu, bepaald geen budget modellen. ;)

In navolging op de GT200-serie zal de GT300 waarschijnlijk echt wel een high end gpu worden, denk ik zo.
Budget en Mainstream kaarten zijn gewoon de huidige DX10 videokaarten met nieuwe naam aangevuld met wat DX10.1 kaarten...
Maar de architectuur en de interne werking van nVidia en ATI kaarten zijn totaal verschillend.
Het is niet omdat ATI geen bottleneck heedt qua geheugenbandbreedte dat een nVidia kaart die niet kan hebben..
Bij de vorige generaties was dit zelf duidelijk zichtbaar, nVidia kaarten hadden blijkbaar een grotere geheugenbandbreedte nodig dan ATI kaarten die met minder genoegen namen.
Dit kon ook al omdat nVidia er steeds voor zorgde dat zijn high-end kaarten meer dan genoeg bandbreedte hadden waardoor men er bij optimalisaties steeds vanuit kon gaan dat men daar niet moest op bezuinigen ;)
op Nvidia kaarten heeft het meestal wel een leuk effect :9~

maar ATI heeft het bewust niet gedaan om het pcm minder complex te houden.
(bij hun HD2900 was dat namelijk geen suc6, de vermeende 8800gtx killer....)
Bij de HD4870/HD4890 was er inderdaad een overvloed aan bandbreedte dankzij GDDR5. Bij de HD5870 is het aantal shaderunits verdubbeld, maar de geheugenbandbreedte is maar met 33% toegenomen. Per shader heb je dus minder bandbreedte beschikbaar en dat kan negatief effect hebben, maar dit zal ook weer per applicatie verschillen.
Aangezien bij de HD5870 alles verdubbeld is behalve de geheugenbus tov de HD4870 en de performance zeker niet is verdubbeld, lijkt dit wel degelijk de bottleneck. (hoewel drivers etc. ook wel wat uit zullen maken)
als het echt zo'n grote bottleneck zou zijn, hadden ze dat ook vast wel verdubbeld.

Maar blijkbaar zou de prestatie winst niet opkunnen tegen de extra kosten.
De performance is nagenoeg verdubbeld. Dit zie je echter niet altijd terug door onder andere:
Met zon snelle kaart heb je heel vlug een cpu bottleneck daar verandert een bredere bus niets aan.
De huidige games gebruiken geen van de dx11 features van de kaart, dit zou best een groot verschil kunnen maken.
de kloksnelheid van het nieuwe geheugen is ook hoger. maar inderdaad is het nu eerder een bottleneck als eerst. maar eerst was het ook al geen bottleneck dus ik zie het probleem nog niet. het zou kunnen dat het nu wel een bottleneck is, maar niet per definitie
Nvidia is de maker van de Nvidia kaarten.
Ik denk dat het nog wat te vroeg is om dx11 kaart te kopen. 65% heeft immers nog xp dat maar dx9 ondersteunt. Dus zullen game ontwikkelaars voorlopig geen games maken die dx10 of hoger vereisen. ;)
Nee maar binnenkort komt windows 7 uit en dan verkopen er een hoop pc's daarna hebben we sinterklaas (in nl only :P) en kerst, ook daar kopen veel gasten een nieuwe kaart (en dan uiteraard 1 met een zo hoog mogelijk nummer). Ik heb nog niet zo lang een HD4890 maar als ik het afgelopen half jaar nog niet zou hebben gewisseld had ik zeker voor deze gegaan (wss ga ik ook 2 weken na de launch over, mezelf kennende ;)). Als laatste, er komen wel degelijk games uit die DX11 gaan gebruiken, DIRT2 is er 1 van.
Mensen die losse Pc onderdelen kopen, die laten dat aankoopmoment echt niet afhangen van de Sint of Kerstman, pfft.

December is een maand van presentjes geven, ja, dat is waar, maar geldt dat wel zo enorm voor losse componenten?

Ik kan me voorstellen met complete systemen en laptops, netbooks etc wel, maar losse onderdelen, da's toch wat anders.

"Ja op het verlanglijstje staat een ATI 5870, heeft u die?"
"Nee, maar wel een 9800x2"
"Ooow, dat is een hoger getal, dat zal wel beter zijn, doe die maar."
het kan nog best veel uit maken in de OEM market bijvoorbeeld.
PC met dx11 videokaart klink al gelijk beter als eentje met een dx10 kaart bijvoorbeeld.

hoe dan ook, alles wijst erop dat ook videokaarten veel meer verkocht worden in december, zowel via OEM's als gewoon loss. en het maakt dan ook uit of je op dat moment de snelste en nieuwste hebt. zo werkt het al jaren in ieder geval.

misschien dat nvidia het net gaat halen om een launch te doen voor die tijd, maar ik geloof nooit dat ze dan veel beschikbaar zullen hebben, als ze er al meer hebben als enkel review exemplaren.

[Reactie gewijzigd door Countess op 28 september 2009 22:59]

Fout!

ik heb in mijn jongere jaren vaak genoeg een Videokaart gevraagt van sint (of voor het afstuderen) en dan ben je echt wel duidelijk in wat je wil.
"Ja op het verlanglijstje staat een ATI 5870, heeft u die?"
"Nee, maar wel een 9800x2"
"Ooow, dat is een hoger getal, dat zal wel beter zijn, doe die maar."
Dat is dus gewoon onzin, en ik zou behoorlijk pissed zijn geweest als sint me de verkeerde kaart had gegeven
de enige dx11 kaart beschikbaar bied anders ook een hele goede prijs/prestatie verhouding in dx9 en 10 games in zijn prijs klasse. dus dat hij dx11 is is zeker geen reden om hem niet te kopen.

als je nu een kaart zoekt in deze prijs klasse dan is de hd5870 altijd het overwegen waard.

er zijn idd weinig tot geen games die dx10 eisen, maar ze bieden wel mooiere graphics op dx10 bijvoorbeeld.
straks zal de dx11 ondersteuning in games zowel mooiere graphics kunnen bieden als hogere FPS.

edit @ phes0r : heb je uberhaubt wel gelezen wat ik heb gezegt?
deze kaart bied prima prestaties in dx9 en 10 games voor een goede prijs. dat hij dx11 is doet daar niks aan af. door deze kaart te kopen investeer je JUIST in een goede dx10.1 kaart.!

daarbij de eerste dx9 kaarten en de eerste dx10 kaarten deden het prima in dx9 en 10 games.

[Reactie gewijzigd door Countess op 29 september 2009 10:03]

Er is zeker wel een reden om hem niet te kopen en dat is juist omdat hij DX11 is, je hebt er namelijk helemaal niks aan de komende jaren omdat hij met komende kaarten super slecht presteerd in DX11, wel leuk voor early adopters dit maar je kunt nu beter investeren in een goeie DX10(.1) kaart of even wachten en een beter presterende DX11 kaart halen ;)
Ben het niet met je eens. M'n 8800GTXen presteren anders prima i.c.m. met DX10, hoewel het toch echt 1st gen DX10 kaarten zijn.
Ik zie dan ook geen reden dat dit met de introductie van DX11 kaarten helemaal de andere kant op zal gaan!

[Reactie gewijzigd door jordyvr op 29 september 2009 05:08]

In DX11 spellen hebben DX11 kaarten sowieso een groot prestatievoordeel t.o.v. DX10-kaarten. Je zegt nu dat de eerste generatie DX11-kaarten slechter gaat zijn dan de tweede generatie, maar dat geef je als argument om een nÚg oudere kaart te kopen die hŤlemaal geen voordeel heeft van DX11. Dat klopt dus niet.

Daarbij, zoals hierboven aangegeven, is een nieuwe DX-versie voor een graka serie geen enkele garantie op goede of slechte prestaties t.o.v. de tweede generatie. De kans dat de HD6xxx- en GT400-kaarten beter gaan zijn dan de kaarten van nu, wordt dus niet/nauwelijks beÔnvloed door het feit dat de HD5xxx en GT300 de eerste DX11-kaarten zijn. Als je met dezelfde redenering een GF7000-kaart hebt gekocht om vervolgens de GF9000-serie pas voor DX10 te gebruiken, heb je juist de beste NVidia-serie van de laatste jaren overgeslagen...

Daarbij klopt het ook wat countess zegt. De HD5870 presteert veel beter dan de GT285, ook in DX9/10. En aangezien de prijs niet veel hoger is heeft het dus al een betere prijs/prestatie-verhouding dan de GTX285, nog los van de andere voordelen als DX11.

[Reactie gewijzigd door bwerg op 29 september 2009 15:22]

Dus als jij nu een kaart zou kopen, zou je geen DX11 kaart nemen maar een oude DX10 kaart omdat DX11 toch nog niet in gebruik is

Dat zou wel een erg domme reden zijn, aangezien de DX11 kaart sneller is dan de DX10 kaart (voor zelfde prijs) en je bent nog is beter voorbereid op de toekomst ook
win7 ondersteund dx11 echter wel, en dat is inderdaad een reden voor microsoft om ati-kaarten in windows machines te adviseren. Me dunkt dat amd hier een hele goede troef in handen heeft om de financiŽn wat te laten groeien, en het enige dat nvidia hier tegenover kan zetten is.... Een paper-launch... De die-hard nvidia fans zullen toch niet overstag gaan, maar dat is ook nergens voor nodig, want die-hard fans zijn niet de mensen waarop amd gokt; de meerderheid (resellers van windows 7 machines en prijsbewuste consumenten) zijn vťťl interessanter ;)

[Reactie gewijzigd door Hammer op 28 september 2009 19:09]

Niet vereisen nee, maar wel ondersteunen + de Prestatie winst en betere graphics
Als ze nu nog moeten respinnen geloof ik niet dat de GT300 echt gelaunched wordt. Ik zit dan eerder te denken aan een soort van Paper launch met 20-30 kaarten voor de reviewers die met de hand in elkaar gezet zijn. Met beschikbaarheid eind Q1 2010.
De tape-out van de RV870 was toch ergens aan het begin van de zomer (mei/juni?). Vanaf dat moment duurde het nog bijna 4 maanden voordat de kaart gelanceerd kon worden en het zal nog wel zeker twee weken extra duren voordat ie goed verkrijgbaar is.

Als alles vanaf nu goed loopt bij nVidia kunnen ze pas rond de jaarwisseling samples gaan leveren en missen ze dus zowieso de kerstperiode waarin veel games uitkomen en veel videokaarten verkocht worden.
DX 11 games?

Ik denk het nog niet...
Even je groene bril afdoen Ackermans... De eerste DX11 spellen zijn namelijk al uit!

http://www.anandtech.com/video/showdoc.aspx?i=3643&p=7

Battleforge is net uit, en gebruikt DX11 voor 'High Definition Ambient Occlusion'. In principe kun je dat ook zonder DX11 doen, maar dan kost het gigantisch veel renderkracht. Maar met compute-shaders (gpgpu) is het een peuleschil. Dit is ťťn van de schoolvoorbeelden van het nut van compute-shaders.

STALKER: Call of Pripyat is ook net uit, en gebruikt ook DX11, maar nog niet duidelijk wat precies.

Dirt2 komt in december, en zal volop DX11 gebruiken, inclusief tesselation. Dat wordt een echte showcase game voor DX11.

En begin volgend jaar, zal Aliens vs. Predator komen, met o.a. tesselation en HDAO.


Dat betekent dus dat DX11 nog veel sneller omarmt wordt dan zelfs DX9 !!!
De eerste DX11 komen al vrij snel. Dirt 2 is op de PC DX11. Dit is wel voor de kerst uit ;).

Bovendien ATI heeft nu de snelste single GPU kaart. Dat heeft ook effect op de verkoop van de 'mindere' kaarten van ATI.
Toch extreem verbazend hoeveel mensen er blind op vertrouwen dat de GT300 zo goed zal worden. Terwijl de feiten toch echt een somber beeld vormen.

nVidia:
- nog geen enkele 40nm chip gezien van nVidia,
- geen enkel inzicht in snelheid, warmte, verbruik
- nog geen echte releasedatum

ATi:
- 40nm al een half jaar geleden,
- 4770 van ATI was snel met vrij lage specs, koel, laag verbruik
- release datum was lang bekend en geen enkel probleem om te halen, kaarten waren ruim op tijd bij reviewers

En dan nog het downplayen van DX11 als katalysator voor verkoop.

Dat zijn toch echt feiten en geen geruchten van fudzilla of semiaccurate. Optimisme is leuk. Maar realisme is zoveel beter.
Dit herinnert me volledig aan de release van G80 (GeForce 8800). Toen was ATI ook behoorlijk competitief en NVIDIA liet geen woord los over de specificaties. Ook gingen ze pas een unified architectuur gebruiken "als de tijd er klaar voor was". Uiteindelijk bleek G80 een gigantische sprong vooruit en had het een unified architectuur...

Zowel G92 als GT200 zijn rechtstreeks afgeleid van G80, en de architectuur is dus inmiddels aan het einde van z'n kunnen. Maar er is intussen jaren lang aan GT300 gewerkt en het wordt weer gevaarlijk stil rond NVIDIA.

Het kan werkelijk nog alle kanten op hoor.
Het kan alle kanten op, dus ook keihard naar beneden. Kijk naar hoe de 2900 het deed. Daarij heeft Noel gewoon een punt. nVidia heeft gewoon wat dat betreft een kleine achterstand. Je perfectioneerd een process(40nm) over de verloop van tijd. ATI heeft gewoon een voorsprong door een GPU al op 40nm process te hebben gehad. Dat geeft je een ervaring voordeel. Daarbij komt de HD5870 erg goed uit de verf, men(de reviewers) is er ook niets anders over dan lovend.

Jij noemt het gevaarlijk stil? Ik lees al een maand allerlij geruchten over dat de GT300 er aan gaat komen en dat DX11 geen catalysator gaat zijn(nee maar windows 7 wel voor het verkoop van nieuwe machines(gezien de hype vista = slecht, windows 7 = yay), en laat nu een hoger nummer neer zetten iets zijn waar heel veel OEMs hun klanten op willen paaien(slogans als een XXX kaart met maar liefst 512MB!!!). Koop deze, want deze heeft DX11 wat hoger en dus beter is dan DX10 van de concurent. Koppel daarbij dat de holiday season er aan komt en als nvidia die mist hier door nog meer verkopen misloopt).

[Reactie gewijzigd door Reinman op 28 september 2009 17:03]

Daarij heeft Noel gewoon een punt. nVidia heeft gewoon wat dat betreft een kleine achterstand.
Nonsense. De GT300 is al een jaar of vier in ontwikkeling (net zoals G80 qua design bijna af was toen ik in 2004 bij NVIDIA stage liep). Je kan dan echt onmogelijk van een achterstand spreken. Je hebt geen flauw idee van wat ze momenteel in hun labs hebben draaien.
Je perfectioneerd een process(40nm) over de verloop van tijd. ATI heeft gewoon een voorsprong door een GPU al op 40nm process te hebben gehad.
NVIDIA heeft ook een 40 nm chip: de GT220.
Daarbij komt de HD5870 erg goed uit de verf, men(de reviewers) is er ook niets anders over dan lovend.
Wat die reviewers missen is dat de rekenkracht verdubbelt is maar dat de prestaties slechts 50% hoger liggen. Met andere woorden men laat veel rekenkracht onbenut!

Netto zijn de prestaties ok maar qua efficiŽntie is de HD 5870 een dieptepunt. Het is dan ook helemaal niet ondenkbaar dat NVIDIA met meer bandbreedte en een nieuwe architectuur veel hogere effectieve prestaties kan behalen.
Jij noemt het gevaarlijk stil? Ik lees al een maand allerlij geruchten over dat de GT300 er aan gaat komen en dat DX11 geen catalysator gaat zijn.
NVIDIA gebruikt altijd al zo'n taktiek. Daarmee bereiken ze dat de verkoop van hun huidige kaarten niet onderuit gaat, en creŽren ze twijfel over de kaarten van ATI. Eens GT300 gelanceert is halen ze alle kanonnen boven en is DirectX 11 het warm water heruitgevonden.

Wie de gang van zaken kent negeert dat soort berichten gewoon en focust op de technologische aspecten.
Nonsense. De GT300 is al een jaar of vier in ontwikkeling (net zoals G80 qua design bijna af was toen ik in 2004 bij NVIDIA stage liep). Je kan dan echt onmogelijk van een achterstand spreken. Je hebt geen flauw idee van wat ze momenteel in hun labs hebben draaien.
Dat is helemaal geen nonsense. Jij weet ook niet wat ze gedaan hebben, wie weet hoe veel van hun ontwerp ze hebben moeten schrappen of wat achteraf niet werkt. Dus wat jij claimt raakt kant nog wal. Terwijl wat noel zegt gewoon de feiten zijn als ze er nu liggen.
NVIDIA heeft ook een 40 nm chip: de GT220.
Nog maar een paar week ja. Lang niet zo veel ervaring als ATI dus. = dus achterstand.
Wat die reviewers missen is dat de rekenkracht verdubbelt is maar dat de prestaties slechts 50% hoger liggen. Met andere woorden men laat veel rekenkracht onbenut!

Netto zijn de prestaties ok maar qua efficiŽntie is de HD 5870 een dieptepunt. Het is dan ook helemaal niet ondenkbaar dat NVIDIA met meer bandbreedte en een nieuwe architectuur veel hogere effectieve prestaties kan behalen.
Tuurlijk joh, profesionele reviewers die elke dag reviews schrijven gaan over zo iets triviaals heen. Nee jij veegt alles lekker makkelijk weg dat het bij reviewers gaat om echte prestatie, niet om theoretische kracht. De HD5870 doet het gewoon erg goed voor een launch kaart. Hij komt in de buurt van de X2, waar niet alles van verdubbeld is. Dus zoals jij het stelt is het gewoon niet.

Het is ook niet ondenkbaar dat ze keihard de boot in gaan. 2900.....
NVIDIA gebruikt altijd al zo'n taktiek. Daarmee bereiken ze dat de verkoop van hun huidige kaarten niet onderuit gaat, en creŽren ze twijfel over de kaarten van ATI. Eens GT300 gelanceert is halen ze alle kanonnen boven en is DirectX 11 het warm water heruitgevonden.

Wie de gang van zaken kent negeert dat soort berichten gewoon en focust op de technologische aspecten.
Jij noemt het taktiek, ik noem het een kat in nauw.

En hou eens op met selectief quoten.

[Reactie gewijzigd door Reinman op 29 september 2009 10:01]

Maar waar heb je dan op dit moment of op de korte termijn DX-11 voor nodig?

Het enige product dat op de korte termijn uitkomt dat IETS met DX-11 doet is Windows 7.

Nou, dat is echt een reden om meteen in grote getalen een DX-11 kaart te gaan kopen.
En nogmaals: Het eerste DX11 spel is er al, nog vůůr windows 7. En ook dirt2 komt nog dit jaar met DX11. Dat was niet zo moeilijk om te vinden...

En jij koopt alleen voor op de korte termijn? :S Er staan al een aantal spellen voor begin 2010 op de DX11-lijst. Is het te ver vooruit gedacht om daar alvast een kaart voor te kopen? Een graka mag toch wel een half jaar meegaan dacht ik zo...

[Reactie gewijzigd door bwerg op 29 september 2009 15:17]

Nee, maar als je dan toch een nieuwe computer koopt, zoals zoveel mensen rond de kerst, of vanwege de lacering van Windows 7, dan zal het een computer zijn met een DX11 kaart zijn.
Dan ben je klaar voor de toekomst en heb je een van de snelste kaarten op de markt voor een concurrerende prijs.
Ik ben benieuwd of ze hierdoor nog concessies moeten doen. Zoals het eruit zag wilde de GT300 op 40nm niet echt lukken en ook DX11 niet, dus ik vraag me af of ze iets veranderd hebben (de GPU kleiner gemaakt of iets dergelijks) om toch nog snel met een concurrent voor de HD5800 op de proppen te komen. Als het wťl gewoon goed ging had NVidia dit al lang laten weten, ze willen niet dat Ati alle aandacht krijgt.
die verhalen zijn onzin: http://www.fudzilla.com/content/view/15689/34/

halverwege oktober begint de massaproductie van de GT300: http://www.fudzilla.com/content/view/15688/34/

[Reactie gewijzigd door gbh op 28 september 2009 14:03]

Zegt de Nvidia-meneer plotseling NA launch van de HD5870.

Dit is gewoon een verkapte vooraankondiging van een paper-launch om klanten bij ATI weg te houden...
En wat als die verhalen nu eens echt onzin zijn? Of past dat niet in het ATI verhaal?
En wie spreekt over een paper lauch? De laatste die ik gezien heb is deze van de HD5870.
De HD5870 is bij veel mensen al binnen of heeft een levertijd van minder dan twee weken, als je dat een paperlaunch noemt...

Als die verhalen onzin waren dan had NVidia dat al lang aangekondigd. Het past helemaal niet in hun marketingsstrategie om goed nieuws nžet van de daken te schreeuwen (logisch ook). Het feit dat ze niks van zich laten horen en het goede nieuws rond Ati proberen tegen te gaan met nikszeggende persconferenties over Physx geeft mij aan dat er op zijn minst žets niet lekker loopt rondom de GT300. Vandaar dat ik me afvraag waarom het nu ineens wŤl loopt zoals ze willen.

Zoals Reinman hieronder zegt: ze hebben nog helemaal niks laten zien. Woorden zeggen niks als het van een groot bedrijf met PR-afdeling komt, gťťn woorden zeggen dan wel iets.

[Reactie gewijzigd door bwerg op 29 september 2009 13:16]

October, ik dacht het niet. Denk eerder aan begin 2010.

http://www.semiaccurate.c...dia-gt300-yeilds-under-2/
als je de eerste link leest zie je dat dit verhaal niet klopt
Enige wat ik daar lees is dat Nvidia zijn PR machine hard aan het werk is. Ik heb nog nergen stukken werkend silicon gezien, wat ook nog productie waardig is. Misschien dus iets critischer zijn. De yields kunnen nog steeds niet echt goed zijn ondanks dat de PR zegt van wel. Wat ook logisch is, als jij zegt dat je nieuwe vlaggenschip later is en slechte yields heeft, is dat niet goed voor je bedrijf. Je aandelen kelderen en je klanten gaan naar de concurrent omdat die wel wat te bieden heeft.
Maar je gaat er wel vanuit dat het artikel van semiaccurate waar is terwijl dat afkomstig is van de grootste nvidia basher die er te vinden is op internet. Willekeurig artikel van Charlie wat over nvidia gaat is een grote hoop negativiteit. Problemen met produktie, te groot, te warm, begin 2010 gaan ze niet eens halen. Moet je zo iemand geloven?
October, ik dacht het niet. Denk eerder aan begin 2010.

http://www.semiaccurate.c...dia-gt300-yeilds-under-2/
Jezus, dat nog naar semi accurate verwezen wordt. Hoe dom is dat wel niet. Charlie is de grootste FUD verspreider die er bestaat. Hij heeft het quasi nooit bij het rechte eind.
Charlie is zeker een van de insiders die de grootste hekel heeft aan nVidia. Dat maakt zijn verhalen echter nog niet gelijk aan fud. Zijn laatste artikel geeft toch aan dat hij goede bronnen heeft hier en daar.
eerst gaan ze roepen directx 11 is voorlopig niet zo bijzonder wacht maar nog even

nieuws: Nvidia: DirectX 11 geen impuls voor verkoop videokaarten

nu ineens ati ze heeft komen ze ook dit jaar er nog mee en lijkt de gt300 wederom een haast klus te worden

wat is er aan de hand bij NV
ze plukken nu de vruchten van het uitmelken van de 8800 serie

[Reactie gewijzigd door wippo76 op 28 september 2009 13:39]

Ik denk dat die uitspraak voornamenlijk te maken heeft met 'afzwakken' van het succes van AMD/ATI, aangezien zij nu de enige zijn van een DirectX 11 kaart probeert NVidia iedereen wijs te maken dat er niet toe zou doen... tenminste, niet zolang er nog geen NV DX11 kaart is natuurlijk :+
Hmmmm, ik denk eigenlijk wel dat nVidia met hun uitspraak een goed en correct punt heeft.

Ze zeggen niet DX-11 is niet belangrijk, ze zeggen het is geen argument voor de kopers nu om over te stappen.

En dat klopt.

Zijn er al full DX-11 games aangekondigd op de korte termijn, dus voor eind dit jaar? Nee.

Is er IETS dat DX-11 gebruikt, naast Windows 7, dat voor het einde van dit jaar te koop zal zijn aangekondigd?
Nee.

Dus voor de gebruiker is DX-11 op dit moment inderdaad totaal niet interessant.

Zelfs nu ben je nog niet verplicht een DX-10/10.1 kaart te hebben omdat nog geen enkele game zowat, DX 10/10.1 ONLY is, alle games draaien prima op DX-9.

En DAT is een keihard en heel goed argument van nVidia, het geeft aan dat ze zich niet gek laten maken om ZSM een DX-11 kaart uit te brengen, met de kans op dezelfde problemen als die ze hadden bij DX-9.
Je vergeet een ding. Bovengemiddeld veel mensen gaan dit kwartaal een nieuwe computer aanschaffen. Dit omdat Windows 7 gelanceerd wordt en de kerst komt er aan.

Als je dan toch een nieuwe computer koopt, koop je natuurlijk liever een kaart die klaar is voor de toekomst (DX11) dan een die dat niet is. Alleen al daarom zal NVidia veel marktaandeel verliezen.
Als je dan toch een nieuwe computer koopt, koop je natuurlijk liever een kaart die klaar is voor de toekomst (DX11) dan een die dat niet is. Alleen al daarom zal NVidia veel marktaandeel verliezen.
Ik denk dat jij ook een ding vergeet; bovengemiddeld veel mensen gaan jou stomverbaasd aankijken wanneer je over DirectX begint (laat staan versie 11).

"Dijrekt X... wat is dat? Is dat een spel ofzo?".

Verder zal de gemiddelde verkoper jou vertellen dat het betreffende PC'tje, met een midrange kaart, prima in staat is om een spelletje mee te spelen.

Nee, het overgrote deel koopt geen high end PC, maar een standaard instap-model van een paar honderd euro (waar natuurlijk geen VGA kaart inzit die opzich al een paar honderd euro kost).
En de mensen die zich een high end PC hebben laten aansmeren (en zelf weinig kennis hebben van hardware), weten niet eens de mogelijkheden zijn van dat ding, maar ze hebben wel "Het Beste van het Beste!"...
Zucht...

Het effect dat ik beschrijf bestaat, hoe je het ook wendt of keert voor een niet te verwaarlozen deel van de pc-kopers. Dus vindt er een marktverschuiving plaats dit kwartaal. Verreweg de meeste verkochte high- kaarten, dus met hoge marges, zullen ATI kaarten zijn.

Natuurlijk zullen er altijd meer mensen zijn die een goedkoop pc'tje met integrated videokaart kopen, dat is altijd zogeweest. Waar het hier om gaat is de verschuiving in de markt in bepaalde segmenten. NVidia gaat dit voelen in de marges, die toch al klein waren gezien NVidia's relatief grote chipoppervlak.
Is dit zo moeilijk om te begrijpen?
Nou nou, geen enkele reden om zo denigrerend te doen...

Waar jij waarschijnlijk moeite mee hebt om te begrijpen is dat de high-end kaarten een klein deel van het totale marktaandeel betreft.

Intel heeft het grootste GPU marktaandeel, terwijl er erg weinig tot geen losse VGA kaarten te koop zijn met een Intel chipje. Ergo: Intel heeft het grootste marktaandeel door zijn onboard GPU's.

En dan ga jij mij vertellen dat nVidia veel marktaandeel gaat verliezen omdat ze geen DX11-kaarten in hun aanbod heeft komende Kerst...?

Misschien iets (paar tiende procenten), maar niet "veel".
Tja de kerst, ik vraag mij af of dat nou echt zo'n enorme explosie in de high-end kaarten verkoop zal veroorzaken. Ik denk dat Ati er goed aan doet gauw een 5670je neer te zetten. En nVidia er goed aan doet om rustig tot na 2010 te wachten en gewoon een goed product neer te zetten, een vertraagde bestelling met kerst lijkt me namelijk niet goed voor je imago.
Dat is een algemeen bekend 'seasonal effect'. Iedere PC bouwer, alle oems weten dit. Dit seizoens effect is in de cijfers van alle grote chipfabrikanten terug te vinden.

Het is misschien geen 'explosie' maar wel een niet te verwaarlozen significante piek in de verkoop. Het is niet voor niets dat een heleboel fabrikanten hun uiterste best doen om er voor te zorgen dat hun nieuwe producten in november in de schappen liggen.

De hele situatie is erg slecht voor Nvidia, dat realiseren ze zich maar al te goed, vandaar dat je ze de komende tijd vaak in de pers zult horen met uitspraken als dat DX11 niet belangrijk is en Cuda en PhysX wel. Pure damage control.

NVidia doet er goed aan niets te overhaasten en een goed product te maken. Maar het missen van het holiday season is niets minder dan een ramp, zowel financieel als marketingtechnisch.
Als ik mij niet vergis is DiRT2 1 van de eerste spellen die met DX11 overweg kan en die komt toch echt ergens in oktober/november uit. Daarom zitten bij de meeste 5870's ook al voucher voor het spel.
Eigenlijk is dit het aloude kip of ei verhaal:

Zonder de benodigde hardware die DX11 ondersteund zal er geen software danwel games worden gemaakt en vice versa.

Daarnaast laat dit ook de macht zien van hardware giganten als NVidia
Zelfs nu ben je nog niet verplicht een DX-10/10.1 kaart te hebben omdat nog geen enkele game zowat, DX 10/10.1 ONLY is, alle games draaien prima op DX-9.
Waarom iets nieuws op de markt zetten als je je huidige productlijn / ontwikkeling nog uit kunt melken. Dit maakt je ROI nog beter en geeft meer budget voor R&D op nieuwe productlijnen.

De enige echte impuls tot verbetering en uitbrengen van nieuwe productlijnen is het stuivertje wisselen met je concurrent. Lang, heel lang heeft NVidia alle benefits gehad van de 8800 serie en had ATI hier geen antwoord op, dit kwam met de 48xx reeks en lag ATI weer aan kop. Nu is het weer tijd voor NVidia om de kroon te pakken.

Of het nou is om mensen lekker te maken, aankopen uit te stellen of AMD/ATI de draak te steken, ze zullen wel moeten willen ze een antwoord hebben op de 5xxx reeks van ATI.
Battleforge heeft zijn DX11 patch al beschikbaar, dus de eerste titel die dingen van DX11 gebruikt (in dit geval compute shaders ten behoeve van fps-winst) is er al. Daarnaast, zoals gemeld, is er Dirt 2 voor dit jaar en Stalker dit jaar in sommige landen en begin 2010 in het westen.
Begin 2010 zal het waarschijnlijk echter nog altijd heel erg moeilijk zijn om een GT300 te bemachtigen, laat staan voor een 'schappelijk' prijsje.

Overigens, waarom zijn ze nu niet zo gek om snel even een DX11 kaart te maken die 'niet nodig is', terwijl ze wel hun best hebben gedaan om hun G80 zo snel mogelijk klaar te hebben voor een DX10 die echt nog niet nodig was op dat moment.

Vergeet niet, DX11 is een continuering van DX10(.1), beschikbaar op Windows Vista en Windows 7. Waar DX10 niet alleen beperkt werd tot Vista, was het betreffende mogelijkheden ook eigenlijk amper beter dan DX9, zoals we hebben kunnen zien. DX11 heeft echter wezenlijke verbeteringen die game-development gemakkelijker maakt, maar ook de mogelijkheden enorm vergroot.

[Reactie gewijzigd door dahakon op 28 september 2009 19:54]

Begin 2010 zal het waarschijnlijk echter nog altijd heel erg moeilijk zijn om een GT300 te bemachtigen, laat staan voor een 'schappelijk' prijsje.
Bron? Linker of rechterduim?
Zijn er al full DX-11 games aangekondigd op de korte termijn, dus voor eind dit jaar? Nee.

Is er IETS dat DX-11 gebruikt, naast Windows 7, dat voor het einde van dit jaar te koop zal zijn aangekondigd?
Nee.
Je hebt geen idee waar je het over hebt zo te zien. Er is nu al een DX11 spel.

Overigens ben ik het met je eens dat DX11 nog geen grote verschuiving van marktaandelen teweeg zal brengen en DX10 nog best lang mee zal gaan. Maar voor high-end gamers is het echt wel een argument om een HD5xxx te kopen, om nu een kaart te kopen die binnenkort al niet alle functies van een spel aankan is voor een high-end gamer niet aan te zien... (nouja, binnenkort... nu dus al)

Moet je voor de gein eens artikelen van NVidia teruglezen van vroeger, toen zij juist de eerste waren met een nieuwe DX. Man, zonder die DX viel volgens hun toen niet te leven... Ze waren ook lyrisch over DX10, wat achteraf een flop is geweest en zich naar mijn idee ný al overschaduwd wordt door de verbeteringen van DX11 (om over de 30% perfomance maar te zwijgen die je krijgt als je de DX11-patch op battleforge gebruikt met een DX11-kaart)

Zo te zien heeft de marketingafdeling je flink te pakken...

[Reactie gewijzigd door bwerg op 29 september 2009 13:43]

En DAT is een keihard en heel goed argument van nVidia, het geeft aan dat ze zich niet gek laten maken om ZSM een DX-11 kaart uit te brengen, met de kans op dezelfde problemen als die ze hadden bij DX-9.
Nou als ik deze TS lees (nieuws: 'Nvidia's GT300 komt nog dit jaar'), lijken ze wel aandacht eraan te schenken :P
klopt gewoon niet.. je kan niet zomaar alles een beetje door de tesselator heen gooien, dan krijg je troep. Elke 3d artist kan je uitleggen wat er gebeurd als je dat probeert op willekeurige modellen.
Mee eens, NVIDIA zou zichzelf flink in de vingers snijden met een halfbakken product. Daarbij geloof ik niet dat NVIDIA nu erg bang wordt van de performance van de HD5870. Bezitters van een GTX295 of een andere GTX (260/275/280/285) in SLI of Tri-SLI zullen niet snel naar de winkel rennen voor een nieuwe ATI kaart.
En natuurlijk wil NVIDIA wel graag voor het einde van het jaar de nieuwe kaarten willen verkopen. De feestdagen staan zo weer voor de deur...
Mee eens, NVIDIA zou zichzelf flink in de vingers snijden met een halfbakken product.
Ehh, die leveren ze wel vaker dan je lief is.
Wat dacht je van de mobile 8 series, hoeveel % gaat hiervan dood? Helft misschien?
En wat dacht je van de 8800GTX/Ultra en 8800GTS 320MB en 640MB waarvan grote getalen ermee ophouden na zo'n 2 jaar, natuurlijk net na de garantie.
[...]

Ehh, die leveren ze wel vaker dan je lief is.
Wat dacht je van de mobile 8 series, hoeveel % gaat hiervan dood? Helft misschien?
Onzin ... is opgelost. Nieuwe bios en klaar.
En wat dacht je van de 8800GTX/Ultra en 8800GTS 320MB en 640MB waarvan grote getalen ermee ophouden na zo'n 2 jaar, natuurlijk net na de garantie.
Ja het is 1 groot complot waarbij NVIDIA iets in die kaarten heeft gestopt waardoor ze net na de garantie allemaal stuk gaan!
Zie je zelf hoe belachelijk dit klinkt?

[Reactie gewijzigd door aval0ne op 29 september 2009 11:27]

Nieuwe bios en je soldeerwerk doet het weer? De enige goede oplossing is om je graka tien minuten in de oven te doen op 200 graden.
Ja het is 1 groot complot waarbij NVIDIA iets in die kaarten heeft gestopt waardoor ze net na de garantie allemaal stuk gaan!
Zie je zelf hoe belachelijk dit klinkt?
Fail
En op laptops met een 8x00M chip is de garantie verlengd omdat laptop-fabrikanten, en zelfs NVidia zelf, de productiefout in de GPU's gewoon erkennen. Dan staat het toch wel vast.

Dat NVidia de duivel is en Ati heilig, ga ik niet zeggen en zou ook onzin zijn. Maar je wuift gewoon alle kritiek op NVidia weg. Of je kent dat topic niet, dan kijk je nooit in de probleem-topics want het heeft de afgelopen weken continu bovenaan gestaan en de 8600M is ook veelbesproken. Hoe kan je dan met zekerheid zeggen welke producten er kwalitatief goed zijn en welke problemen er zijn?

[Reactie gewijzigd door bwerg op 29 september 2009 15:16]

Hier hetzelfde gehad, ding kapte er gewoon mee.

Dit maal eens voor een ATI kaart gegaan, er is zowieso niks mis mee na alle reviews gelezen te hebben. Maar de echte slag moet natuurlijk nog komen.
Als de respin klaar is en helemaal top zit je al half november. Lijkt me sterk dat er dan binnen 4 weken kaarten in de winkel liggen. Die gaan het holiday season missen. En als ATI dan wel een 5870-X2 heeft gaat er flink geschoven worden met marktaandelen denk ik.
En als ATI dan wel een 5870-X2 heeft gaat er flink geschoven worden met marktaandelen denk ik.
Mwah, beetje wishful thinking, denk je zelf ook niet... ;)

Zo'n vaart zal het niet lopen, mensen gaan niet massaal een 5870(-X2) kopen omdat nVidia geen waardige tegenhanger heeft. Veruit het overgrote deel van de markt koopt een prefab PC'tje met whatever erin zit. Deze groep mensen/bedrijven heeft dan ook invloed op het marktaandeel, en niet een groepje tweakers die voor performance gaan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True