Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties

De introductie van Nvidia's volgende generatie gpu's en videokaarten zou vertraging hebben opgelopen. De Kepler-gpu's, die volgens een kleiner lithografisch procedé gemaakt worden, zouden niet volgens de planning geleverd kunnen worden.

De opvolger van de huidige gpu's uit de stal van Nvidia dragen de codenaam Kepler en zouden in de tweede helft van 2011 geproduceerd moeten worden volgens de originele roadmaps. De productiepartner van Nvidia, TSMC, zou echter problemen ondervinden bij de overstap naar een kleiner productieprocedé: de zogeheten yields, of de werkende chips per wafer, zouden tegenvallen. Bovendien zouden de prestaties van de op 28nm geproduceerde chips lager uitvallen dan verwacht, zo meldt Digitimes, dat zich op bronnen bij videokaartfabrikanten baseert.

Volgens de Nvidia-ceo Huang Jen-hsun volgt zijn bedrijf nog altijd de voorgestelde roadmap: eind 2011 moeten de 28nm Kepler-gpu's verschijnen. Volgens de videokaartfabrikanten zou Nvidia ook de roadmap voor de volgende generatie, Maxwell, hebben aangepast. Die chips zouden niet in 2013, maar pas in 2014 moeten verschijnen. Beide opvolgers van de huidige 40nm-generatie zouden aanzienlijke verbeteringen in de prestaties per watt moeten vertonen.

Taiwan Semiconductor Manufacturing Company maakt niet alleen chips voor Nvidia, maar heeft ook Qualcomm en AMD als klant. De 28nm-producten van AMD, de volgende generatie videokaarten met codenaam Southern Islands, staan gepland voor de eerste helft van 2012. Ook de volgende generatie Fusion-chips voor het Brazos-platform, 28nm-opvolgers van Zacate en Ontario met de codenamen Krishna en Wichita, moeten pas in 2012 verschijnen.

Qualcomm heeft evenwel zijn aankomende generatie soc's voor smartphones, de zogeheten Krait-architectuur, nog steeds voor eind 2011 in de planning staan. Wellicht zijn de yields en prestaties van TSMC's 28nm-procedé voor Qualcomm's producten wel acceptabel, of zijn de claims over vertragingen schromelijk overdreven.

Moderatie-faq Wijzig weergave

Reacties (75)

De 28nm-producten van AMD, de volgende generatie videokaarten met codenaam Southern Islands, staan gepland voor de eerste helft van 2012.
Dat hangt af van welke berichten je leest, als we bijvoorbeeld kijken naar SemiAccurate, die het inderdaad vaak bij het verkeerde eind heeft, maar ook vaak goed geinformeerd is:

http://semiaccurate.com/2...uthern-islands-tapes-out/

Dan zijn de Southern Island tapes al klaar en stond produktie geplant voor rond deze tijd in Q2'2011. Ze lopen dus dezelfde vertraging op als nVidia. Het zou ook gek zijn als er opeens een 6 maand verschil tussen zat, terwijl de laatste drie generaties AMD elke keer eerder op de markt kwam dan nVidia.

Ze doen het bij AMD namelijk iets slimmer, door een trager model met een kleine 'die' eerst op een nieuw process te maken. Het is dan namelijk veel gemakkelijker om fouten op te sporen en de ontwikkeling te verbeteren. Bij de HD4000 series was dat de HD4750 met codenaam RV740, terwijl de RV770 op 55nm werdt gemaakt. Het RV740 ontwerp was echter een gestripte versie van het RV770 ontwerp, waar AMD al ontzettend veel ervaring mee had.

De HD5000 series zou een zelfde verkleining halverwege doorgaan, maar door dus de problemen bij TMSC met 32nm SOI is dat dus afgekitst. In plaats daarvan is er besloten om dan maar meteen naar 28nm te gaan. Dat ging echter langer duren, dus toen heeft AMD het ontwerp van de HD6000 ook op 40nm gedaan.

Nu heeft TMSC ook wat vertragingen met 28nm, maar AMD heeft nog een ander voordeel en dat is dat Global Foundries ook druk bezig is en die heeft namelijk ook 28nm SOI op de planning staan. Fab 1 in Dresden doet nu al 45nm, 40nm en 28nm HKMG en heeft de produktie dit jaar verhoogt naar 80,000 wafers per maand. Dat is ook de Fab waar de 22nm produktie wordt gestart voor de Bulldozer CPUs. En bij module 2 van Fab 1 zijn ze ook bezig met 28nm LP Bulk wat voor GPUs gebruikt kan worden. Bij Fab 8 zijn ze ook druk bezig om de produktie uit te breiden, en die komt op 60,000 wafers per maand te liggen als alle uitbreidingen af zijn in 2013. Echter GlobalFoundries ligt voor op schema en dat zou eventueel al in 2012 kunnen zijn.

Ze zijn ook al met 20nm ontwikkeling bezig, en de vertraging die AMD altijd had op Intel qua produktieproces begint zeer snel te slinken; wat de concurrentie alleen maar beter maakt. Intel was meer dan een jaar eerder met 32nm, en de extra winst die dat oplevert is gewoon enorm, zowel qua formaat doordat je meerdere dies per wafer kan snijden, maar ook door snellere+efficiëntere ontwerpen.

AMD heeft onverwacht beter resultaat met Brazos en Llano dan gecalculeert, dus de Dresden Fab 1 is vooral met 28nm HKMG bezig, maar 28nm LP bulk ligt nog steeds op het originele schema van 2011. Dus daarom is het zo gek dat er over 2012 wordt gepraat voor de Southern Island serie. Het kan echter dat ze het over bepaalde top modellen hebben, want het wordt natuurlijk weer een gefaseerde uitgift, waarbij vermoedelijk eerst de HD7850 en HD7870 zullen verschijnen die dan later zullen worden uitgebreidt met de HD7950/HD7970 modellen en daarna de ondermarkt.

Fab 2 in Saratoga, New York ligt trouwens ook voor op schema, en stond oorspronkelijk voor 2012 op de plannen. Die wordt meteen gereed om 22nm/28nm produktie te maken met een beginnende produktie van 35,000 wafers per maand. Fab 2 zit tevens dicht in de buurt van de College of Nanoscale Science and Engineering universiteit in Albany waar ze een alpha EUV machine hebben voor onderzoek naar lithografie kleiner dan 20nm. AMD/GlobalFoundries werkt dus niet alleen samen met de universiteit in dit onderzoek, ze krijgen er meteen een gemakkelijke influx van nieuw personeel bij van via de studenten die klaar zijn met school.

En het is natuurlijk niet alleen AMD die voordeel behaalt uit GlobalFoundries, die staan namelijk ook open om voor nVidia te produceren. Of ze daar bij nVidia in het begin happig op zijn is natuurlijk afwachten, maar er zal eventueel een moment komen waarbij er weer produktie problemen bij TMSC optreden en nVidia eventueel geen andere keuze heeft.
Jammer, maar inmiddels niet zo erg meer? GPU zijn inmiddels zo krachtig geworden dat de huidige generatie GPU voor 90% van de markt voldoet. Uiteraard moet je blijven door ontwikkelen en nieuwe modellen uit brengen. Anders loop je zo achter. Maar wat ik bedoel is dat Nvidia tegenwoordig makkelijker zijn GPU kan uitstellen dan zeg een jaar of twee geleden. Toen zaten ze in een oplaaiende strijd met ATI om de gunsten van de gamers. Ik heb het idee dat die strijd een beetje geluwd is. Wie de winaaar is? Geen idee.

Eigenlijk is de strijd om de GPU gestopt door de markt en de marktbeweging. ATI is overgenomen door AMD en die zijn zich de laatste jaren gaan richten op de Fusion SoC, Nvidia heeft zijn blik gericht op de Tegra markt. Hun core idee, het concurreren met ATI op de GPU markt is weg. (grotendeels)

Ik ben eigenlijk best benieuwd naar hoe de verdeling voor Nvidia is. Hebben ze zich als bedrijf omgevormd naar de mobiele SoC markt, of blijft de GPU hun core business. Dit is een keuze die je als mangement kunt maken, maar die keuze kan ook gemaakt worden voor je bedrijf, door de markt. Indien blijkt dat Nvidia meer winst haalt uit de SoC markt, is dat je toekomst als bedrijf.

Ik denk dat de SoC enorm klein is en niet meer dan een paar procent van de GPU verdiensten zijn, maar daar Nvidia Apple als gebruiker heeft verloren, AMD ATI gpu en Intel hun eigen GPU integreert blijft er geen hoog volume markt meer over. Alleen stand alone GraKa. De winst marges zijn ook anders bij SoC als bij de GPU.
Jammer, maar inmiddels niet zo erg meer? GPU zijn inmiddels zo krachtig geworden dat de huidige generatie GPU voor 90% van de markt voldoet

Onzin, een gpu koop je (net als vroeger) primair voor gaming... en bij gaming is sinds sandy bridge de gpu weer hard nodig. Ik ben zelf nog geen game tegengekomen die mijn gtx460 @ 900/2000mhz niet op 99% @ 1680x1050 laat werken. Genoeg verbetering mogelijk dus in het €150-€200 segment. Daarnaast gaan de ontwikkelingen door, Rift op ultra geprobeerd? Battlefield 3 al gezien?

Mbt de rest van je verhaal, kijk eens in je jaarverslagen naar de omzet van Nvidia... Ze zijn echt niet omgevormd naar een SoC bedrijf. Tevens zijn de Radeon kaarten juist sterker gaan concureren met Nvidia, kijk eens naar de netto winstmarges van de afgelopen jaren..., die zijn flink gedaald. Het marktaandeel van Nvidia lijkt ook te dalen (zeker nu met Direct X 11> http://store.steampowered.com/hwsurvey/videocard/ ). "Vroeger" had Ati namelijk vaak de dure kaarten (denk aan 5900xt tijd) terwijl ze sinds de overname van AMD eigenlijk vrijwel altijd de voordeligere aanbieding hebben.

Daarbij lijkt het erop dat je de ontwikkeling van tesselation hebt gemist... ( http://www.youtube.com/watch?v=sQQpCd_vvGU ) De gpu markt is juist concurerender dan ooit, zeker nu Intel aan de onderkant van de markt steeds dichterbij komt met hun cpu-gpu's.

[Reactie gewijzigd door sdk1985 op 9 juli 2011 12:59]

Ik heb idd een hoop gemist. Ik game al een jaar of 2 niet meer.

Maar wat ik me afvraag: Intel en AMD hebben allebei een geïntegreerde CPU/GPU oplossing in de x86 markt.

Binnen twee jaar zijn die snel/sterk genoeg om alle spellen in een hoog genoege resolutie te spelen. Misschien niet de hoogste resolutie, maar dat is niet belangrijk voor de meeste mensen.
Met andere woorden: de hele low en mid-range GraKa worden overgenomen door Intel en AMD. En daar haalt Nvidia juist zijn markt aandeel en opbrengsten. Veel mensen denken dat er juist in de high-range geld wordt verdient, maar die markt is zo klein, daar valt niet zoveel te verdienen, en geld voornamelijk als image booster.

Het moment dat dat gaat gebeuren komt eraan. Je blijven vast houden aan een computer markt is dodelijk voor een bedrijf. Het hele gebeuren van tessalation enz enz enz, ziet er fantastisch uit. Maar er moet een hoop geld in geïnvesteerd worden. Geld dat alleen verdient kan worden in de low en midrange markt.
"Binnen twee jaar zijn die snel/sterk genoeg om alle spellen in een hoog genoege resolutie te spelen"

Nu kom je weer met een zogenaamd feit wat eigenlijk nergens op gebaseerd is....

Heb je weleens naar benchmarks van de huidige cpu/gpu's gekeken? Far Cry 2, game uit 2008 (dus 3 jaar oud):Intel 7 frames per seconde op 1680x1050, AMD 23 frames per seconde op 1680x1050. Dat is dus volstrekt onspeelbaar... reviews: Fusion cooking: AMD's Lynx getest

Als ik je feit even als stelling op vat dan gaat deze onderuit:
-huidige integrated gpu oplossingen lopen minstens 4 jaar achter aangezien een 8800gt (2007) sneller is dan de huidige integrated oplossingen
-huidige dedicated gpu's hebben hun handen vol aan moderne toepassingen waardoor het simpel weg niet mogelijk is dit in de cpu te integreren (immers zon kaart is niet voor niks 22 cm lang met 2x 8 pins aansluitingen voor 2x 150w+1x 75W).

Het hele gebeuren van tessalation enz enz enz, ziet er fantastisch uit. Maar er moet een hoop geld in geïnvesteerd worden
Tesselation bestaat al, zit in dx11 kaarten zowel van AMD als Nvidia en wordt ook al gebruikt in enkele games. Daarnaast is tesselation niet de enige ontwikkeling zo zijn er ook nog zaken als ambient occlusion en wordt een gpu ook gebruikt voor cpu zaken (Physx, CUDA, renderen van films, etc).

Geld dat alleen verdient kan worden in de low en midrange markt.
Tesselation zit ook op de (low en ) midranged kaarten..., het is een onderdeel van de Direct X 11 standaard. Mooie van deze standaard is dat tegenwoordig alles "moet" terwijl vroeger van alles "mocht".

Moraal van het verhaal, ontwikkelingen gaan door. Een quadcore was in 2007 nog onzinnig voor gaming, nu kun je niet meer zonder. Net als je denkt dat er geen rek meer in zit (Marc Rademakers van tweakers.net maakte vorig jaar deze fout, sdk1985 in 'reviews: Fusion cooking: AMD's Lynx getest') dan is er weer vooruitgang. Dit is natuurlijk geen toeval, zo heeft Intel bijvoorbeeld de doelstelling om de wet van Moore na te leven.

ps als je een indicatie wilt van waar waar nvidia de meeste omzet heeft gemaakt in aantallen, dan is steam stats een goede indicatie; 9800, 8800 en gtx260 zijn de echte succes nummers. Allemaal kaarten van rond de 200 euro. http://store.steampowered.com/hwsurvey/videocard/ .

[Reactie gewijzigd door sdk1985 op 9 juli 2011 20:53]

Beetje onzin, geïntegreerde gpu\cpu staat in zijn kinder schoenen. Je denk werkelijk waar dat dit binnen 2 jaar mainstream is? geloof er niks van. Kijk eens naar Battlefield 3, deze speelt op een single gtx 580 en dan nog niet eens op max. Als je ooit eens een gtx580 gezien hebt weet je dat deze bijna een halve meter lang is, een kilo weegt en een eigen powerplant nodig heeft om zich van de juiste stroomvoorziening te voorzien. ( exaggerated ofc) Nee, dat gaat nog minimaal 5 jaar duren als het niet langer is. (voor beetje normaal gamen)

Naar de business kant gekeken is dit uiteraard een ander verhaal, echter werken wij al jaren met pc's met geïntegreerde videokaart, zo speciaal is dat dus niet. Of het moet een enorme prijs verlaging opleveren tov de huidige pc;s maar dat zie ik niet snel gebeuren.

Tevens zie ik dat hele all in one met tegenzin tegemoet, mag ik straks mijn cpu gaan vervangen als ik een nieuwe videokaart wil?
Gamen is niet noodzakelijk een spel op de hoogst mogelijke instellingen spelen. De kleine groep die die eis stelt is dusdanig marginaal dat daar niet het meeste geld te halen valt, nee, het meeste geld is nog steeds te halen in de low en midrange. En daar zit het probleem met het integreren van GPU's in CPU's voor nVidia, op dit moment bevinden de geintegreerde GPU's zich al in dezelfde markt als de goedkopere en minder snelle videokaarten. En eerlijk gezegd zou het me niets verbazen als de prestaties van de CPU/GPU-combinaties de komende paar jaar steeds verder optrekken naar die van midrange videokaarten. Dan is het voor af en toe eens een spelletje niet meer nodig om een losse videokaart aan te schaffen, juist in het marktsegment waar veel te verdienen valt.
Nou nee AMD loopt achter op CPU gebied en weet dat dus om zich toch te onderschijden doen ze eer een 400 shader ding in.
Dus IGP bij AMD heef midrange regionen behaald ipv ultra - low budged performance wat iNtel leverd. Daarbij reking houden dat iNtel ook vooruit gegaan is met IGP power DX10.1 Maar AMD DX11 leverd maar dan met wat meer rauwe power.

Will je goedkoop game capable instap PC is een APU platform van AMD de A8 een goede keuze.
Aangezien het aantal high-end graphics games zijn afgenomen de laatste jaren en de ontwikkelingen verder redelijk stilstaan (consoles) is het toch echt een kleinere markt geworden waar de afschijvingstermijn van videokaarten langer is geworden.
Ik heb het gevoel dat de strijd nog volop bezig is. Hun kaarten zijn nu bijna exact evenwaardig qua price/performance/watt waardoor ze op dit moment enkel met 3d en eyefinity zich kunnen verkopen. Ze hebben de nieuwe generatie kaarten dus nodig om "the edge" te krijgen. Vooral AMD. Voor zover ik zie gaan computerwinkels eerder naar Nvidia neigen als beide kanten gelijk staan. Met de 5xxx reeks was AMD overduidelijk de beste en hebben ze enorm veel marktaandeel kunnen pakken. Als ze nu weer een half jaar voor Nvidia hun nieuwe kaarten kunne shippen gaat Nvidia nog meer marktaandeel verliezen (totaal was 65-35 voor Nvidia dacht ik, maar 50-50 qua DX11 kaarten). Het gaat er inderdaad nu even iets minder hard aan toe, maar een jaar of 2 geleden was het een bikkelharde strijd om als eerste met DX11 te komen.
Was ook wel te verwachten, dit soort procedé-jumps zorgen altijd voor problemen.
Alleen wel hopen dat de concurrentie niet al te ver voorop raakt hierdoor.
Bij TSMC wel ja... Bij 40nm waren er ook al problemen die AMD nog goed wist op te vangen maar die bij NVidia ook voor grote vertragingen zorgden. 32nm stond voor GPU's ook op de planning bij TSMC maar die werd gecancelled, 28nm loopt vertraging op en is niet zo efficiënt als de bedoeling was... het loopt niet bepaald lekker daar.

Ik hoop maar dat global foundries in de toekomst een betrouwbaardere chipbakker gaat blijken, kunnen ze daar misschien terecht. AMD zeker.
Bij TSMC wel ja...
Tja het oude verhaaltje
De productiepartner van Nvidia, TSMC, zou echter problemen ondervinden bij de overstap naar een kleiner productieprocedé
Wat ik me alleen afvraag is, waarom alleen nVidia zoveel problemen heeft, en AMD niet, want het is altijd een andermans schuld volgens meneer Huang Jen-hsun, terwijl het nooit aan hun zelf ligt. >_<
  • Bij bumpgate was het allemaal de schuld van laptopmakers die de GPUs te weinig koelde, en had niks te maken dat men slechte soldeerverbindingen gebruikte en dat TDP pas op het laatste moment met 30% omhoog ging voor nVidia's 8xx0 serie, terwijl de koelings ontwerpen allemaal klaar waren!
  • De vertraging van GF100 was ook al de schuld van TSMC want het waren amateurs eerste klas die niet eens behoorlijke wafel konden maken, al was het bij een bakker, terwijl ATi's 5xx0 serie totaal geen problemen had, en de GF110 uiteindelijk was, wat de GF100 had moeten zijn!
  • En nu weer heeft de GF200 problemen, terwijl AMD gewoon op schema ligt voor hun 7000 serie.
  • Er zijn nog vele andere voorbeelden, van waar nVidia problemen altijd bij anderen ligt.
* player-x vraagt zich af of het nVidia weer moet geloven,......... Of ... ehh ... toch maar niet! |:(

[Reactie gewijzigd door player-x op 9 juli 2011 17:30]

Nvidia heeft de vorige keer aangegeven dat de schuld wel (in ieder geval deels) bij hunzelf lag. TSMC had problemen met het procedé, AMD kwam hier tijdig achter omdat ze de HD4770 al ruim van tevoren op 40nm 'geprobeerd' hadden en daarom aanpassingen voor de HD5000-serie konden doen. NVidia had dit niet en kon toen niet snel omgaan met de problemen van TSMC. Oorspronkelijk gaf NVidia geen fouten, puur marketingtechnisch want als je nog geen GPU hebt en je zegt "oh we zijn zo stom bezig nu en dit gaat nog wel even duren" dan gaat iedereen naar AMD. Achteraf hebben ze dit nog wel toegelicht.

En op dit moment is ook AMD de dupe van TSMC, AMD had al lang 32nm-GPU's klaar willen hebben en voor 28nm weet ik ook niet meer of ze wel op planning blijven. Goed, ze lijken nog wel eerder klaar te zijn dan NVidia.

[Reactie gewijzigd door bwerg op 9 juli 2011 14:20]

De HD5000 serie was wel tijden lang zeer slecht leverbaar, zat soms rustig 2 maanden levertijd op. Vraag me af wanneer TSMC eens een keer geen problemen heeft.
Beschikbaarheid had gewoon alles te maken met de productie capaciteiten en de vraag/aanbod situatie. Iedereen die nieuw ging, wilde een DX11 kaart natuurlijk. Het had niets te maken met yields, die waren goed bij de AMD-producten.
Oh? Ik hoorde anders steeds dat het door slechte yields kwam. Van Xbitlabs:

"AMD admits that at present the situation with availability of the latest DirectX 11 graphics cards is improper. Taiwan Semiconductor Manufacturing Company is partly guilty of insufficient shipments of ATI Radeon HD 5000-series graphics cards. [...]

Unfortunately, due to relatively low yields of 40nm chips at TSMC, the company cannot ship enough DirectX 11 graphics chips to satisfy the demand."

[Reactie gewijzigd door coffeejunkee op 10 juli 2011 15:17]

Maar die geruchten dat het de yields waren heeft nooit iemand hard kunnen maken.

Natuurlijk, het zou kunnen dat de yields laag waren... Maar minstens zo waarschijnlijk is dat de vraag gewoon veel hoger was dan men aankon. En dat is niet zo raar, want op dat moment had AMD gewoon de beste kaart. Niemand die een high-end kaart aanschaft die slechts DX10 aankan, wanneer er een snellere en zuiniger kaart is, die DX11 kan. Voor een half jaar had AMD op dat marktsegment de dubbele vraag...
De vertraging van GF100 was ook al de schuld van TSMC want het waren amateurs eerste klas die niet eens behoorlijke wafel konden maken, al was het bij een bakker, terwijl ATi's 5xx0 serie totaal geen problemen had, en de GF110 uiteindelijk was, wat de GF100 had moeten zijn!
De versie die ik (het meeste) heb gehoord is dat een deel van het probleem wel degelijk bij TSMC lag. De via's (de verbinding tussen twee lagen van de chip) was iets mis mee. AMD was hier bij een vorige chip al tegenaan gelopen en hadden een oplossing bedacht: veel (alle??) via's botweg dubbel uitvoeren: als één van de twee brak is dan loopt de stroom wel via de andere en is er nog steeds een werkende verbinding. Op deze manier had AMD op een procedé dat eigenlijk nog niet goed genoeg was, tóch een redelijke yield.
Maar ja, nVidia wist nog niet waar het probleem zat, dus die hadden enorm veel last van kapotte via's, waardoor de yields bedroevend (en onwerkbaar) waren.

Conclusies:
- Dat AMD geen problemen had (of, beter gezegd, een work-around had gevonden) betekent niet dat er geen probleem met het procedé waren.
- Er zit op zijn minst een kern van waarheid in nVidia's beschuldigende vinger naar TSMC.

Disclaimer: In dit soort gevallen is het altijd lastig om zeker te weten hoe dingen precies gegaan zijn. Ik kan niet garanderen dat het bovenstaande verhaal waar is; het is volledig gebaseers op (hardnekkige, dat wel) geruchten. Echter, het eerste deel van de conclusie blijft sowieso staan (de geruchten geven immers een mogelijke verklaring; ook als ze niet waar zijn zou de werkelijkheid een soortgelijke verklaring kunnen zijn). Het tweede deel is (volgens dezelfde redenatie) sowieso mogelijk; in de praktijk zullen we er niet achter komen of het waar is of niet.
Welke concurrentie? Intel is de enige die op het moment nog een beetje op schema zit (DRAM en Flash tellen niet echt mee, die kunnen met truuks als gestructureerde lichtbronnen werken die niet opgaan voor logica). De rest van de chip industrie zitten een beetje aan te modderen met minieme vooruitgang wachtende op EUV.

Niet echt goed voor de chip industrie dit ... voor de ASML lui die hier altijd rondhangen, doe er eens wat aan :) Leuke steppers hoor, maar zonder Intel's technologie lijkt het niet veel uit te halen.
iNtel zit op schema omdat ze kwa bedrijf zo groot zijn dat ze die stijgende kapitaal injectie voor elke moderne procede makkelijk kunnen leveren.
AMD kan dat ook heel makkelijk als ze zo groot waren als iNtel en dan vooral in beschikbaar capitaal. Maar dat zijn ze dus niet. Moeilijk concureren als je R&D en enkele fab's niet kan mee komen.

AMD is nog steeds een underdog.
En ATI lijd ook onder de gemeenschappelijke kapitaal en R&D verdeling onder AMD.
Als je kijkt wat nVidia in Cuda en gPGPU pompd kwa kapitaal.
Te hopen voor Nvidia of voor de gebruiker?
Eigenlijk allebij. De concurrentie tussen AMD en Nvidia zorgt ervoor dat de markt zich razendsnel ontwikkeld. Steeds sneller, steeds beter. Alleen maar goed voor de gebruikers.

Het tegenovergestelde zie je bij Intel. Die zijn markt leider in de GPU wereld en qua volumes ongeëvenaard. Met als gevolg dat de Intel GPU zwaar ondermaats is. Ze hebben nooit concurrentie gehad en hun geïntegreerde GPU op de markt gepushed. Deze is voldoende voor een beetje Office werk en zo koopt iemand die geen spelletjes speelt ook geen andere GraKa.
Intel heeft haar enige concurrent Via VERBODEN om nog chipsets te maken en dan gaan moederbord fabrikanten niet moeilijk doen om onboard GPU's van andere fabrikanten te combineren met een Intel chipset.

Doordat er nu meer en meer GPU's in de CPU(package) worden gepropt valt er al helemaal niet meer te kiezen. Wil je een Intel moederbord bouwen, dan moet je gewoon het volledige pakketje van Intel afnemen (afgezien van wifi en andere controllers)
Intel maakt ook geen GPU,s om mee te gamen, dus over ondermaats te spreken, vind ik de slof veel te ver vooruit schieten.
De doelgroep van Intel is altijd al hetzelfde geweest, al jaaren bekent.
Eh, voor de gebruiker en Nvidia? Concurrentie en marktwerking enzo? :)
Eerst dus 32nm, wat uiteindelijk volledig geannuleerd is, en nu ook 28nm? Ik mag hopen voor AMD (ja oke, en nVidia [don't be hatin' ;) ]) dat 28nm wel gaat lukken en dat de yields toch wel beter worden. In het slechtste geval zitten we straks weer op 40nm, maar dat lijkt me toch niet al te praktisch, en in het beste geval zien we straks gewoon mooi 28nm chips gefabriceerd worden. Dan eventueel maar met een slechtere beschikbaarheid van de kaarten zoals ook met de launch van de HD5 was.
32nm is voor CPU's, 28 is voor GPU's
Net als dat 40nm voor GPU's was en 45 voor CPU's.

De gpu is (in ieder geval de laatste tijd) op een kleiner procede gemaakt.
Dat is incorrect. TSMC had het 32nm proces op touw staan, ook voor videokaarten. Uiteindelijk hebben ze, tot groot plezier van AMD (ahem) ongeveer een week voordat AMD een product aan zou leveren voor Tape-Out (aanleveren van een ontwerp om voor het eerst door het proces heen te gaan om te zien of alles werkt), doodleuk gemeld dat 32nm wordt gecancelled.

Je kunt je wellicht een voorstelling maken hoe het voor een bedrijf moet zijn om een ontwerp waar jaren aan is gewerkt, niet te kunnen maken omdat je partner de boel omgooit.
Er was ook sprake dat AMD met 32nm GPU's kwam. Maar dit is door omstandigheden (kon het productie proces niet op tijd afkrijgen voor de HD6000 serie.
Ik vind het erg jammer want AMD heeft zo weer een half jaar tot 3/4 jaar het rijk voor zichzelf.
Hoezo dan? Volgens het artikel loopt NVidia toch juist voor op AMD met de 28nm architectuur. Of is er ook al iets bekend over de HD 8000 serie? Ik kan me zo voorstellen dat de Keplers en de Southern Islands weer aardig aan elkaar gewaagd zullen zijn dus ik begrijp niet waarom AMD hier volgens jou het alleenrecht gaat krijgen.
De volgende wordt de HD 7xxx serie.

Als je al kijkt naar hoe de 6xxx serie was gepland (meer ROP's en stream processoren), dan kan het heel goed zijn dat de 7xxx serie heel goed gaat worden.
Er is ervaring opgedaan met de 6xxx serie wat betreft een aanpassing in de samenstelling van de stream processoren, kombineer dat met een groter aantal van deze dingen door een kleiner prodedé.

Ik vermoed dat de 7xxx serie flink wat sneller wordt dan de 6xxx serie.
Daar ben ik ook van overtuigd en ik ga ook zeker een 7950 of iets in die richting kopen als de 7000 serie uitkomt, maar in het artikel staat dat de 7000 serie pas in de eerste helft van 2012 uit gaat komen en aangezien AMD bij de release van de 6000 serie ook wachtte met het uitbrengen van de high end kaarten zou het volgens dit artikel (en indirect dus digitimes) nog wel even gaan duren voordat de 7900 serie daadwerkelijk in de schappen ligt...
HD7000 wordt nog eind 2011 verwacht, en dat zullen 28nm-GPU's zijn. Daarin lijkt AMD dus iets voor te lopen. Het rijk voor zichzelf lijkt me dus ook wat overdreven, misschien dat ze enkele maandjes 28nm-GPU's op de markt hebben die het tegen GF500 op moeten nemen.

Zo'n ownage als met HD5000 vs. GF200 zal het niet worden nee.
Weer? Ik moet zeggen dat ik mijn focus meer op de mobiele markt heb gericht het afgelopen jaar, maar ik dacht dat AMD/ATI de underdog was.
Sinds de introductie van de HD5000 serie hebben AMD kaarten over het algemeen een betere prijs/prestatie en prestatie/vermogen verhouding gehad dan de kaarten van nVidia. Exacte cijfers heb ik niet, maar AMD heeft sindsdien aardig wat marktaandeel van nVidia weten af te snoepen.
AMD/ATI is sinds de HD5000 serie geen underdog maar een zware tegenstander geworden van Nvidia je moet eens kijken naar de Steam GPU logs
en kijk dan is naar het DX11 rijtje dan kun je zien dat de meeste mensen een ATI kaart hebben
ook al hebben de HIGH end kaartjes van Nvidia DX11
Ik denk dat daar wel verandering in komt want Intel is nu al bezig met 22nm (Ivy Bridge). Logischerwijs zouden de GPUs dan op nog lager dan 22nm worden gefabriceerd maar ik zie dat nog niet zo snel gebeuren gezien Nvidia vorig jaar ook al problemen had met Fermi en nu weer problemen heeft.
Beide opvolgers van de huidige 40nm-generatie zouden aanzienlijke verbeteringen in de prestaties per watt moeten vertonen.

lekker interesant van mij mag dat ding 400 watt verstoken zolang ik er maar geen ei op kan bakken en de prestaties fors hoger liggen.
prestatie per watt doet me niets.
de 5xx serie heefd ook een betere prestatie per watt dan de 4xx maar is bij sommige applicaties toch echt een fors stuk trager hetzelfde geld voor de amd 5xxx serie en de nieuwere 6xxx serie.
laag stroomverbruik is leuk maar in dit soort videokaarten is het de prestatie die doet verkopen niet nummer 1 zijn op prijs per watt dat intereseerd de gamer geen moer.

[Reactie gewijzigd door computerjunky op 9 juli 2011 12:34]

De gamer interesseert zich er misschien niet in, maar de groep gebruikers van GPGPU programma's wordt steeds groter. Hierbij moet je denken aan Bitcoin miners en bedrijven die GPU's inzetten voor videoprocessing. Omdat die mensen hun GPU's het liefst zo veel mogelijk op 100% laat draaien wordt het ineens ook interessant om te kijken naar het energieverbruik, want minder energieverbruik is minder energiekosten en dus meer winst.
Bij Bitcoin minen is dat effect van "lager energieverbruik" maar tijdelijk.
Zodra alle miners weer overgestapt zijn op snellere kaarten die zuiniger zijn, stijgt de moeilijkheidsgraad weer zoveel dat het voordeel weg te strepen is.
Je hebt dan namelijk méér kaarten nodig om dezelfde Bitcoins te minen. :)
Tja, iedere volgende generatie zal (als het goed is) wel weer een betere prestatie/vermogen verhouding hebben, maar zodra je al een niet al te zuinige kaart koopt zal het nadeel dat je oploopt tegen de volgende generatie nog groter zijn dan wanneer je een zuinige kaart koopt. Gebruikskostenminimalisatie loont sowieso.
Energie=warmte
Dus ondanks dat jij niks om energiebesparing geeft profiteer ook jij van een efficiente videokaart. Minder opgenomen vermogen is ook minder warmte. Hoe koeler je GPU is, hoe langer die (over het algemeen) meegaat.
Daar in tegen is het ook niet meer nodig om een "uberkaart" op de markt zetten. De mensen die graag op de hoogste settings spelen op hun multi-monitor setup kunnen de kaarten in SLI/Crossfire hangen. De normale gamer kan het ook prima met een enkele kaart af, zolang de games niet zo hard pushen als dat het vroeger het geval was dan is het op het moment interessanter op de prestatie per watt te verbeteren.
Wellicht ook geen slecht idee met het oog op de toekomst waarbij de mobiele markt steeds belangrijker wordt en de performance per watt erg zwaar telt.
Met 400W kan je er altijd een ei op bakken, zet gewoon de fan uit voor een paar minuten.
Er wordt al jaren geroepen dat we zon beetje op de grens zijn van hoever we kunnen miniaturiseren, zou best kunnen dat 28 nm voor dit soort chips met de huidige technieken gewoon te klein is en dat we nu toch eindelijk op zoek moeten naar een alternatief voor sillicium.
o die is er al Grafeen het zal alleen nog even duren voor dat we dat ook echt in onze pc terug zullen vinden

als ik het goed heb begrepen dan kan grafeen zo 100GHz halen
Het probleem zit in de lithografie, met Finfets of FD-SOI kan Si nog wel even voort ... maar het optische/chemische deel van het proces is voor iedereen behalve Intel een te groot probleem aan het worden.
Met die nieuwe technieken loop je wel vaker vertraging op, dat zouden ze toch ingecalculeerd moeten hebben. Op 28nm is ook wel heel erg klein, ik vind het erg knap dat het uberhaupt kan hoor. Het duurt meestal wel even voordat ze het proces en de yields zodanig hebben dat er economische intressante getallen gedraaid kunnen worden.
Als het was ingecalculeerd dan heette het geen vertraging en was het gewoon volgens planning ;)
Kijk je weet dat je bij zo iets nieuws en moeilijks vertraging zult hebben. Maar als het zelfs nog meer is als gepland dan moet je je gaan zorgen maken. Tuurlijk uiteindelijk lukt het wel maar het is meer van hoeveel gaat dat kosten.

En het feit, en daar ben ik zoals we in het verleden wel meer hebben gezien van Nvidia een beetje bang voor, gaan met die hap en de problemen lossen we naderhand wel op. Dan krijgen we weer van die onbetrouwbare video processors die na verloop van tijd uitvallen. Ik hoop dat ze daar van geleerd hebben en geen "short cuts" gaan gebruiken.

Edit : typos

[Reactie gewijzigd door bonus op 9 juli 2011 16:15]

Gaan met die hap?

Volgens mij heb jij echt geen besef hoe zo een chip gemaakt wordt.

Het wordt jaren vantevoren gepland en omdat Nvidia afhankelijk is van externe partijen kunnen vertragingen optreden, Nvidia heeft hier meer last van dan AMD omdat ze complexere chips laten bakken.
Grappig, volgens mij plant AMD beter dan nVidia (zoals met 40nm) en zijn nVidia chips niet zozeer complexer als wel gewoon groter, wat per definitie lagere yields betekent en meer problemen meebrengt (en toch behouden ze dezelfde strategie).

AMD is ook 'afhankelijk' van GlobalFoundries en TSMC hoor, ze hebben gewoon een andere aanpak, waarschijnlijk hebben ze gewoon meer ervaring met het productie proces omdat ze al een tijdje processors maken.
Hmmm, ik dacht dat Nvidia juist achterliep op AMD wat het 28nm procedé betreft. De productie van de Southern Islands zou toch in Q3 van start gaan? Valt me een beetje tegen, zeker nu het erop lijkt dat Nvidia sneller gaat zijn. Digitimes heeft het ook over 'the original schedule' van AMD, maar volgens mij waren ze toch echt wat anders van plan. Ik had iig verhalen gehoord dat de Southern Islands wellicht in Q4 al zouden uitkomen. Maar goed, we'll just have to wait then...
Alweer vertraging. Eerst in de 500 serie en nu in deze serie. en x86 is niet stervende. X86 heeft nog steeds de overhand op desktop gebied. Jan boercomputer boeit het niet of zijn systeem X86 of X64 is. X86 zal de komende jaren nog steeds op de markt blijven, en word nog lang niet verdreven. Denk met een jaar of 6 dat er dan een dalende lijn in gaat komen. Terwijl de X64 langzaam een licht stijging maakt. Kijk alleen maar bij het bedrijf waar ik werk. Alle computers zelfs de nieuwe zijn allemaal X86 pc.
Wat je bedoelt met x64 is waarschijnlijk x86-64, oftewel een 64 bits uitbreiding op de bestaande x86 processorarchitectuur. Wat in de markt wordt gezet als x64 zijn dus gewoon x86 pc's, en de recente pc's bij jou op het werk zullen hoogstwaarschijnlijk gewoon CPU's hebben die de x64 uitbreiding hebben, tegenwoordig zijn er nog maar weinig te krijgen zonder.
De grote concurrentie komt eigenlijk uit de hoek van ARM, wat een RISC architectuur is, in tegenstelling tot x86 wat CISC is. Het zit er dik in dat uiteindelijk CISC architecturen verdrongen gaan worden door RISC, om de zeer praktische reden dat CISC niet echt geslaagd is: tegenwoordig zijn x86 CPU's stiekem al RISC CPU's met een CISC vertaallaag erboven.

[Reactie gewijzigd door dcm360 op 9 juli 2011 18:31]

Niet allemaal zijn x86. Veel pcs tegenwoordig hebben standaard 4gb werkgeheugen. Dus die draaien op x64.
Die x64 computers die je bedoelt zijn dus x86-64, wat wel degelijk x86 is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True