Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: X-bit Labs, submitter: aliencowfarm

Volgens AMD-directeur Giuseppe Amato zal gpgpu pas in 2010 populair worden. De gpu's zijn er klaar voor, maar het wachten is op Microsoft DirectX 11 en betere compilers.

Logo's AMD en ATiATi en nVidia hebben het al jaren over het inzetten van de rekenkracht van gpu's bij rekenintensieve taken, maar voorlopig is software die de grafische chip aan het werk zet schaars. Het ontwikkelen van software die de gpu benut is moeilijk omdat deze speciaal voor de chip geschreven moet zijn. Volgens Amato zullen in de toekomst real-timecompilers bepalen of een berekening naar de gpu of de cpu gestuurd wordt. Bovendien komt Microsoft in 2009 met DirectX 11 op de markt, dat een api heeft die het de programmeur makkelijker maakt om code voor streamprocessors te schrijven. Tot die tijd moeten programmeurs nog gebruikmaken van software die door de gpu-bakkers zelf ontwikkeld is, zoals nVidia's Cuda.

Moderatie-faq Wijzig weergave

Reacties (50)

Ik blijf het ergens grappig vinden... 20 jaar geleden gebeurde dit al... De blitter in de Amiga werd ook al gebruikt voor MFM decoding en het copieren van blokken data.

Nu, 20 jaar later, komt men op het revolutionaire idee om de GPU kracht ook voor andere dingen te gebruiken...

Alhoewel we er op veel dingen enorm op vooruit gegaan zijn, is er 1 zaak die hoe langer hoe meer uit het oog wordt verloren... efficient gebruik van de hardware.

Vroeger perste men de laatste cycle uit een C64, Amiga of andere hardware, en tegenwoordig trekt men zich dat allemaal niet meer aan.

The art of programming is niet meer wat ze geweest is...
Ik blijf het ergens grappig vinden... 20 jaar geleden gebeurde dit al... De blitter in de Amiga werd ook al gebruikt voor MFM decoding en het copieren van blokken data.
Dat lag iets anders. Alle Amigas waren gelijk, dus iedereen had zo'n blitter. De Amiga werd gewoon gezien als een multiprocessor-systeem, en het was heel gebruikelijk om van alle processors gebruik te maken, waar dat kon.
Alhoewel we er op veel dingen enorm op vooruit gegaan zijn, is er 1 zaak die hoe langer hoe meer uit het oog wordt verloren... efficient gebruik van de hardware.
Ik denk dat dat tweeledig is.
1) De ontwikkelingen gaan tegenwoordig veel sneller. Vroeger kocht je een C64 of Amiga, en jarenlang veranderde er niks aan de hardware. Tegenwoordig heb je het probleem dat er teveel hardware is. Als ik nu iets ga ontwikkelen dat geoptimaliseerd is voor een GeForce 8800, en dat is over 2 jaar klaar... dan is de 8800 al lang weer achterhaald, en op nieuwe hardware zou je misschien een hele andere, veel efficientere oplossing kunnen bedenken. Je loopt dus nu veel meer achter de feiten aan.
De keuze qua hardware maakt het ook niet makkelijker. Niet iedere PC-gebruiker heeft een 8800. Het moet dus ook nog goed werken op andere hardware. Je krijgt dan het probleem dat je gewoon de ontwikkeltijd niet hebt om het voor alle mogelijke configuraties goed te laten lopen. Bij consoles zie je dat nog wel, omdat de consoles allemaal gelijk zijn, en gedurende hun levensduur van een aantal jaren niet veranderen.

2) Vroeger had je een soort 'natuurlijke' selectie onder programmeurs. Alleen echte 'nerds' hadden een computer. Tegenwoordig zijn computers 'normaal', en zijn er veel meer programmeurs, maar dit zijn vooral huis-tuin-en-keuken-programmeurs, niet de echte superintelligente kerels die vroeger interesse in die rare dozen genaamd computer hadden.
Dus in verhouding zijn er nu minder goede programmeurs. Er wordt veel meer troep gefabriceerd. Projecten zijn ook veel groter geworden, en alles is veel commercieler, en meer tijdsdruk etc.

Ik was vroeger ook enthousiast Amiga-gebruiker, en ik heb nog vrienden uit die tijd, die geniale dingen met een Amiga konden. Die werken nu bij bedrijven als FutureMark of Digital Illusions... En ook zij moeten nu compromissen sluiten, en kunnen hun code niet altijd zo optimaal schrijven als ze zouden willen.
Het is allemaal mooi dat het kan, maar ik heb toch 't idee dat ze compleet de plank aan 't misslaan zijn. Er wordt nu vanalles ontwikkeld, om snel berekeningen die _niks_ met grafisch geweld te maken hebben, toch op een GPU uit te voeren... leuk dat 't kan, maar toch niet de richting die we met z'n allen heen willen denk ik. Ik geloof dan toch een stuk meer in 't principe van de Cell, waarbij parallel computen op de CPU gewoon bruut snel is.
@abraxas
Mee eens. In theorie is het heel interessant allemaal, maar ik denk ook dat de GPU producenten een beetje bang zijn dat ze anders in de toekomst overbodig worden... Op het moment dat je een dikke quad-core PC met een flinke Cell processor ernaast kunt kopen zou het wel eens kunnen gebeuren dat al het 3D werk weer terug gaat naar software rendering, maar dan wel op een Cell-achtige processor. Is veel flexibeler en op meer verschillende manieren inzetbaar dan zo'n (min of meer) fixed-function 3D accelerator.
Dat dacht Intel ook enige jaren geleden.... Waarom een GPU, wanneer de CPU overal voor gebruikt kan worden? Maar Intel heeft daarbij dus heel erg op het verkeerde paard gewed. De praktijk leerde anders, en de GPU markt is op dit moment haast belangrijker dan de CPU markt.

Enne.... fixed function 3D accellerator???? Dat was het ten tijde van DirectX 8. Met DX9 hebben we shaders, die volledig programmeerbaar zijn. Dat was juist de grote revolutie. Met DX10 is die programmeerbaarheid op vrijwel hetzelde niveau gekomen als een CPU.
Met DX9 hebben we shaders, die volledig programmeerbaar zijn.
Ligt eraan wat je onder 'volledig' verstaat.
In principe is de architectuur nog niet echt wat je noemt Turing-compleet. Een groot probleem is bv dat je niet kunt lezen en schrijven in hetzelfde stuk geheugen. Je leest uit een stel textures, en je schrijft naar je rendertargets, maar je rendertarget mag je niet in dezelfde pass als source-texture gebruiken.
Een CPU kan nog steeds een hoop dingen veel efficienter oplossen.
Turing-compleet is niet het juiste woord, GPU shaders zijn absoluut Turing-compleet. Een machine die alleen de instructies inc(x) en dec(x) heeft is al Turing-compleet. Maar ik begrijp wat je bedoelt...

@AHBdV
Met fixed-function bedoelde ik eigenlijk 'dedicated', en dat zijn GPU's voorlopig nog wel. NVidia en ATI willen dat graag veranderen, maar de vraag is dus of ze niet ingehaald worden door CPU's.

@AHBdV en @mjtdevries
Ik zei dan ook een 'Cell-achtige processor', en niet 'de Cell CPU die in de PS3 zit'. Dat wil zeggen een hoog geklokte verzameling parallelle DSP's met een GP core ertussen. Het feit dat Sony het wel heeft overwogen om 2x een Cell in plaats van 1x een cell + 1x een GPU in de PS3 te douwen geeft toch al enigzins aan dat het zeker geen belachelijk idee is ofzoiets. Dat Intel destijds 'op het verkeerde paard gewed heeft' is natuurlijk totaal niet vergelijkbaar, de technologie is inmiddels toch wel enigzins gevorderd denk je niet. Bovendien hebben we al meerdere cycli van IC integratie -> IC specialisatie -> IC integratie gezien, dus het verleden leert juist dat nieuwe technologie en nieuwe inzichten telkens tot nieuwe oplossingen voor oude problemen kunnen leiden.

[Reactie gewijzigd door johnbetonschaar op 18 juli 2007 13:20]

Turing-compleet is niet het juiste woord, GPU shaders zijn absoluut Turing-compleet. Een machine die alleen de instructies inc(x) en dec(x) heeft is al Turing-compleet. Maar ik begrijp wat je bedoelt...
De shaders juist niet, omdat je dus niet die vrije addressering hebt. Je kunt niet teruglezen wat je net geschreven hebt (inc(x) of dec(x) kan dus niet... alleen y = x+1, waar x != y, dan moet je dus later nog een stap x = y doen).
Pas als je 'multipass' toevoegt, kun je Turing-compleet zijn. De shaders op zich kunnen dit dus niet, en dat maakt het geheel nogal inefficient in sommige gevallen.
Maar multipass gaat dus eigenlijk buiten de architectuur om, daar heb je de CPU nog steeds voor nodig.

[Reactie gewijzigd door ddbruijn op 19 juli 2007 00:09]

Vandaar dat er in de PS3 toch nog een aparte GPU bij geplaatst is.

Je euforie over de Cell processor komt niet zo best overeen met de praktijk!
Ik denk dat het er meer om gaat dat er toch wel een zeer krachtige GPU in elke (en vooral toekomstige systemen) zit.

Waarom zou je het niet als extra gebruiken? Anders doet het toch niet veel.

Het kan niet meer zijn dan dat, want geoptimaliseerd voor normale dingen zijn ze niet.
Ik vind 't gewoon vies dat hardware misbruikt wordt voor iets waar 't eigenlijk niet voor bedoeld is. Ik vind 't nog viezer als vervolgens hardware en zelfs API's helemaal ingericht worden ten behoeve van dit misbruik.

Als een GPU als general purpose vector co-processor wordt gebruikt vind ik het een heel ander verhaal. Dan is 't een processor waar toevallig ook grafische berekeningen mee gedaan worden.
Waar baseer je dat "misbruiken" op? GPU's zijn traditioneel bedoelt als chips om grafische berekeningen uit te voeren, maar waarom is het misbruik als je ze voor iets anders gebruikt?

Nieuwsgroepen worden ook allang niet meer alleen gebruikt voor nieuws. Grote monitors worden soms ook misbruikt als televisie, al dan niet door middel van een TV-tuner die in de kast is ingebouwd of door middel van DVD's. Het internet en GPS waren van oorsprong ook alleen voor het Amerikaanse leger bedoelt, die worden nu ook allebei door de consument "misbruikt".

Je stelling slaat gewoon nergens op.
Een GPU is geen general purpose vector rekenunit. Het is nog altijd een processor voor grafische bewerkingen (vertices, textures) met als resultaat een plaatje. Daar kunnen API's omheen geschreven worden die dat verbergen, maar dat verandert de feiten niet.

Als ik een complexe berekening wil uitvoeren is een vertex-, noch een pixelshader het ideale mechanisme hiervoor, die zijn namelijk bedoeld om berekeningen uit te voeren op vertex data en kleurdata. Dat is iets heel anders dan wat de rekenunit in de x86 doet bijvoorbeeld. Veel geschikter voor mijn complexe berekening zou een cell processor zijn, die is echt perfect voor dit soort hardcore computing en daarbij zijn geen kunstgrepen nodig om 't geheel te laten werken.
Zullen we de feiten voor zichzelf laten spreken?

De folding client voor de ATI GPU verzet veel meer werk dan de folding client voor de PS3.

QED.
In een perfecte wereld.

Een wereld waarin de meeste programmeurs ook geoptimaliseerde code, en zelfs assembly, zouden gebruiken om alles uit een cpu te wringen.

Echter we leven nu in een wereld waar de gpu overal te vinden is.

Een nieuwe pu zou inderdaad beter zijn, maar dan zit je weer met ontwikkelingen en zo. Ze gebruiken wat ze hebben. En optimaal is het zeker niet.
Jezus, wat is die abraxas een nerd, zeg!

"NEE NEE NEE Meneer!!!, Het is een videochip, dus mag deze ook alleen maar als video gebruikt worden, en niet voor iets anders, ook al kan m'n pc er stukken sneller van worden! Dan koop ik PUUR UIT PRINCIPE liever twaalf quadcore CPU 's(Let wel, dit zijn wel general purpose chips) om m'n prestaties op te krikken."

Die moet een actiegroep beginnen.

WEG MET DE KETTERAARS!!! GPU'S VOOR VIDEO EN NIET ANDERS!!!!!

:X 8)7 |:( :O
Exact de reden waarom ik een Nvidia 8600 GT heb gekocht, voor de GPGPU mogelijkheden, en ik kan inderdaad veel leuker en verbazingwekkend meer mee spelen dan mijn oude 6600GT.
Echt leuk voor de mensen die werken met keiharde berekeningen, dus voornamelijk wetenschappenlijk nog. De wetenschap is al wat langer uitermate gďnteresseerd in de rekenkracht van GPGPU applicities maar stuitte vooralsnog teveel op hardware limitaties, imiddels zijn er al een hoop dingen opgelost en er worden al een tijdje aplicaties voor ontwikkeld, maar nog niet altijd uitgegeven.
Ikzelf verwacht eigenlijk eind dit jaar al een toename in GPGPU applicaties dankzij de nieuwe Geforce 8 serie en CUDA uitbreiding.
Wellicht heeft dat AMD ventje gelijk dat het dan pas bij een groter publiek zal toegepast en gebruikt worden, maar toch is er nu al een marktsegment en dat is de wetenschap, ik denk dat het mannetje meer spreek over hoe AMD graag wil dat de toekomst eruit ziet en dat is pas een grote ontwikkeling GPGPU applicaties in 2010, een hoop zaken wijzen er eigenlijk op dat dit eerder gaat gebeuren, bijv. Intels 80 core processor is ook al in een redelijk ver gevorderd stadium en het zou mij niks verbazen als ook hiervan volgend jaar een produkt op de markt zou komen.
Voorlopig ben ik toch nu al blij met wat ik nu al meer kan met GPGPU (gewoon veel en veel hogere resoluties werken en een stuk complexer en dat met een onder-middenklasserkaartje) terwijl ik had verwacht dat ik pas eind dit jaar dit er meer mee te kunnen doen. Alleen heb ik geen idee wat mensen thuis met hyperrekenkracht moeten doen dus ik betwijfel of er ooit echt een "vlucht" in GPGPU zal komen.
Het directeurtje probeer de markt dus even klein te praten en wie de bal kaast kan verwachten zelf ook naar kabouter verkleint te worden (met een plopje)...

[Reactie gewijzigd door fevenhuis op 18 juli 2007 07:43]

Alleen heb ik geen idee wat mensen thuis met hyperrekenkracht moeten doen dus ik betwijfel of er ooit echt een "vlucht" in GPGPU zal komen.
Eigenlijk alles waar de gebruikers nu op moeten wachten, wat niet disk-IO-bound is, kan versneld worden op die manier.
Denk bijvoorbeeld aan compressie-algoritmen.

Je hebt dan een snelle co-processor met heel snel lokaal geheugen en best wel veel ook tegenwoordig.

Zeker nu video-toepassingen tegenwoordig steeds populairder worden, zal deze rekenkracht ook bij de gewone gebruiker steeds meer welkom zijn.
Daarnaast zitten we over een paar jaar met veel meer HD-resolutie-filmpjes dan nu en dan heb je ook echt wat rekenkracht nodig.
Eigenlijk alles waar de gebruikers nu op moeten wachten, wat niet disk-IO-bound is, kan versneld worden op die manier.
Denk bijvoorbeeld aan compressie-algoritmen.
Juist niet. GPUs zijn vooral goed in simpele streaming parallele floating-point operaties.
Voor iets als datacompressie heb je meer 'intelligentie' nodig en wat ingewikkelder geheugentoegang etc, en daar blinken GPUs zeker niet in uit.
Verder is parallelisme in principe de vijand van compressie, want als je parallel gaat comprimeren, kun je dus onderlinge verbanden niet meer detecteren, en dus minder entropie encoden.

Ook voor bv databases zijn GPUs niet heel geschikt.
Dus lang niet alles waar gebruikers op moeten wachten, kunnen GPUs (op dit moment) versnellen.

Videobewerking en 3d renderen kan natuurlijk wel prima met een GPU.. maar verder zijn het vooral zaken die daar veel op lijken, algoritmisch gezien, zoals bv folding@home.
Daar wil ik nog eve naan toevoegen dat grafische kaarten al allerlei videoversnellingen aa nboord hebben, het is nog maar de vraa gof het sneller zou gaan door dit op een andere manier te proberen af te vangen met GPGPU accelerated berekeningen ipv. van video-versnellingen, wellicht als het tegelijkertijd gebruikt kan worden. Maar dat is nou net zo'n toepassing waar mij een zeer lang ontwikkelingstraject logich is door de complexiteit van zoaiets en dat het dus eventueel best wat jaartjes kan duren dat deze specifieke toepassing (GPGPU accellerated video-encoding) zal verschijnen.
Blijft over 3D renderen, wat ook niet echt door een grote groep gebruikers gewenst zal zijn.
Er is echter wel een andere toepassing waarbij GPGPU een zeer grote impact zou kunnen hebben en dat is audiobewerking (effecten) en muziek, ik weet alleen niet hoever de ontwikkelaars in dit segment al zijn met GPGPU, één van de eerste 'andere' toepassingen voor de GPU was een audioplugin van BionicFX (in elk geval de aankondiging ervan), alleen is deze verder nooit gerealiseerd en het project is voorzover ik weet verdwenen.
Daar wil ik nog eve naan toevoegen dat grafische kaarten al allerlei videoversnellingen aa nboord hebben, het is nog maar de vraa gof het sneller zou gaan door dit op een andere manier te proberen af te vangen met GPGPU accelerated berekeningen ipv. van video-versnellingen, wellicht als het tegelijkertijd gebruikt kan worden.
De encoding en decoding kun je natuurlijk het beste overlaten aan de specifieke hardware op de chip zelf.
Videobewerking is meer het aanpassen van kleur, contrast, toevoegen van effecten, aftiteling etc. Daar kun je met een GPU nog een hoop winnen tov een CPU.
Audiobewerking is technisch gezien bijna hetzelfde, maar dan met een dimensie minder. Aan de ene kant kan een GPU dat best goed... aan de andere kant is het ook veel minder zwaar dan video... Ik weet dus niet of er nou echt een markt is daarvoor. Met een beetje stevige CPU kom je ook een heel eind tegenwoordig. Ook bij PhotoShop heb ik wel gedacht aan een GPU-oplossing, maar toen ik ging overleggen met een fotograaf wat nou het handigst was, bleek dat het op een moderne Mac Pro eigenlijk al niet meer boeit. De meeste handelingen zijn binnen een paar seconden voor elkaar.
En je hebt er ws. erg weinig aan als je ondertussen 3D gebruikt (zoals in games).
Een beetje voorbarig denk ik zo. GpGpu computing is prima mogelijk met DX10. Er is zelfs een DX example bij de SDK toegevoegd waarmee een FFT (fast fourier transform) wordt uitgerekend op de GPU. Daarnaast is er met support van integers en bit operaties en render to volume texture veel extra functionaliteit om GpGpu computing te doen met DX10.
En wat te denken van de Cuda SDK die nVidia voor de 8800-serie heeft uitgebracht?

[Reactie gewijzigd door ddbruijn op 17 juli 2007 23:57]

Die is NVIDIA-specifiek. Er is een onafhankelijke API nodig om het te doen doorbreken. DirectX 11 zou een significante stap kunnen zijn voor GPGPU. In de huidige situatie heeft nog maar een fractie van de systemen een GPU geschikt voor deze toepassingen, en de uiteenlopende API's maken het oninteressant om werkelijk applicaties te ontwikkelen voor de consument. 2010 lijkt me dus geen slechte schatting voor wanneer het kan doorbreken.
Ligt eraan wat je met 'doorbreken' bedoelt.
Ik denk sowieso dat de meeste gebruikers er geen boodschap aan hebben. Sowieso blijven de meeste videokaarten gewoon onboard OEM-dingen, waarop dit in 2010 waarschijnlijk nog lang niet mogelijk is (zoals ik de onboard chipjes van nu ook een high-end kaart van 3 jaar geleden niet zie benaderen, zowel qua features als qua performance).
Het lijkt me sowieso een niche-markt blijven.

Verder heeft Cuda misschien het nadeel dat het nVidia-specifiek is... maar dan wel weer het voordeel dat het zowel op linux als op Windows werkt.
Mijn idee over gpgpu is dat het voorlopig nog geen mainstream wordt, en voorlopig eerst vooral om custom-oplossingen gaat... en dat men waarschijnlijk de hardware en het OS kiest aan de hand van het beoogde doel, waarbij ik dus niet denk dat DX11 daar een groot verschil zou gaan maken.
Momenteel biedt de 8800-serie (en de Tesla) gewoon veel meer rekenkracht dan een Radeon, dus ik denk dat de keuze voor Cuda dan gauw gemaakt is, als je een applicatie ontwikkelt.
Het is in ieder geval tot de komst van DX11 een stuk simpeler om met Cuda te ontwikkelen dan om zelf een heel framework op te zetten rond OpenGL danwel DX, om daarmee op redelijk intuitieve wijze de GPU en CPU te integreren binnen een enkele applicatie.

Ik denk persoonlijk dat men in 2010 pas een beetje gewend is aan het idee dat je niet alles met een CPU hoeft te doen, maar dat je dat ook wel eens met een GPU zou kunnen doen. In dat opzicht denk ik wel dat het dan een vlucht gaat maken... Maar mainstream? Nog lang niet, als het ooit al gebeurt.
Er is een onafhankelijke API nodig om het te doen doorbreken. DirectX 11...
Hmm, ik denk (en ervaar) dat de mensen die veel brute rekenkracht nodig hebben dat meestal niet op windows doen. Het zou logischer zijn om een soort openGL voor rekenen met de GPU te ontwikkelen, die op elk platform ondersteunt kan worden.
in 2009 al met dx11? dat is wel erg snel naar mijn menning
Op zich niet zo snel. Het is alleen tijdens Win XP (DX9) geweest dat de ontwikkeling van DX zich niet meer zo snel heeft opgevolgt., daarvoor was het vrij normaal om elke 2 jr een nieuwe versie uit te brengen .
Ik vraag me af waarom perse DX, waarom niet de opengl omgeving ofzo iets dergelijks.

je zult het toch ook voor linux pc's beschikbaar moeten maken alsj e complete farms wilt verkopen.
Met name audiobewerking wordt hier goedkoper door dus op dat vlak is er zeker een groeimarkt.
Er zijn nu al wat mensen mee bezig maar als de gevestigde namen er ook mee gaan komen dan zal op dat vlak zeer zeker een kleine revolutie plaatsvinden.
AMD doet weer eens wat uitspraken. Het lijkt wel een cosmetica commercial.
Laten ze maar eerst eens produkten op de markt brengen die het kopen waard zijn.

Ik ben een AMD fan, maar dat moet wel gewaardeerd worden met goede hardware.
sowieso is dit een beetje open deuren intrappen..GPU computing wordt NU al toegepast namelijk.....
Ik zit met smart te wachten op het moment dat Photoshop gebruik gaat maken van de GPU. AFAIK, is dat met Vista en DX10 prima te doen.

Wij doen nu al voor wetenschappelijke doeleinden beeld bewerking via de GPU. (Volledig properierair...) Is 4x sneller dan over de CPU, waarbij de grootste bottleneck nog het verzenden van de data naar de GPU is. De berekening zelf kost nauwelijks reken tijd...

Alle filters in Photoshop realtime op je 8MP plaatjes? Lijkt me fantastisch!
Ik hoop dat Amd-ati niet slechter gaat worden ofzo,
(ik vond Ati altijd erg fijn, en heb nu een amd 3k +, nvidia 7800gs)

Nu is Intel op het goede pad met core2duo en nvidia met hun kaarten, concurrentie moet er wel blijven! anders komen ze met nieuwe hardware aan die je wel MOET goed vinden, er is anders niks beters meer.
Ik had vandaag ook gelezen dat DX11 in 2009 zou komen samen met de gpgpu.

Dat heeft AMD topman Giuseppe Amato zelf gezegd in een interview met Hardware.info.
Ter sprake komt ook de General Purpose Graphics Processing Unit (GPGPU), een technologie waarbij de videokaart inzetbaar is voor taken die normaal gesproken door de processor uitgevoerd worden. Amato geeft echter aan dat dit nog verre toekomstmuziek is, naar verwachting zal deze technologie pas na de introductie van Microsoft's DirectX11 API in 2009 zijn intrede doen. Leuk detail is dat AMD de GPGPU ook graag voor eigen gebruik verder zou willen ontwikkelen. De geautomatiseerde kwaliteitscontrole van wafers vergt extreem veel processortijd, wellicht dat de GPGPU ervoor kan zorgen dat AMD haar productiviteit kan verhogen door deze bottleneck te verkleinen.
bron: http://www.hardware.info/..._toekomstplannen_van_AMD/

[Reactie gewijzigd door mad_max234 op 18 juli 2007 00:21]

En van 1 naar 2 en van 2 naar 3, en van 4 naar 5 enz enz. De stap van 9 naar 10 heeft lang geduurd, vooral omdat DirectX 10 alleen voor Vista is.

Voor de rest, laat men in godsnaam nu eerst eens fatsoenlijke drivers maken dan pas kan je DirectX 10 ook echt benutten. Dan kunnen we gaan kijken of versie 11 wat nuttigs heeft te bieden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True