Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 101 reacties

Tijdens Nvidia's 'visual computing event' Nvision 08 lieten de Mythbusters het onderscheid tussen een cpu en gpu met behulp van paintballs zien. Het duo gebruikte hiervoor twee robots om afbeeldingen te tekenen.

Mythbusters paintball-gpuHet Mythbusters-duo, bekend van de gelijknamige serie op Discovery Channel, Adam Savage en Jamie Hyneman, gebruikten twee robots om het verschil tussen een processor en een grafische chip te demonstreren. De gelegenheid was Nvision 08, een bijeenkomst van Nvidia die van 25 tot 27 augustus in San Jose in Amerika werd gehouden.

De eerste robot, die de werking van de cpu moest tonen, was een verrijdbaar paintgun-platform, Leonardo genaamd. De paintgun zelf werd door servo's op de x- en y-assen aangestuurd om zo de paintballs te richten. Een serie schoten leveren een simpele smiley op, waarmee de Mythbusters lieten zien hoe een processor elk proces één voor één afhandelt.

Om de werking van een gpu, met zijn parallelle verwerking van data, te laten zien, hadden Hyneman en Savage een paintball-monster met 1102 lopen gebouwd. Elke loop werd door luchtdruk aangestuurd en zou een enkele paintball afschieten. Na een afstand van ongeveer twee meter in 80ms te hebben overbrugd, moesten de 1102 paintballs een vereenvoudigde Mona Lisa - de 'moeder aller smilies', vormen.



Reacties (101)

Reactiefilter:-1101088+113+28+30
Moderatie-faq Wijzig weergave
De vergelijking is eigenlijk wel vrij eerlijk. Hoewel de "gpu" als winnaar uit de bus komt, is het maar een brute, lompe machine, de "cpu" is veel ingewikkelder en gesofisticeerder. Zo is dat ook in de werkelijkheid.

Een cpu is ongelooflijk veel complexer, maar mist de rauwe flops die een videokaart heeft. Aan dat probleem wordt gewerkt bij Intel (Larrabee.)

[Reactie gewijzigd door OSC-DIS op 31 augustus 2008 15:45]

Maar de CPU kon wel rijden en dus flexibeler. In die zin klopt de vergelijking dus ook.
CPU is voor meerdere doelen gemaakt en kan elk ding maar 1x doen en niet tegelijk

GPU is gebouwd voor alleen iets op je scherm tonen en kan elke pixel paralel laten bewegen.

CPU in huidige vorm zou nooit dezelfde prestaties halen als de GPU nu.
Mischien dat dit later anders zou zijn.
Met multithreading en meerdere cores kunnen CPUs meerdere dingen tegelijk doen hoor, het is alleen zo dat een GPU iets minder dingetjes kan en veel meer cores heeft en daarom nog meer tegelijk kan, maar met een lager aantal instructies dat beschikbaar is.
Is eigenlijk totaal niet waar in de moderne tijd van multicore CPU's die gebruik maken van pipelines, ze doen meerdere dingen tegelijk.
Een GPU is ook totaal niet meer enkel gemaakt om alleen iets op je scherm te tonen.
Om multicores te demonstreren hadden ze natuurlijk twee verfschietarmen kunnen monteren om een dualcore te verbeelden, vier voor een quadcore etcetera. Maar dan heb je de point van het verhaal gemist.

Het gaat zowieso om een (demonstratieve) vergelijking. Met nadruk op dat laatste woord. Ze geven zelf juist al aan dat mensen vaak de verschillen tussen een GPU en een CPU niet begrijpen, dus daarom nemen ze een dik aangezette en versimpelde weergave van de werkelijkheid zodat mensen het dan wél begrijpen. En dat betekent vrijwel automatisch dat er dingen niet exact met de werkelijkheid kloppen, inderdaad, maar dat is dus ook helemaal niet erg (en misschien juist wel wenselijk, want het operationele verschil demonstreren aan de hand van een echte CPU en grafische kaart lijkt me vrij lastig en bovendien een stuk saaier).

Nou denk ik wel dat er op zo'n event relatief weinig mensen het verschil tussen een CPU en GPU niet zullen kennen en dus dat het daar vooral promotie is, maar dat maakt verder niet uit. De uitleg zelf vind ik in ieder geval geslaagd, omdat ik het idee heb dat je hiermee zelfs de grootste computeranalfabeet nog wel een beetje kan uitleggen welk onderdeel nou wat doet.
Een CPU is niet per definitie "ingewikkelder" of complexer, de huidige GPUs zijn ook erg complex hoor. Qua chip ontwerp is een zeer parallel ontwerp met (eventueel) "simpelere" logica per unit) minstens zo complex als een CPU ontwerp dat een veel uitgebreidere commandset heeft, maar minder parallel.

Waarschijnlijk doel je echter het op het verschil tussen "general purpose" (CPU) en een dedicated GPU. De een kan veel vaken, de ander minder, maar wel sneller. Analoog aan de robots: de een kan rijden en langzaam tekenen, de ander kan niet rijden, maar wel heel snel tekenen.
Een cpu is ongelooflijk veel complexer, maar mist de rauwe flops die een videokaart heeft. Aan dat probleem wordt gewerkt bij Intel (Larrabee.)
Bij AMD ook al hoor, die zijn er al 2 jaar mee bezig.
Zowel die larrabee als die fusion worden in 2009 de markt op gepleurt .... dus da's niet zo gek lang meer wachten :9

[Reactie gewijzigd door Rey Nemaattori op 1 september 2008 09:56]

Ik zou wel een GPU als CPU willen hebben. Waarom wordt die techniek dan niet gebruik door AMD of INTEL?
Ik zou wel een GPU als CPU willen hebben. Waarom wordt die techniek dan niet gebruik door AMD of INTEL?
Zowel AMD en Intel gebruiken deze technieken ook. Intel vooralsnog iets minder, maar ook Intel broedt steedsmeer op de GPU markt gezien bepaalde vacatures en ontwikkelingen bij Intel.

Feit is, je kan die GPU niet overal even goed voor gebruiken. Vergelijk het evenmet een mannetje met een schop/spade en een graafmachine. Graven zal een graafmachine uiteraard beter afkunnen dan een enkeling met een schop.

In de opdracht graaf een geul van dertig meter, zal de graafmachine het echt wel winnen. Maar nu is de opdracht, graaf een geul van dertig meter, leg daarin 30 meter pijp. Nu zal je dit met een graafmachine nog wel voorelkaar krijgen door de pijp te rollen met de schep. Maar een mens doet het toch wat preciezer

Nu wordt de opdracht nog uitgebreider, graaf 30 meter, installeer 5*6 meter pijp met flenzen en aftakkingen naar de nabijgelegen percelen. Ineens zal de mens het gaan winnen, omdat hij veelzijdiger is.

In de praktijk, laat je dit dus doen door een mens en een graafmachine. Op je PC idem.

Verder is het moeilijk, voor een GPU om andere apparaten aan te sturen, nu kan je die logica wel ontwikkelen, maar door de gelimiteerde mogelijkheden van een GPU is het lastig om daarvoor driver software te ontwikkelen. De CPU kan dat beter met zijn bijhorende chipset.
Vergeet niet dat de GPU speciaal voor Graphics gemaakt is en de CPU ook nog andere taken heeft om uit te voeren. Een GPU als CPU zou ik niet willen, GPU blijft qua kloksnelheid trager dan de CPU.

Pipelining is ook best mooie uitkomst maar als CPU heb je daar toch minder profijt van dan een GPU. De GPU heeft een vaste set instructies en de cpu wordt zeer sterk beinvloed welk programma er gedraaid wordt. Compiler en run-time systems makers zouden dan met een compleet nieuw systeem moeten komen om branch perdiction etc te doen.

[Reactie gewijzigd door ThePinguin op 1 september 2008 02:29]

"Compiler en run-time systems makers zouden dan met een compleet nieuw systeem moeten komen om branch perdiction etc te doen."

Branch prediction is vooral belangrijk al je diep pijplijnt en/of asynchrone cores hebt..
Is dus niet een vereiste voor een CPU maar meer een gevolg van het design van Intel chips...
Dat zou je niet willen. Volgens mij ontgaat het punt van dit filmpje je. Een cpu is veel flexibeler en kan voor verschillende taken ingezet worden en een gpu niet.
Ik vond dat verhaal wat adam opdiepte veel interresanter nieuws over mythbusters:

"mathfeel passes along a video in which Mythbusters co-host Adam Savage recounts how credit card companies lawyered up to make sure the Discovery channel never, ever airs a segment on the flaws in RFID security. "Texas Instruments comes on [a scheduled conference call] along with chief legal counsel for American Express, Visa, Discover, and everybody else... They [Mythbusters producers] were way, way outgunned and they [lawyers] absolutely made it really clear to Discovery that they were not going to air this episode talking about how hackable this stuff was, and Discovery backed way down being a large corporation that depends upon the revenue of the advertisers. Now it's on Discovery's radar and they won't let us go near it.""

Om de link te maken met dit artikel: mythbusters wordt dus zwaar beinvloed door het grote geld.
Wat moeten ze doen dan ? Het wel uitzenden en een hoop adverteerders kwijt raken ? Als TV-zender overleef je nog altijd door die advertenties. In het slechtste geval krijg je ook nog een proces aan je broek van die grote partijen.
Net wat voor die gasten, om er op zo,n manier mee te komen :)
Mwoa. dat vraag ik mij af eerlijk gezegd. Ik gok er eerder op dat ze gewoon ingehuurd zijn om de demonstratie te geven, zooooo super-slim zijn ze nu ook weer niet.

Verder is het natuurlijk raar dat ze de cpu niet met dezelfde robot vergeleken... in de zin dat men iets had kunnen bedenken met de aansturing via een echte chip. Hoewel ze wel het punt maken natuurlijk.

Edit: En voor de -1 modders, ik hou ook van Mythbusters hoor, het ging mij even om serieus commentaar.

[Reactie gewijzigd door vgroenewold op 31 augustus 2008 16:53]

spijtig dat ze zich zo voor de kar laten spannen, want het kleinste kind weet natuurlijk dat een cpu niet 1000 trager is dan een gpu
Zoals anderen ook al zeiden, het hangt er vanaf welke taak je ze geeft.

Wat hier erg mooi uitgebeeld wordt is de paralele wijze waarop GPU's werken tegenover de aloude CPU.

Eventjes versimpeld uitgebeeld:
Neem een simpele opdracht. 128 pixels van verschillende kleuren die allemaal een tint lichter moeten worden. Aan een GPU geef ik die opdracht door aan te geven waar de 128 kleurwaardes in het geheugen staan en vervolgens aan te geven welke bewerking ik hierop toe wil passen. De GPU laad dan al die gegevens in de pipelines en voert de bewerking tegelijkertijd op de 128 verschillende kleuren uit.

Bij de CPU moet ik dat anders doen. Daar moet ik per kleur de opdracht geven, welke per kleur appart wordt uitgevoerd. Hoewel de CPU deze enkele opdracht stukken sneller kan uitvoeren dan de GPU, verliest de CPU het op het gebied van vector graphics omdat hij slechts enkele pipelines heeft. Een CPU is gebouwd op een opdracht die op 1 stukje data uitgevoerd wordt, niet op 128 stukjes data tegelijkertijd.

Omgedraaid, als ik aan de GPU vraag om één kleur een tintje omlaag te gooien, zit de CPU al koffie te drinken tegen de tijd dat de GPU klaar is.
offtopic:
Ik heb voor het gemak even de diverse uitbreidingen zoals MMX, SSE, etc buiten beschouwing gelaten
"Neem een simpele opdracht. 128 pixels van verschillende kleuren die allemaal een tint lichter moeten worden. Aan een GPU geef ik die opdracht door aan te geven waar de 128 kleurwaardes in het geheugen staan en vervolgens aan te geven welke bewerking ik hierop toe wil passen. De GPU laad dan al die gegevens in de pipelines en voert de bewerking tegelijkertijd op de 128 verschillende kleuren uit."

Het lullige is dat (iig in dit voorbeeld) de GPU met al zn stoere pipelines hooguit 2 sneller is dan de CPU.

Alhoewel de GPU 128 opdrachten tegelijk kan verwerken moeten al die 128 geheugenlocaties wel allemaal serieel gelezen en geschreven worden.
Dit kost dus gewoon 128 x 2 geheugenbus klokjes. (even caching e.d. buiten beschouwing gelaten)
Het ophalen van de eigenlijke instructie en het uitvoeren ervan is dan te verwaarlozen.

De CPU moet dan voor elke geheugenlocatie ook nog het commando weten en wordt het commando voor elke locatie opnieuw uitgevoerd.
Dit kost dan nog eens 128 x 2 klokjes (ophalen instructie, verwerken data)
Dat komt er op neer dat de CPU slechts 2x zo langzaam is bij een bepaalde kloksnelheid dan de GPU...

Natuurlijk is dit een versimpelde weergave van de werkelijkheid maar al met al zitten er dus nogal wat beperkingen aan de GPU wil je daar echt rendement uit halen!.
ligt er aan waarvoor.. wel eens een 3dMark06 (of andere) gedraaid? de CPU test.. Grafische content via een CPU renderen..? krijg je met geluk 1 FPS en een GPU draaid daar zn hand niet voor om.. cpu en gpu zijn gewoon voor 2 doeleinde.. en ze werken dus ook wel anders..
Hangt van de taak af waar je 'm voor in zet.
hahaha dan heb je een heeeeeeeeeeel lange tijd onder een steen gezeten.

Een GPU is wel degelijk vele malen sneller dan een CPU.

Waarom denk je dat nVidia nu met PhysX zo lekker bezig is op de GPU? Omdat dat sneller gaat, het werkt makkelijker dan het door een CPU te laten doen.
Als het gaat om beeldverwerking, dan is een factor duizend nog niet eens zo heel gek hoor...beetje moderne beeldkaart zit al over de 1 teraflops per gpu waar een quad core cpu hoogstens 10 gigaflops haalt per core...da's al een factor 100 verschil.

Aangezien de floating point berekeningen van beeldkaarten sneller stijgt dan die van cpu's zal ligt die 'de factor 1000' niet zo gek ver in de toekomst iig...
Ze hebben de manier waarop waarschijnlijk wel zelf bedacht.
Ze beweren zelf ook niet dat ze super slim zijn, hoef je hier ook niet voor te zijn. Beetje verstand van techniek, wat aardige hersens en een creatieve geest, schiet je veel meer mee op dan super slim zijn.
Ze zijn ook ingehuurd om een demonstratie te geven, maar dan wel op dezelfde manier als ze reclames maken. De klant geeft een idee van wat ze willen, en zei denken de rest uit en maken een bijpassende machine.

En om deze dingen te maken hoef je niet super slim te zijn, je moet alleen techniek op een creatieve manier weten toe te passen.
Ongelooflijk, hoe die mona lisa tevoorschijn komt, echt prachtig! Het is natuurlijk niet helemaal waar, maar ik vind het een geweldige stunt :D
wel een zeer uitgebreide, maar duidelijke, manier om het verschil tussen SISD en SIMD te tonen.
Maareh, het PPC platform had toch ook al SIMD units (Altivec)?

En met de Cell is de scheiding CPU - GPU steeds verder aan het vervagen.
Alle huidige x86 processoren hebben ook SIMD support hoor, in de vorm van MMX ;).
De belangrijkste SIMD instructieset is SSE (http://en.wikipedia.org/wiki/Streaming_SIMD_Extensions). MMX is de integer instructieset, SSE (Intels reactie op 3DNow!) werkt met floating point.
Gelukkig dat de prijs van een gpu geen 1102 keer hoger is dan die van een cpu. Bij hun is dat wel het geval.
ik zou niet graag in een paintball gevecht zitten met die twee :)

Wel een goede vergelijking, maar vooral een goede publiciteits stunt van Nvidea :)
Ach Tales, een airsoftgun of een paintball gun schieten ook met +- 300 fps ( FOOT niet frames per seconde! :) ) daz dus ong 100meter p/s ... sommigen gaan nog harder...

Dus of je nou daarvoor staat of gewoon op 2 meter afstand van een gewonen gun gaat staan.. ach... pijn doet het toch wel...

wel een vette show van deze 2 heren!
CPU en GPU zijn totaal verschillend.
CPU is allrounder en GPU specialist.
Onzinnige vergelijking dus... wel vermakelijk.
Hoezo onzinnig? Dat is juist wat ze aan willen tonen. Een CPU is allrounder, dus kan het wel maar gewoon erg traag. Een GPU is gespecialiseert dus kan razendsnel een bepaalde taak uitvoeren. Dat laten ze dus juist zien.

Dat is wel vaak jammer met zulke filmpjes, mensen snappen gewoon het punt niet.
idd.

jammer

Een CPU kan alles nu wel iets sneller door 2 of 4 taken tegelijk uit te voeren Dual Core!!
Maar zal nooit sneller zijn dan de GPU. die 1102 dezelfde taken kan uitvoeren
Daarentegen zijn er ook genoeg voorbeelden te bedenken van dingen die wel degelijk sneller uit te voeren zijn op een CPU...
Daar ging het ook helemaal niet om, ze laten zien hoe een GPU en CPU verschillen en dat laten ze perfect zien.
Fantastisch! Een erg mooie manier om het verschil cpu/gpu te laten zien inderdaad! Kudo's voor de Mithbusters :)

Op dit item kan niet meer gereageerd worden.



LG Nexus 5 (2015) Apple iPhone 6s FIFA 16 Microsoft Windows 10 Home NL Star Wars: Battlefront (2015) Samsung Gear S2 Skylake Samsung Galaxy S6 edge+

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True