Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 101 reacties, 57.197 views •

Tijdens Nvidia's 'visual computing event' Nvision 08 lieten de Mythbusters het onderscheid tussen een cpu en gpu met behulp van paintballs zien. Het duo gebruikte hiervoor twee robots om afbeeldingen te tekenen.

Mythbusters paintball-gpuHet Mythbusters-duo, bekend van de gelijknamige serie op Discovery Channel, Adam Savage en Jamie Hyneman, gebruikten twee robots om het verschil tussen een processor en een grafische chip te demonstreren. De gelegenheid was Nvision 08, een bijeenkomst van Nvidia die van 25 tot 27 augustus in San Jose in Amerika werd gehouden.

De eerste robot, die de werking van de cpu moest tonen, was een verrijdbaar paintgun-platform, Leonardo genaamd. De paintgun zelf werd door servo's op de x- en y-assen aangestuurd om zo de paintballs te richten. Een serie schoten leveren een simpele smiley op, waarmee de Mythbusters lieten zien hoe een processor elk proces één voor één afhandelt.

Om de werking van een gpu, met zijn parallelle verwerking van data, te laten zien, hadden Hyneman en Savage een paintball-monster met 1102 lopen gebouwd. Elke loop werd door luchtdruk aangestuurd en zou een enkele paintball afschieten. Na een afstand van ongeveer twee meter in 80ms te hebben overbrugd, moesten de 1102 paintballs een vereenvoudigde Mona Lisa - de 'moeder aller smilies', vormen.



Reacties (101)

Reactiefilter:-1101088+113+28+30
Ongelooflijk, hoe die mona lisa tevoorschijn komt, echt prachtig! Het is natuurlijk niet helemaal waar, maar ik vind het een geweldige stunt :D
wel een zeer uitgebreide, maar duidelijke, manier om het verschil tussen SISD en SIMD te tonen.
Maareh, het PPC platform had toch ook al SIMD units (Altivec)?

En met de Cell is de scheiding CPU - GPU steeds verder aan het vervagen.
Alle huidige x86 processoren hebben ook SIMD support hoor, in de vorm van MMX ;).
De belangrijkste SIMD instructieset is SSE (http://en.wikipedia.org/wiki/Streaming_SIMD_Extensions). MMX is de integer instructieset, SSE (Intels reactie op 3DNow!) werkt met floating point.
Leuke NVIDIA publiciteits stunt .....
Het gaat over het verschil tussen een CPU en een GPU, niet tussen een nVidia GPU en alle andere soorten/merken processors.

nVidia is wel degene die deze gasten ingehuurd heeft, iemand anders niet.. en daar scoort nVidia wel mee uiteindelijk..

[Reactie gewijzigd door grasnek op 31 augustus 2008 15:50]

Nee hoor het verschil zit hem in een enkele loop met een enkele luchtaansluiting en eentje met heel veel lopen en 2 gigantische lucht reservoir's van zo'n samen 2000 liter lucht die met een enkele signaal tegelijk word losgelaten. Het eerste systeem vergt in de praktijk meer programmering dan het 2de (mona lisa) welke mechanisch is voorbereid. Het zijn de ventielen die worden aangestuurd en die het lucht door laten.

Al vraag ik me af of ze een paar gigantische ventielen gebruikt hebben of heel veel kleintjes.

Toch een leuke stunt.
Daar geef je ook precies het verschil mee aan. De GPU, simpel gezegd, enkel instructies aan het monitor welke pixel welke kleur moet hebben. Nogmaals simpel gezegd. Dat kan hij ook heel rap.

De CPU daarentegen instrueert het kanon onder welke hoek deze moet vuren. De CPU is daarmee dus ook niet geschikt om hetzelfde grafisch geweld te creeëren zoals de GPU. Maar de flexibileit van een CPU is wel veel groter, dat gaat echter ten kostte van de snelheid.

[Reactie gewijzigd door timonb op 31 augustus 2008 22:29]

Zo zijn er nog meer interresante verschillen te zien:
De 'GPU' had veel meer vermogen nodig (in de vorm van enorme luchtflessen) om zn ding te doen. Mooie plaatjes maken kost dus meer energie.
Een ander verschil is dat de 'GPU' in princiepe alleen vooruit en met velen tegelijk kon schieten. Dit betekent dat als je maar 1 pixel zou willen uitrekenen je alsnog de hele 'GPU' moet laten werken en dus de energie die wordt verbruikt om de andere 'pixels' neer te zetten gewoon weggegooid is (in dit geval zou dat ruim 99.9% zijn)

Het opzetten van de 'GPU' duurde ook langer (zo lang zelfs dat ze het maar van tevoren gedaan hebben) en was bemoeilijkt door zn grootte.
De 'CPU' werd gewoon binnengereden, deed zn ding en werd weer weggereden.
De 'GPU' was zo groot dat dat niet echt meer een optie was.

Wat hier niet gelijk duidelijk wordt is dat de 'GPU' uiteindelijk ook nog een 'CPU' oid nodig heeft om hem uit te leggen welke kleurtjes op welke positie moeten.
Dus iets of iemand moet de 'pixels' eerst 1 voor 1 in de pijpen stoppen en zorgen dat ze goed achterin zitten voordat er gevuurd kan worden.

....
nvidia logo niet gezien op die machine ?
Een pixel is dood: er zit een slang los op die afbeelding. Dit kan natuurlijk ook na het schieten gebeurd zijn.

EDIT: Na het kijken zie ik niet eens een slang loszitten. Denk dus dat (per ongeluk) kapot gegaan is na de stunt (maar voor de foto).

[Reactie gewijzigd door Xirt op 31 augustus 2008 22:23]

Als je ook goed op die foto kijkt, en je bekijkt de bovenste lijn van de mona lisa afbeelding zie je ook dat er daadwerkelijk één 'pixel' ontbreekt (zwarte plek tussen de reeks blauwe plekken), dus de slang was al kapot voor het vuren. :)

off-topic: het ziet er wel enorm bruut uit in slow motion :P

[Reactie gewijzigd door Sjnuffelke op 1 september 2008 02:44]

Dit slaat erop dat het een event van NVidia was... een publiciteits stunt van hen...
ff lezen voordat je zo reageert....

[Reactie gewijzigd door M-Opensource op 31 augustus 2008 16:08]

Net wat voor die gasten, om er op zo,n manier mee te komen :)
Mwoa. dat vraag ik mij af eerlijk gezegd. Ik gok er eerder op dat ze gewoon ingehuurd zijn om de demonstratie te geven, zooooo super-slim zijn ze nu ook weer niet.

Verder is het natuurlijk raar dat ze de cpu niet met dezelfde robot vergeleken... in de zin dat men iets had kunnen bedenken met de aansturing via een echte chip. Hoewel ze wel het punt maken natuurlijk.

Edit: En voor de -1 modders, ik hou ook van Mythbusters hoor, het ging mij even om serieus commentaar.

[Reactie gewijzigd door vgroenewold op 31 augustus 2008 16:53]

Ze hebben de manier waarop waarschijnlijk wel zelf bedacht.
Ze beweren zelf ook niet dat ze super slim zijn, hoef je hier ook niet voor te zijn. Beetje verstand van techniek, wat aardige hersens en een creatieve geest, schiet je veel meer mee op dan super slim zijn.
spijtig dat ze zich zo voor de kar laten spannen, want het kleinste kind weet natuurlijk dat een cpu niet 1000 trager is dan een gpu
ligt er aan waarvoor.. wel eens een 3dMark06 (of andere) gedraaid? de CPU test.. Grafische content via een CPU renderen..? krijg je met geluk 1 FPS en een GPU draaid daar zn hand niet voor om.. cpu en gpu zijn gewoon voor 2 doeleinde.. en ze werken dus ook wel anders..
Hangt van de taak af waar je 'm voor in zet.
hahaha dan heb je een heeeeeeeeeeel lange tijd onder een steen gezeten.

Een GPU is wel degelijk vele malen sneller dan een CPU.

Waarom denk je dat nVidia nu met PhysX zo lekker bezig is op de GPU? Omdat dat sneller gaat, het werkt makkelijker dan het door een CPU te laten doen.
Zoals anderen ook al zeiden, het hangt er vanaf welke taak je ze geeft.

Wat hier erg mooi uitgebeeld wordt is de paralele wijze waarop GPU's werken tegenover de aloude CPU.

Eventjes versimpeld uitgebeeld:
Neem een simpele opdracht. 128 pixels van verschillende kleuren die allemaal een tint lichter moeten worden. Aan een GPU geef ik die opdracht door aan te geven waar de 128 kleurwaardes in het geheugen staan en vervolgens aan te geven welke bewerking ik hierop toe wil passen. De GPU laad dan al die gegevens in de pipelines en voert de bewerking tegelijkertijd op de 128 verschillende kleuren uit.

Bij de CPU moet ik dat anders doen. Daar moet ik per kleur de opdracht geven, welke per kleur appart wordt uitgevoerd. Hoewel de CPU deze enkele opdracht stukken sneller kan uitvoeren dan de GPU, verliest de CPU het op het gebied van vector graphics omdat hij slechts enkele pipelines heeft. Een CPU is gebouwd op een opdracht die op 1 stukje data uitgevoerd wordt, niet op 128 stukjes data tegelijkertijd.

Omgedraaid, als ik aan de GPU vraag om één kleur een tintje omlaag te gooien, zit de CPU al koffie te drinken tegen de tijd dat de GPU klaar is.
offtopic:
Ik heb voor het gemak even de diverse uitbreidingen zoals MMX, SSE, etc buiten beschouwing gelaten
"Neem een simpele opdracht. 128 pixels van verschillende kleuren die allemaal een tint lichter moeten worden. Aan een GPU geef ik die opdracht door aan te geven waar de 128 kleurwaardes in het geheugen staan en vervolgens aan te geven welke bewerking ik hierop toe wil passen. De GPU laad dan al die gegevens in de pipelines en voert de bewerking tegelijkertijd op de 128 verschillende kleuren uit."

Het lullige is dat (iig in dit voorbeeld) de GPU met al zn stoere pipelines hooguit 2 sneller is dan de CPU.

Alhoewel de GPU 128 opdrachten tegelijk kan verwerken moeten al die 128 geheugenlocaties wel allemaal serieel gelezen en geschreven worden.
Dit kost dus gewoon 128 x 2 geheugenbus klokjes. (even caching e.d. buiten beschouwing gelaten)
Het ophalen van de eigenlijke instructie en het uitvoeren ervan is dan te verwaarlozen.

De CPU moet dan voor elke geheugenlocatie ook nog het commando weten en wordt het commando voor elke locatie opnieuw uitgevoerd.
Dit kost dan nog eens 128 x 2 klokjes (ophalen instructie, verwerken data)
Dat komt er op neer dat de CPU slechts 2x zo langzaam is bij een bepaalde kloksnelheid dan de GPU...

Natuurlijk is dit een versimpelde weergave van de werkelijkheid maar al met al zitten er dus nogal wat beperkingen aan de GPU wil je daar echt rendement uit halen!.
Als het gaat om beeldverwerking, dan is een factor duizend nog niet eens zo heel gek hoor...beetje moderne beeldkaart zit al over de 1 teraflops per gpu waar een quad core cpu hoogstens 10 gigaflops haalt per core...da's al een factor 100 verschil.

Aangezien de floating point berekeningen van beeldkaarten sneller stijgt dan die van cpu's zal ligt die 'de factor 1000' niet zo gek ver in de toekomst iig...
Ze zijn ook ingehuurd om een demonstratie te geven, maar dan wel op dezelfde manier als ze reclames maken. De klant geeft een idee van wat ze willen, en zei denken de rest uit en maken een bijpassende machine.

En om deze dingen te maken hoef je niet super slim te zijn, je moet alleen techniek op een creatieve manier weten toe te passen.
Zoiets heet entertainment en smaken verschillen. Ik vond het persoonlijk ook iets te veel "blabla", maar van de andere kant vind ik dat het wel mag als je zo'n groot project hebt gemaakt.
En zo is het ook leuk om te begrijpen hoe zoiets werkt, ipv dat het razendsnel gaat met action shots en je wel leuk resultaat hebt maar verder niks geleerd hebt.
Precies. Ik zie graag het denk proces, het bouwen en de onderbouwing. Het resultaat is slechts een onderdeel. Ik vind de snelheid precies goed.

OT: Leuke demonstratie. De Mythbusters zijn erg populair, dus erg slim van NVIDIA om ze uit te nodigen. Natuurlijk is het een vereenvoudigd model en natuurlijk zo positief mogelijk voor een gpu.
idd, ik kijk al ieder seizoen en vind het nog steeds super om naar te kijken, zo leer je ook wat meer dan alleen de conclusie!
Jij hebt liever dat ze dat ding afvuren en dat je meteen de zaal uit geloodst wordt?
edit:
ik ben met je eens dat hier wel wat show omheen zat.. maar in hun programma zie je juist veel content NIET, omdat het gewoon niet in een uitzending past. De apparaten waar ze aan bouwen staan er echt niet ineens binnen 45 minuten. Daar moeten ze een hoop knippen om zowel de uitleg als enigzins de totstandkoming van projecten te kunnen laten zien.

[Reactie gewijzigd door grasnek op 31 augustus 2008 15:58]

Wat dacht je van lekkere ouderwetse, gezellige en leuke tv-shows waar je voor kan gaan zitten ipv Jamba-style Idols programma's....heerlijk om zo nu en dan iets te zien wat is uitgesmeerd.
Gelukkig dat de prijs van een gpu geen 1102 keer hoger is dan die van een cpu. Bij hun is dat wel het geval.
ik zou niet graag in een paintball gevecht zitten met die twee :)

Wel een goede vergelijking, maar vooral een goede publiciteits stunt van Nvidea :)
Ach Tales, een airsoftgun of een paintball gun schieten ook met +- 300 fps ( FOOT niet frames per seconde! :) ) daz dus ong 100meter p/s ... sommigen gaan nog harder...

Dus of je nou daarvoor staat of gewoon op 2 meter afstand van een gewonen gun gaat staan.. ach... pijn doet het toch wel...

wel een vette show van deze 2 heren!
Jep een publiciteitsstunt... Meer niet...
Eigenlijk een flauwe vergelijking. Een CPU is voor totaal andere dingen dan een GPU bestemd, dus geen vergelijking.
Als ze nou zouden zeggen 'An other known brand GPU does this... But the Nvidia GPU is capable of doing this...' }>

Verder erg leuk en vet gedaan, maar vergelijking gaat mank.

[Reactie gewijzigd door ManiacsHouse op 31 augustus 2008 15:44]

Eigenlijk valt dat wel mee, zoals je kon zien was de CPU instaat om alles te maken wat je maar zou kunnen bedenken. Alleen is hij wat langzamer. Terwijl de GPU in dit voorbeeld maar een heel gelimiteert aantal dingen kan doen, maar wel veel sneller.
Een CPU is voor totaal andere dingen dan een GPU bestemd,
En dat is dus exact wat ze hiermee wilden aantonen.
De vergelijking is eigenlijk wel vrij eerlijk. Hoewel de "gpu" als winnaar uit de bus komt, is het maar een brute, lompe machine, de "cpu" is veel ingewikkelder en gesofisticeerder. Zo is dat ook in de werkelijkheid.

Een cpu is ongelooflijk veel complexer, maar mist de rauwe flops die een videokaart heeft. Aan dat probleem wordt gewerkt bij Intel (Larrabee.)

[Reactie gewijzigd door OSC-DIS op 31 augustus 2008 15:45]

Maar de CPU kon wel rijden en dus flexibeler. In die zin klopt de vergelijking dus ook.
CPU is voor meerdere doelen gemaakt en kan elk ding maar 1x doen en niet tegelijk

GPU is gebouwd voor alleen iets op je scherm tonen en kan elke pixel paralel laten bewegen.

CPU in huidige vorm zou nooit dezelfde prestaties halen als de GPU nu.
Mischien dat dit later anders zou zijn.
Met multithreading en meerdere cores kunnen CPUs meerdere dingen tegelijk doen hoor, het is alleen zo dat een GPU iets minder dingetjes kan en veel meer cores heeft en daarom nog meer tegelijk kan, maar met een lager aantal instructies dat beschikbaar is.
Is eigenlijk totaal niet waar in de moderne tijd van multicore CPU's die gebruik maken van pipelines, ze doen meerdere dingen tegelijk.
Een GPU is ook totaal niet meer enkel gemaakt om alleen iets op je scherm te tonen.
Om multicores te demonstreren hadden ze natuurlijk twee verfschietarmen kunnen monteren om een dualcore te verbeelden, vier voor een quadcore etcetera. Maar dan heb je de point van het verhaal gemist.

Het gaat zowieso om een (demonstratieve) vergelijking. Met nadruk op dat laatste woord. Ze geven zelf juist al aan dat mensen vaak de verschillen tussen een GPU en een CPU niet begrijpen, dus daarom nemen ze een dik aangezette en versimpelde weergave van de werkelijkheid zodat mensen het dan wél begrijpen. En dat betekent vrijwel automatisch dat er dingen niet exact met de werkelijkheid kloppen, inderdaad, maar dat is dus ook helemaal niet erg (en misschien juist wel wenselijk, want het operationele verschil demonstreren aan de hand van een echte CPU en grafische kaart lijkt me vrij lastig en bovendien een stuk saaier).

Nou denk ik wel dat er op zo'n event relatief weinig mensen het verschil tussen een CPU en GPU niet zullen kennen en dus dat het daar vooral promotie is, maar dat maakt verder niet uit. De uitleg zelf vind ik in ieder geval geslaagd, omdat ik het idee heb dat je hiermee zelfs de grootste computeranalfabeet nog wel een beetje kan uitleggen welk onderdeel nou wat doet.
Een CPU is niet per definitie "ingewikkelder" of complexer, de huidige GPUs zijn ook erg complex hoor. Qua chip ontwerp is een zeer parallel ontwerp met (eventueel) "simpelere" logica per unit) minstens zo complex als een CPU ontwerp dat een veel uitgebreidere commandset heeft, maar minder parallel.

Waarschijnlijk doel je echter het op het verschil tussen "general purpose" (CPU) en een dedicated GPU. De een kan veel vaken, de ander minder, maar wel sneller. Analoog aan de robots: de een kan rijden en langzaam tekenen, de ander kan niet rijden, maar wel heel snel tekenen.
Een cpu is ongelooflijk veel complexer, maar mist de rauwe flops die een videokaart heeft. Aan dat probleem wordt gewerkt bij Intel (Larrabee.)
Bij AMD ook al hoor, die zijn er al 2 jaar mee bezig.
Zowel die larrabee als die fusion worden in 2009 de markt op gepleurt .... dus da's niet zo gek lang meer wachten :9

[Reactie gewijzigd door Rey Nemaattori op 1 september 2008 09:56]

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True