Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties
Bron: Ars Technica

Geruchten doen de ronde dat nVidia de G80-core als apart 'gpu computing'-concept op de zakelijke markt wil brengen. Het bedrijf hoopt een nieuwe markt aan te boren door de chip aan te prijzen als ideale oplossing voor allerhande zware parallelle berekeningen.

nVidia GeForce logo (nieuw)Dat de G80-core met zijn 128 streamprocessors uitermate geschikt is als coprocessor voor bepaalde complexe rekentaken, roept nVidia natuurlijk al langer. Niet voor niets heeft de fabrikant het gpgpu-systeem Cuda in het leven geroepen. Dat verandert echter niets aan het feit dat gpu's ontwikkeld zijn om vooral één ding heel erg goed te doen: real-time 3d-renderen voor games. De boodschap van nVidia dat ze een superkrachtige parallelle data-verwerkende coprocessor hebben, komt daarom niet goed aan bij de zakelijke doelgroep, meent Ars Technica. Om de chip op de kleine, maar lucratieve markt voor high performance computing beter te positioneren zal nVidia daarom in juni de G80 onder een aparte merknaam uitbrengen, zo wordt beweerd. Als het bedrijf de architectuur ontdoet van overbodige op grafische prestaties gerichte hardware en beter toerust op hpc-taken, kan het zich strikt richten op de mogelijkheden van de G80 als supercomputerchip. Die taktiek zou wel eens kunnen werken, denkt John Stokes van Ars Technica, omdat er op het moment geen coprocessor is die de dezelfde flexibiliteit en prestaties per Watt levert en qua prijs in de buurt komt bij de oplossing die Nvidia kan leveren.

Moderatie-faq Wijzig weergave

Reacties (31)

Doet AMD/ATI dit niet al een tijdje?
http://ati.amd.com/technology/streamcomputing/index.html

Ze voegen dan wel wat extra geheugen enzo toe. Ben benieuwd of het aanslaat.
Nou, kom dan maar op met de SLI opstelling met 2 kaarten met elk twee van deze krachtpatsers. :9

*vraagt zich hard af wat het dan gaat kosten, maar denkt dat het vééél waar is voor het vele geld *

edit: *ziet nu visioenen van live gerenderde fotorealistische films*
Live renderen van films is onzin en verspilling van rekenkracht en stroom. 1x renderen en dan in een algemeen geaccepteerd formaat opslaan is veel efficienter. Voor games komt het wel van pas, omdat je POV en ingame omstandigheden nooit hetzelfde zijn.

* AtleX droomt mee van live gerenderde realistische games...
realtime rendering kan voordelen hebben voor regie en eventuele realtime virtuele acteurs.
@atlex

Idd Live films renderen is onzin. Maar er bestaat ook nog zoiets als viewpots in programma's als 3ds max, of maya. Eindelijk dus over de 8 miljoen polygonen heen zonder dat je pc vastloopt, of rechtstreeks zien hoe de raytracing uitpakt, of de textures high-ress weergeven.
Hier is dat ''live-renderen'' dus zeker handig voor
Hoezo onzin?

Als je de film live kan renderen hoeven na een initiële setup alleen nog maar de bewegingen en nieuwe plaatjes/achtergronden te worden verstuurd.

Misschien is het hiermee mogelijke om over een paar jaar de karakteristiek van een acteur op te slaan zodat alleen nog maar de bewegingen verzonden worden. Noem het MPeg 5?

Als iedereen straks thuis HD kwaliteit wilt ontvagen is de totale bandbreedte van Internet zeker niet voldoen (enige tijd een artikel op tweakers, waarbij de door Google verteld werd) en kan betere compressie hier zeker bij helpen.
Het gaat hier toch juist niet om allerlei gerenderde zooi. Het gaat hier om een chip die gigantische goede parralele prestaties kan neerzetten, en daarom bijvoorbeeld heel geschikt is voor supercomputers.
Door alle grafische reut eruit te slopen (lees andere merknaam) kunnen ze zo'n product behoorlijk aan de man brengen :)
Nou eigenlijk gaat het juist wel om allerlei gerenderde zooi. Deze gpu laat zich goed lenen om bv frames te renderen, iets waar gpu's in het algemeen toch al goed voor zijn zou deze dus nog best wel eens een stapje verder kunnen gaan. Daarnaast 'supercomputers' is het geheel afhankelijk van wat ie moet doen, bv dna stringen berekenen dat gaat wel weer goed maar complexere (lees verschillende handelingen) zal wel eens tegen kunnen vallen.
Het bedrijf hoopt een nieuwe markt aan te boren door de chip aan te prijzen als ideale oplossing voor allerhande zware parallelle berekeningen.
Dat je met een GPU plaatjes kunt renderen (quadro) en spelletjes kunt spelen (geforce) was al vrij lang bekend. Het gaat hier toch om het uitvoeren van andere berekeningen. Zo heeft ATI ook al een GPU-client voor folding@home.
@ iedereen hierboven

Het gaat dus nu voor de grap even *niet* over het grafische gedeelte. Live renderen (in wat voor omgeving dan ook) doet de 8800 (G80) prima.

Waar het hier om gaat is dat de G80-core ook in staat is om andere taken een heel stuk sneller te doen dan een 'normale' proc. Bedrijven zitten alleen niet te wachten op de Asus 8800GTMEGAX-met-de-stijve-piemel-look-doos met gratis game X en Y en een whooping 3dmark06 licentie.

Oftewel, nvidia gaat de G80-core op een kaartje frotten die GEEN video-uitgang heeft maar gewoon als co-processor gaat dienen voor speciale (Cuda) applicaties. En brengt dit uit onder een andere naam...

Vergelijk het (eerder) met de Aeiga (of hoe heet dat ding) kaart. (maar dan dus nog steeds niet op games gericht he)
Ik gebruik al een tijd de GPU om processen te draaien waar je anders een cluster voor nodig hebt, je zal verbaast zijn waartoe een videokaart in staat is, mits op de juiste manier aangestuurd en gebruikmakend van een toepasbaar algoritme. Het is een uitstekend alternatief om een desktop-based scientific datavisualisatie systeem te ontwikkelen - wat ik ongeveer doe dus :)
Datavisualisatie.
Dus dat zal dan wel gewoon D3D of OpenGL gerenderde graphics zijn ipv GDI(+) of Java 2D ofzo. :)
http://folding.stanford.edu/FAQ-ATI.html

LOL mijn bericht off topic ?
aleen omdat er in het artiekel staat dat een NVIDIA kaart er niet snel genoeg voor is ? :PPPPPP
Leg plat hiero....
Is het ook misschien bij je opgekomen dat ze het hebben over de vorige generatie nVidia kaarten? (De G80 heeft sowieso niet eens meer losse pixel shaders.)
Ging mij er aleen om dat dit met ATI kaarten op thuis gebruik nivo al meer dan een jaar gedaan word.
niet om dat nvidia het niet kan.
reageerde aleen zo omdat iemand (met een nvidia kaart) mijn post "off topic" bestempelde :P
Als de GPGPU gebruikt gaat worden voor zware reken taken dan kan zo`n chip dus goed gebruiken bij het kraken van encryptie?

aangezien encryptie voornamelijk bestaat uit algoritmes dus berekeningen. Als dit 10x sneller gaat dan de snelste CPU nu dan is dat toch niet zo mooi te noemen als er geschikte software voor ontwikkeld word die dat kunnen.

Echter biedt deze GPGPU wel weer mooi oplossingen voor natuurkundige berekeningen en dan zal je een super computer vele malen kleiner kunnen maken om brite reken kracht te combineren met de cpu. Hoeveel Flops kan zo`n G80 verwerken?
Hier hebben ze het over 346 GFlops (520 met puur grafische te gebruiken instructies erbij)

En voor encryptie kraken is 'tie blijkbaar ook geschikt.
Op ArsTechnica is er iemand bezig met het aanpassen van de distributed.net software rc5 code (= Voor brute force kraken van een 72 bits code) om de CUDA te kunnen gebruiken en dat gaat al richting 125Miljoen sleutels per seconde.
Dat is ongeveer 10x sneller dan een snelle single core CPU.
Door de grote hoeveelheid shaders zijn GPU's zo gruwelijk snel in dit soort taken, zoals veel mensen laten zien met de 48 pixel shaderige R580.
Wanneer Nvidia even er de sokken in zet en een F@H client maakt voor gf8xxx kaarten, met z'n grote hoeveelheden unifiedshaders (momenteel vanaf 96 (gts) tot 128 (gtx)) zal dat een performance geven waar je tot voor kort alleen van kon dromen.
Met veel spanning kijk ik dan ook naar het GoT topic dat D2DM gaf :D
Dan is de stap ook niet ver meer om Ageia geen kans te laten, of spreken we hier van een ander soort wiskundige bewerkingen?
Klopt, daarom komen AMD en nVidia ook met een 'derde videokaart' die ongeveer dezelfde functies als de PPU van Ageia heeft. Op nieuwe luxere moederborden vindt je al wel eens een derde pci-e x16 slot, die voor zo'n taak is bedoeld (natuurlijk ook goed te gebruiken voor een zware RAID kaart :) 0
gebruik mijn gf 7600's gpu al voor het renderen an 3d max scene's via gelato. bij mijn gebruik merk ik heel goed het verschil met alleen m'n athlon dual core en cpu + gpu met de gelato render engine.
Ja een ATI en een NVIDIA kaarten in je pc. Dan zullen de fpsjes aardig oplopen met als die concurentie strijd :D
En wanneer komt er nou linux die op een G80 only (virtual) computer kan draaien? :9
Waarschijnlijk nooit, gezien de achitectuur van de G80 kan ik het me niet voorstellen dat dat ooit lekker zal draaien.
Er wordt hier ook niet voor niets over een G80 Co processor gesproken.
binnenkort allemaal met 2 R500's als videokaart een simpele X6800 EN een 8800 om de CPU te ontlasten
nogmaals,

deze kaarten zijn ongelooflijk snel in dom rekenwerk en dus niet in het wat ingewikkeldere werk wat x86 cpu's moeten kunnen. Daarvoor zijn decoders nodig die de instructies omzetten en die decoders ontbreken bij een G80, oftewel veel van het werk wat je cpu doet zullen deze kaarten simpelweg niet kunnen.

Zoals Bush zei dat de Amerikanen verslaafd zijn aan olie, zo is de ICT sector verslaafd aan x86 (een heel groot deel wel te verstaan ;))

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True