Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Foto van vermeende Nvidia GTX 1080-koeler verschijnt online

Op het Chinese Baidu is een foto verschenen waarop waarschijnlijk de koeler van de komende Nvidia GTX 1080 is te zien. Volgens geruchten wordt de nieuwe videokaart, die gebruik zal maken van de Pascal-gpu, eind mei aangekondigd.

De foto toont enkel een koeler, die mogelijk gebruikt gaat worden voor het referentieontwerp van de GTX 1080. De videokaart zelf is nog niet te zien. Eind maart verschenen er al foto's online van delen van de koeler, met de tekst GTX 1080 en GTX 1070. De nieuwe foto lijkt de echtheid van de eerdere beelden te bevestigen, al moet er nog wel een slag om de arm gehouden worden gezien Nvidia officieel nog niets bekend heeft gemaakt.

Nvidia kondigde begin april tijdens zijn GPU Technology Conference de Tesla P100 voor gebruik in servers en supercomputers aan. Deze kaart beschikt over de GP100-gpu, die op 16nm is gebakken. Dezelfde chip zal in aangepaste vorm zijn weg vinden naar consumentenkaarten in de GeForce-serie.

Voor de Tesla P100-kaart, die begin 2017 op de markt komt, maakt Nvidia gebruik van hbm2-geheugen. Zeer waarschijnlijk is dat niet het geval bij de nieuwe GeForce-kaarten. Dit nieuwe geheugentype is nog niet goed verkrijgbaar en waarschijnlijk erg duur. Volgens geruchten krijgt de GTX 1080 8GB gddr5x-geheugen, maar het is ook mogelijk dat Nvidia net als bij de huidige generatie nog gddr5-geheugen zal gebruiken.

De verwachting is dat Nvidia eind mei, vlak voor de start van de Computex-beurs in Taiwan, zijn nieuwe GeForce-kaarten zal aankondigen. Op die beurs zal AMD vermoedelijk ook zijn grafische kaarten gebaseerd op de Polaris-gpu tonen. Het zou daarbij gaan om de R9 490X en R9 490, eveneens met gddr5- of gddr5x-geheugen.

Door Julian Huijbregts

Nieuwsredacteur

19-04-2016 • 20:07

65 Linkedin Google+

Reacties (65)

Wijzig sortering
Via GPU compute kunnen er hashes berekend worden, kan je er passwords een stuk sneller mee kraken en met initatieven zoals TrueAudio doen deze tegenwoordig ook geluid.

GPGPU kan voor allerlei dingen worden ingezet, o.a als foto filters, maar ook in robotica en deep learning. Videokaarten zijn echt niet meer de beeldverwerkers van vroeger. (Hoewel de oude blitter uit een Amiga mij nog steeds bekoort) :)
Eigenlijk is hashes berekenen niet iets waar GPUs heel goed in zijn: daar zit vaak veel branching in, en GPUs draaien super lichte micro threads die alle instructies per warp in lock-step draaien. Dat komt erop neer dat elke thread alle instructies uitvoert, ook in branches die niet gevolgd worden. Dus als je zegt "if x>2 then y=x^2 else y=x^3 end" dan berekent elke thread zowel x^2 als x^3, alleen wordt er het schrijven naar y uitgeschakeld in de ene of de andere branch. Ook heeft elke thread maar heel beperkt lokaal geheugen en is zelfs lezen van groter main geheugen ontzettend, verschrikkelijk duur. De combinatie van die twee dingen is de kracht zowel als de zwakte van GPUs. There's no such thing as a free lunch :) Taken die dus bij uitstek goed op GPUs met duizenden threads draaien zijn de embarrassingly parallel taken, waar je heel erg vaak hetzelfde moet doen met hele lokale state; i.e., een paar miljoen pixels renderen, of een hele grote array verwerken die je in stukjes kan hakken.
Nu als we het een beke simplictisch uitleggen:
Een GPU is ongeveer hetzelvde als een CPU, maar er zijn een aantal key verschillen:

CPU is VEEL nauwkeuriger, maar veel trager.
en net andersom een GPU is VEEL sneller, maar minder nauwkeurig.

De nauwkeurigheid is in floating point operations. Wat dus het berekenen is van decimale getallen. Nu in geval van games, de 3D vertices worden afgerond tot op één pixel. Dus is de nauwkeurigheid van de decimale waarden niet erg van belang, dus daarom is een GPU VEEL interessanter voor het renderen van 3D beelden.

Nu het is dus een questie van toepassing, waar is snelheid veel belangrijker dan nauwkeurigheid. En in zulke gevallen kun je dus een GPU verkiezen om berekeningen te doen in plaats van de CPU.

In meeste gevallen is het wel natuurlijk dat een Heel sterke GPU maar bedoeld is voor een specifieke doelgroep. Wat tegenwoordig vooral gamers zijn en Video editors, die HD en zelfs tegenwoorden 4K videos editeren en renderen, wat ook met behulp van sterke videokaarten wordt versneld

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True