Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 72, views: 23.365 •

Intel demonstreerde tijdens de CES een Haswell-cpu die over de snelste igp beschikt, inclusief dedicated geheugen. Het systeem wordt vergeleken met een Asus-laptop die met een GT 650M is uitgerust. Harde cijfers wilde Intel niet vrijgeven, maar op de video ziet de cpu er vloeiend uit.

De Haswell-lijn vormt Intels aankomende generatie processors, die pas halverwege 2013 te koop zullen zijn. Tijdens het IDF in 2012 gaf Intel al een voorproefje van de kracht van de gpu die in de processors zit verwerkt, maar  tijdens de CES ging de chipfabrikant nog een stapje verder. Zo werd er een Haswell-processor gedemonstreerd met een GT3e-gpu aan boord, de snelste versie die Intel zal uitbrengen.    Deze werd vergeleken met een GT 650M van Nvidia, die in een Asus UX51-laptop zat. Beide systemem draaiden DiRT op 1920x1080, met de settings op High, zonder anti-aliasing of vsync.

Anandtech, dat beide systemen mocht bekijken, kreeg geen toestemming om harde cijfers publiceren, maar beoordeelde dat beide systemen gelijkwaardig presteerden. Dat kan overigens ook betekenen dat het Haswell-systeem niet onder de 30fps komt, terwijl de GT 650M nog hoger scoort. Desondanks is het indrukwekkend dat een geïntegreerde gpu tot dergelijke prestaties in staat is. Volgens Intel kan de gebruikte cpu, die vergelijkbaar is met een Core i7 Ivy Bridge-cpu, in een laptop zoals de UX51 geplaatst worden. Met name ultrabooks, waar een losse videokaart voor te veel warmte zou zorgen, kunnen Intels igp's een flinke stap voorwaarts betekenen ten opzichte van Intels huidige HD 4000-gpu's.

Reacties (72)

10 watt vs 40 watt? nvidia zal het nog lastig krijgen met directcompute/opencl.
Dat idee had ik dus ook. Even onafhankelijk van of de Haswell dezelfde FPS had als de GT650M, het drááit wel goed... als Intel dat met een IGP voor elkaar krijgt, dan is het wel een zetje in de rug voor zowel nVidia als AMD om eens goed te kijken naar de architectuur waarmee ze hun videokaarten maken.

Als Intel dit voor elkaar krijgt met 10Watt, dan is het niet ondenkbaar dat zowel nVidia als AMD met hun échte videokaarten een véél hogere rekenkracht zouden moeten kunnen neerzetten met (bijvoorbeeld) 40Watt. De high-end videokaarten vragen vaak makkelijk 100-200 Watt namelijk, dus dat zou dan een heel stuk omlaag gebracht kunnen worden.

Ik ben wel heel benieuwd naar de manier waarop Intel dit voor elkaar heeft gekregen, en wat het antwoord van nVidia en AMD hierop zal zijn in de toekomst. Een dergelijke IGP die met zo'n laag wattage zulke prestaties neer kan zetten geeft een Asus/Apple/HP/Dell natuurlijk veel minder reden om voor nVidia/AMD te gaan. Dat is dan gewoon in een hoop gevallen overbodig.

... en niet te vergeten de hoeveelheid extra batterijduur je hiervoor terug kan krijgen bij ultrabooks e.d. Een factor 4 zuiniger dan een GT650M kan je een flinke besparing opleveren!
Het is niet zozeer een architectuur kwestie, gpu performance is grotendeels afhankelijk van hoeveel transistors je er tegenaan gooit. Intel kan op 22 nm (en volgend jaar 14 nm) gewoon meer shaders op een mm2 plaatsen dan nVidia/AMD op 28 nm. Nu Intel er eindelijk eens voor kiest om op de Haswell die een fatsoenlijke oppervlakte voor de gpu te reserveren, zie je direct dat de performance in 1 klap op redelijk hoog niveau staat. Dat is niet doordat Intel ineens zo briljant geworden is of dat ze vroeger totale prutsers waren, maar doordat ze nu voor het eerst de beslissing hebben genomen dat er geld te verdienen is door een grote gpu mee te bakken.

Nadeel is dat Haswell hierdoor een grotere en dus duurdere chip voor Intel is om te maken. Dus ofwel de prijzen gaan omhoog tov Ivy Bridge, ofwel Intel moet genoegen nemen met minder marge.

[Reactie gewijzigd door Dreamvoid op 10 januari 2013 12:23]

Ah, bedankt :)

Maar dan nog lijkt het me voor nVidia en AMD belangrijker worden dat ze daar (nog) meer resources aan zetten… als het op deze trend doorgaat dan heeft Intel dalijk snellere IGP's dan dat nVidia en AMD GPU's hebben :)
als het op deze trend doorgaat dan heeft Intel dalijk snellere IGP's dan dat nVidia en AMD GPU's hebben
Dat snap ik niet hoor, Intel loopt al jaren achter nVidia en AMD aan

Nu hebben ze eindelijk(!) een fatsoenlijke GPU, en denken mensen meteen dat nVidia en AMD in gevaar zijn

Als je weet hoeveel geld Intel uitgeefts aan reseach, ben ik echt niet "impressed" dat ze nu eindelijk iets fatsoenlijks hebben gebakken
Je vat m'n opmerking een beetje verkeerd op :)

Ik ben niet van mening dat nVidia en AMD in gevaar zijn, maar Intel heeft een behoorlijk grote sprong gemaakt qua snelheid... zó'n merkbare sprong dat het voor de mid-range videokaarten helemaal niet ondenkbaar is dat bedrijven als Asus, Dell, Apple e.d. in plaats van duurdere (en warmere/energieslurperende) kaarten, ervoor kiezen om de Haswell's IGP te gebruiken.

Dat zijn toch dingen die nVidia en AMD geld kunnen gaan kosten. Daarentegen staan deze 2 bedrijven ook niet stil natuurlijk… ik zou het meer dan interessant vinden als ze Intel's idee overnemen door op een kleinere die shrink meer transistortjes kunnen prakken, en zo met véél minder stroomverbruik, véél meer winst kunnen produceren.

Of ze nu in gevaar komen of niet, het is een (misschien niet "impressive") redelijk opmerkelijke sprong in snelheid die er misschien eindelijk eens voor kan zorgen dat er in GPU-land ook weer wat meer écht opmerkelijks gaat gebeuren. AMD die hun 7xxx kaartjes om-naamt naar 8xxx kaartjes is niet echt spectaculair te noemen namelijk. En hoewel de nieuwe Keplar-kaarten van nVidia best leuk zijn, vragen de meeste kaarten toch redelijk wat stroom (een beetje GPU slurpt in idle toch al snel +100W, terwijl die Haswell IGP er maar 10W nodig heeft). Als ze dit terug weten te dringen gaat dat heel wat stroom/warmte schelen :)
en dat allemaal op een 2x nm chip?
Dit doet mij denken aan het filnpje van vorig jaar rond juni/juli, waarop AMD zijn inmiddels uitgebrachte Trinity showde. Die APU kon dit trucje met Dirt3 ook, maar kon daarbij ook nog ondertussen video's converten en dergelijke. Gaat deze dat ook kunnen?
Jij bedoeld dat filmpje waardige notebook verstopt zat in die computerkast?
Precies, die ja. Dit was meer werk voor de GPU en een jaar eerder op de markt.
Dit is DiRT 3 (2011) niet te verwarren met zijn voorganger DiRT uit 2007.
Grr nu zit ik hier op m'n Dell van 950¤ met een 650M :(
Hij heeft wel 2GB GDDR5 geheugen maarja, dit is een van de dingen die ik haat aan vernieuwing :p
Prachtig om te zien! Mijn huidige laptop heeft een AMD 6770M en die is vergelijkbaar met de 650M. Hier kan je echt prima op gamen, nadeel is alleen dat de laptop dan heel warm wordt. Dit probleem is vast en zeker opgelost met zo'n ingebakken GPU.
Te heftig dit welke videokaart willen ze hier dan nog bij gaan doen? :/
Waarschijnlijk een GT(X)680 of 690 (M) of misschien iets uit een toekomstige GT(X)700(M) serie voor de echte rauwe batterij slurpende power.
Terwijl de IGP dan geoptimaliseerd wordt om energie zuinig een goed resultaat neer te zetten.
Ik meen toch te zien dat de framerate links wat lager is dan rechts , dat merk je vooral op door naar objecten te kijken langs de zijkant van het parkoers. Maar ik kan me ook vergissen gezien het filmpje van die 2 systemen is opgenomen door een Parkinson patient zonder optische beeldstabilisatie :D
Klopt inderdaad ik zie het ook. Ondanks dat is het een mooie ontwikkeling.

Nvidia komt met mooie hardware. maar het wordt naar mijn idee te log en veel te groot.

Het lijkt allemaal niks uit te maken dat je voortaan 2 x 8 pins stroom connectoren moet hebben om een bakbeest van stroom te voorzien. De kaarten zijn ide al 60 graden en als je een echt presterende kaart wil ben je al snel 600 euro kwijt.

Nvidia wil wel steeds sneller en beter. maar wellicht moeten ze ondertussen ook eens gaan kijken naar hoe ze de kaarten zuiniger gaan maken waardoor minder energie verloren gaat aan warmte en juist meer aan rekenkracht...

Dit zie je ook goed in de One X. dat ding heeft een tegra 3 van nvidia. als je daar een game mee speelt wat een beetje zwaar is dan warmt de OneX zo erg op dqat je het scherm amper nog vast kunt houden van de hitte. de accu trekt hij leeg in minder dan een uur.

Nvidia heeft nooit echt gelet op stroom verbruik bij high end kaarten en het formaat ervan. jammer.

Misschien met de komst van intel dat ook nvidia de noodzaak in gaat zien van deze ontwikkeling.
Groot gelijk in mijn ogen... dat is ook precies wat ik al jaren hoop. Die extra snelheid is hartstikke leuk, maar laat ze (tegelijkertijd) ook eens goed nadenken over wat ze nou eigenlijk aan het doen zijn qua stroomverbruik.

Een beetje GPU is tegenwoordig zó groot en trekt (naar verhouding) behoorlijk wat stroom. Als Intel met hun kleine IGP (en meer transistors per mm2 zoals Dreamvoid me duidelijk maakte) dit met zó'n kleine chip en zó weinig stroomverbruik voor elkaar krijgt, kun je nagaan wat AMD/nVidia dan voor elkaar zouden krijgen als ze ditzelfde principe zouden overnemen.

Dan heb je dalijk een videokaart die grofweg maar 25% stroom verbruikt dan de huidige GPU's, en misschien de helft kleiner zijn… en tóch vele malen beter presteren. Ik heb een aantal jaar geleden mijn home-made PC de deur uit gedaan omdat het 't voor mij niet meer waard was kijkend naar hoeveel stroom dat ding vroeg. Maar met een dergelijke GPU van nVidia/AMD en de langzaamaan steeds zuiniger wordende Intel CPU's wordt het wel veel interessanter om toch weer eens een PC'tje te bouwen. Dan heb je dalijk dezelfde performance in een Mac Mini-achtige computer vergeleken met de grote monster-torens van nu :)
Let even op je taalgebruik... dat je het ergens niet mee eens bent kun je ook normaal zeggen. En die GTX680 heeft een idle gebruik van 112Watt, vergeleken met Intel's 10Watt voor hun Haswell. Dus als die 25% van dat huidige verbruik kan gaan gebruiken met eenzelfde principe is dat grofweg 25Watt in idle gebruik. De eerste 2 grafieken geven dat toch duidelijk weer?
Ik zie in geen van de reacties een verwijzing naar het feit dat de IGP dedicated geheugen beschikbaar heeft. Als je gebruik maakt van dedicated geheugen is er volgens mij weinig verschil tussen een losse CPU + GPU en een combinatie van beide. AMD heeft hier in het verleden al wel wat mee geexperimenteerd in de IGP's in chipsets.
Faarwel amd APU's ;(
Aan de andere kant natuurlijk mooi dat mijn huidige itx build zometeen gewoon in een die package kan.
Moeten ze wel die intel hd driver bijwerken geen enkel spel draait goed :o

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013