Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties, 23.450 views •

Intel demonstreerde tijdens de CES een Haswell-cpu die over de snelste igp beschikt, inclusief dedicated geheugen. Het systeem wordt vergeleken met een Asus-laptop die met een GT 650M is uitgerust. Harde cijfers wilde Intel niet vrijgeven, maar op de video ziet de cpu er vloeiend uit.

De Haswell-lijn vormt Intels aankomende generatie processors, die pas halverwege 2013 te koop zullen zijn. Tijdens het IDF in 2012 gaf Intel al een voorproefje van de kracht van de gpu die in de processors zit verwerkt, maar  tijdens de CES ging de chipfabrikant nog een stapje verder. Zo werd er een Haswell-processor gedemonstreerd met een GT3e-gpu aan boord, de snelste versie die Intel zal uitbrengen.    Deze werd vergeleken met een GT 650M van Nvidia, die in een Asus UX51-laptop zat. Beide systemem draaiden DiRT op 1920x1080, met de settings op High, zonder anti-aliasing of vsync.

Anandtech, dat beide systemen mocht bekijken, kreeg geen toestemming om harde cijfers publiceren, maar beoordeelde dat beide systemen gelijkwaardig presteerden. Dat kan overigens ook betekenen dat het Haswell-systeem niet onder de 30fps komt, terwijl de GT 650M nog hoger scoort. Desondanks is het indrukwekkend dat een geïntegreerde gpu tot dergelijke prestaties in staat is. Volgens Intel kan de gebruikte cpu, die vergelijkbaar is met een Core i7 Ivy Bridge-cpu, in een laptop zoals de UX51 geplaatst worden. Met name ultrabooks, waar een losse videokaart voor te veel warmte zou zorgen, kunnen Intels igp's een flinke stap voorwaarts betekenen ten opzichte van Intels huidige HD 4000-gpu's.

Reacties (72)

Reactiefilter:-172071+153+27+30
Moderatie-faq Wijzig weergave
10 watt vs 40 watt? nvidia zal het nog lastig krijgen met directcompute/opencl.
Dat idee had ik dus ook. Even onafhankelijk van of de Haswell dezelfde FPS had als de GT650M, het drááit wel goed... als Intel dat met een IGP voor elkaar krijgt, dan is het wel een zetje in de rug voor zowel nVidia als AMD om eens goed te kijken naar de architectuur waarmee ze hun videokaarten maken.

Als Intel dit voor elkaar krijgt met 10Watt, dan is het niet ondenkbaar dat zowel nVidia als AMD met hun échte videokaarten een véél hogere rekenkracht zouden moeten kunnen neerzetten met (bijvoorbeeld) 40Watt. De high-end videokaarten vragen vaak makkelijk 100-200 Watt namelijk, dus dat zou dan een heel stuk omlaag gebracht kunnen worden.

Ik ben wel heel benieuwd naar de manier waarop Intel dit voor elkaar heeft gekregen, en wat het antwoord van nVidia en AMD hierop zal zijn in de toekomst. Een dergelijke IGP die met zo'n laag wattage zulke prestaties neer kan zetten geeft een Asus/Apple/HP/Dell natuurlijk veel minder reden om voor nVidia/AMD te gaan. Dat is dan gewoon in een hoop gevallen overbodig.

... en niet te vergeten de hoeveelheid extra batterijduur je hiervoor terug kan krijgen bij ultrabooks e.d. Een factor 4 zuiniger dan een GT650M kan je een flinke besparing opleveren!
Het is niet zozeer een architectuur kwestie, gpu performance is grotendeels afhankelijk van hoeveel transistors je er tegenaan gooit. Intel kan op 22 nm (en volgend jaar 14 nm) gewoon meer shaders op een mm2 plaatsen dan nVidia/AMD op 28 nm. Nu Intel er eindelijk eens voor kiest om op de Haswell die een fatsoenlijke oppervlakte voor de gpu te reserveren, zie je direct dat de performance in 1 klap op redelijk hoog niveau staat. Dat is niet doordat Intel ineens zo briljant geworden is of dat ze vroeger totale prutsers waren, maar doordat ze nu voor het eerst de beslissing hebben genomen dat er geld te verdienen is door een grote gpu mee te bakken.

Nadeel is dat Haswell hierdoor een grotere en dus duurdere chip voor Intel is om te maken. Dus ofwel de prijzen gaan omhoog tov Ivy Bridge, ofwel Intel moet genoegen nemen met minder marge.

[Reactie gewijzigd door Dreamvoid op 10 januari 2013 12:23]

Ah, bedankt :)

Maar dan nog lijkt het me voor nVidia en AMD belangrijker worden dat ze daar (nog) meer resources aan zetten… als het op deze trend doorgaat dan heeft Intel dalijk snellere IGP's dan dat nVidia en AMD GPU's hebben :)
als het op deze trend doorgaat dan heeft Intel dalijk snellere IGP's dan dat nVidia en AMD GPU's hebben
Dat snap ik niet hoor, Intel loopt al jaren achter nVidia en AMD aan

Nu hebben ze eindelijk(!) een fatsoenlijke GPU, en denken mensen meteen dat nVidia en AMD in gevaar zijn

Als je weet hoeveel geld Intel uitgeefts aan reseach, ben ik echt niet "impressed" dat ze nu eindelijk iets fatsoenlijks hebben gebakken
Je vat m'n opmerking een beetje verkeerd op :)

Ik ben niet van mening dat nVidia en AMD in gevaar zijn, maar Intel heeft een behoorlijk grote sprong gemaakt qua snelheid... zó'n merkbare sprong dat het voor de mid-range videokaarten helemaal niet ondenkbaar is dat bedrijven als Asus, Dell, Apple e.d. in plaats van duurdere (en warmere/energieslurperende) kaarten, ervoor kiezen om de Haswell's IGP te gebruiken.

Dat zijn toch dingen die nVidia en AMD geld kunnen gaan kosten. Daarentegen staan deze 2 bedrijven ook niet stil natuurlijk… ik zou het meer dan interessant vinden als ze Intel's idee overnemen door op een kleinere die shrink meer transistortjes kunnen prakken, en zo met véél minder stroomverbruik, véél meer winst kunnen produceren.

Of ze nu in gevaar komen of niet, het is een (misschien niet "impressive") redelijk opmerkelijke sprong in snelheid die er misschien eindelijk eens voor kan zorgen dat er in GPU-land ook weer wat meer écht opmerkelijks gaat gebeuren. AMD die hun 7xxx kaartjes om-naamt naar 8xxx kaartjes is niet echt spectaculair te noemen namelijk. En hoewel de nieuwe Keplar-kaarten van nVidia best leuk zijn, vragen de meeste kaarten toch redelijk wat stroom (een beetje GPU slurpt in idle toch al snel +100W, terwijl die Haswell IGP er maar 10W nodig heeft). Als ze dit terug weten te dringen gaat dat heel wat stroom/warmte schelen :)
En gaan die nieuwe cpu's in de huidige ivy bridge borden passen?
Nee Haswell gaat Socket 1150 krijgen. Sandy en Ivy gebruiken 1155
Dat is nou zo jammer. Is er een reden waarom? AMD blijft lang op dezelfde socket, alleen de FM's lijken kort mee te gaan. Dus is het het grafische deel dat incompatibel is?
Zou Haswell dezelfde socket hebben zou ik overwegen over te stappen, maar misschien dan maar wachten op de volgende gen.
da's een mooie mythe
AMD
- socket 939 vanaf 2004
- AM2 is van 2006
- AM2+ was er al in 2007
- AM3 is van 2009
- AM3+ is van 2011

intel
- socket 775 vanaf 2004
- LGA 1156 vanaf 2009
- LGA 1155 vanaf 2011
- LGA 1150 vanaf 2013

nu durfde intel wel chipsets/cpu's te maken voor s775 die niet allemaal compatibel waren, maar dat deed AMD ook wel bij socket A (en later)
daarbij, waarom? een moederbord is tegenwoordig erg goedkoop, sterker nog: een Sandy Bridge op een Z77 is een stuk sneller dan een Sandy Bridge op Z68... ook bij chipsets wordt snelheid gewonnen
een nieuwe cpu op een oud moederbord is dus zelden een goed idee
@catfish: da's een mooie mythe

Behalve dan dat AM2(+) en AM3(+) moederborden sterk overlappend compatible zijn qua cpu's en geheugen, forward or backward. In de praktijk komt het er op neer dat je 2 jaar of langer met een moederbord kunt doen, eventueel dmv een Bios upgrade.

Moederborden kosten soms honderden euro's, tis maar net wat je erg goedkoop vind ?

Geen mythe dus maar realiteit.

[Reactie gewijzigd door trm0001 op 10 januari 2013 17:24]

De gen na haswell zal wel dezelfde socket gebruiken (broadwell).
Natuurlijk het broadwell is een die shrink van 22 naar 14nm waarom zou je een andere socket nemen voor dezelfde chip met extra transistors.
Dat is nou zo jammer. Is er een reden waarom?
Ja, er komt een compleet ander ontwerp voor de CPU, dus dan moet de socket meeveranderen.
Andere CPU architectuur. Bij Haswell zitten bijv de VRMs niet meer op het moederbord maar in de CPU zelf. Hierdoor kan een Haswell CPU niet op een SB/IB mobo draaien.
Nee, er komt een nieuw socket (1150) ipv huidige sandy / ivy (1155)
Laten we alvast hopen dat deze demo 'eerlijk' verlopen is. Bij de vorige IGP had Intel tijdens de demonstratie een video spelende terwijl de showman deed alsof hij live gamede.
Dat heeft Anand wel gecheckt ;)
Note that I confirmed all settings myself and ran both games myself independently of the demo.
Gaat het hier dan over de Intel HD4600 met Dynamic frequency van 1250mhz... Althans dat is de snelste tot nu toe bekende haswell...

Het zou wel erg gestoord zijn als de igp een gt650m kan evenaren. Ik verwacht hier ook een addertje onder het gras...
Het addertje is dat het om de nieuwe nog uit te komen GT3e-gpu gaat. ;)
Het addertje dat Haswell misschien op 40FPS zit terwijl de GT650m op 90FPS loopt?
Dat zullen we zien in de benchmarks.
En de video/ het spel haperde nog erg ook. Ik snap niet dat ze dat wilden presenteren.
Kan iemand mij vertellen of in laptops de zelfde igpu zit als in de desktop varianten van Intel? Dus dat een high end i7 hetzelfde presteerde op grafisch vak als een low voltage i7 in een ultrabook.
Werd mij niet helemaal duidelijk in het artikel.

Alvast bedankt.
Desktops hebben bij mijn weten een betere IGP dan laptop chips, voornamelijk omdat een desktop veel meer stroom kan en mag verbuiken (85W is niet ongehoord), terwijl die bij laptops meestal maar 1/3e van dat verbruik kan en mag zijn.

Daarnaast kunnen pc's ook veel beter hitte afvoeren, dus een heethoofd is niet zo'n ramp
De ULV CPU's (Core ix-3xx7M) hebben bijvoorbeeld een lagere kloksnelheid en kunnen de Turbo frequencie niet zo goed aan als de 35-55 watt modellen. De ULV versie is daarom gemiddeld 30% langzamer.
Op notebookcheck staan tevens benchmarks welke je kan vergelijken met desktop GPU's aan de rechterkant, vrij complete lijst.
Dat dacht ik dus ook maar ze hebben het over een mobiele variant van het moederbord chipset (filmpje @0.25). Dus je kunt dit gaan verwachten in een laptop.

De 650m heeft een TDP van 45watt en een mobile i7/i5 quad core processor heeft iets van 20watt aan TDP. Deze zitten al gewoon samen in diverse laptops op dit moment. Dat is een TDP van 65Watt voor enkel CPU en GPU.

Als ze dus nu een processor maken met enkel een TDP van, ik noem maar iets, 50watt waar de videokaart dus gewoon bij inzit dan lijkt het verbruik van de processor wel veel hoger maar totaal gebruik is dus behoorlijk minder.

Ik ben benieuwd of dit voor de koeling als een voordeel of als een nadeel gezien kan worden omdat de hitte het zich concentreert op een centraal punt, wat imho makkelijk af te voeren moet zijn.
Dat zou je denken, maar nee, het juist andersom (als je tenminste naar Sandy en Ivy Bridge kijkt). Practisch alle Ivy Bridge mobile processors hebben de HD4000 GPU, bij de desktop varianten hebben alleen alle i7 varianten een HD4000 alsook één i5 en één i3 variant. De overige i5's en i3's hebben een HD2500 (minder cores).

De reden hiervoor zal liggen in het feit dat het allemaal hetzelfde ontwerp is maar dat de desktop processors minder goed zijn (hogere TDP, defecte GPU cores, etc), gezien de marge op mobile processors gewoon veel hoger is zal intel daar vooral de focus op leggen. Daarnaast zal in een desktop sneller een aparte GPU bijgeplaatst worden als de GPU prestaties belangrijk zijn.

[Reactie gewijzigd door knirfie244 op 10 januari 2013 13:56]

meestal juist niet!
intel zet in laptop cpu's vaker z'n snelste IGP omdat er in een laptop vaker voor een IGP wordt gekozen
bij desktops wordt vaker voor een GPU gekozen
Damn! Dat is indrukwekkend. Op de GT650m kan je een aardig potje gamen. Afhankelijk van het gekozen geheugen (DDR3/GDDR5) natuurlijk. De meeste moderne games zijn hierop wel in FullHD te draaien, zij het op medium settings.
maar zoals gezegd; wellicht draaide de GT650 nog een stuk sneller dan de intel. Alles boven de 30fps ziet er vloeiend uit in een opgenomen filmpje... Wellicht is de 650 alsnog 2x zo snel! ;)
Tja ik heb zelf Mass Effect 3 gespeeld op full hd op een 9400GT met 1 GB DDR2 geheugen... was wel met flinke overclock en aangezien Intel geen settings en benchmarks liet zien zou het dus kunnen dat ze zelf wat "tweaks" hebben uitgevoerd...
Ik meen toch te zien dat de framerate links wat lager is dan rechts , dat merk je vooral op door naar objecten te kijken langs de zijkant van het parkoers. Maar ik kan me ook vergissen gezien het filmpje van die 2 systemen is opgenomen door een Parkinson patient zonder optische beeldstabilisatie :D
Klopt inderdaad ik zie het ook. Ondanks dat is het een mooie ontwikkeling.

Nvidia komt met mooie hardware. maar het wordt naar mijn idee te log en veel te groot.

Het lijkt allemaal niks uit te maken dat je voortaan 2 x 8 pins stroom connectoren moet hebben om een bakbeest van stroom te voorzien. De kaarten zijn ide al 60 graden en als je een echt presterende kaart wil ben je al snel 600 euro kwijt.

Nvidia wil wel steeds sneller en beter. maar wellicht moeten ze ondertussen ook eens gaan kijken naar hoe ze de kaarten zuiniger gaan maken waardoor minder energie verloren gaat aan warmte en juist meer aan rekenkracht...

Dit zie je ook goed in de One X. dat ding heeft een tegra 3 van nvidia. als je daar een game mee speelt wat een beetje zwaar is dan warmt de OneX zo erg op dqat je het scherm amper nog vast kunt houden van de hitte. de accu trekt hij leeg in minder dan een uur.

Nvidia heeft nooit echt gelet op stroom verbruik bij high end kaarten en het formaat ervan. jammer.

Misschien met de komst van intel dat ook nvidia de noodzaak in gaat zien van deze ontwikkeling.
Groot gelijk in mijn ogen... dat is ook precies wat ik al jaren hoop. Die extra snelheid is hartstikke leuk, maar laat ze (tegelijkertijd) ook eens goed nadenken over wat ze nou eigenlijk aan het doen zijn qua stroomverbruik.

Een beetje GPU is tegenwoordig zó groot en trekt (naar verhouding) behoorlijk wat stroom. Als Intel met hun kleine IGP (en meer transistors per mm2 zoals Dreamvoid me duidelijk maakte) dit met zó'n kleine chip en zó weinig stroomverbruik voor elkaar krijgt, kun je nagaan wat AMD/nVidia dan voor elkaar zouden krijgen als ze ditzelfde principe zouden overnemen.

Dan heb je dalijk een videokaart die grofweg maar 25% stroom verbruikt dan de huidige GPU's, en misschien de helft kleiner zijn… en tóch vele malen beter presteren. Ik heb een aantal jaar geleden mijn home-made PC de deur uit gedaan omdat het 't voor mij niet meer waard was kijkend naar hoeveel stroom dat ding vroeg. Maar met een dergelijke GPU van nVidia/AMD en de langzaamaan steeds zuiniger wordende Intel CPU's wordt het wel veel interessanter om toch weer eens een PC'tje te bouwen. Dan heb je dalijk dezelfde performance in een Mac Mini-achtige computer vergeleken met de grote monster-torens van nu :)
Let even op je taalgebruik... dat je het ergens niet mee eens bent kun je ook normaal zeggen. En die GTX680 heeft een idle gebruik van 112Watt, vergeleken met Intel's 10Watt voor hun Haswell. Dus als die 25% van dat huidige verbruik kan gaan gebruiken met eenzelfde principe is dat grofweg 25Watt in idle gebruik. De eerste 2 grafieken geven dat toch duidelijk weer?
Het verleden leert dat Intel nog wel is te rooskleurig is over hun prestaties, dus ik ben benieuwd hoeveel er in de uiteindelijke cijfers overblijft.

Ik vraag me af hoeveel Intel nog te verbeteren heeft aan de gpu kant van hun igp's. Kijkend naar AMD is er nog een stuk meer uit te halen, maar voor welke doelgroep zouden ze dat doen? De paar 'casual' gamers die graag een spelletje op minimaal willen spelen, of photoshoppers die een dedicated gpu toch net iets te veel van het goede vinden?
Intel heeft het budget ervoor en ze claimen natuurlijk het liefst dat ze de snelste zijn, maar buiten de jaarlijkse prestatieverhoging lijkt me er niet per se heel veel meer nodig.
Ik vraag me af hoeveel Intel nog te verbeteren heeft aan de gpu kant van hun igp's
Tis meer wat de markt vraagt. Intel kan de gpu zo krachtig maken als ze willen, da's gewoon een kwestie van meer shaders toevoegen en de klok opschroeven, maar de chip wordt zo wel steeds groter (en dus duurder) en onzuiniger, en de vraag is of OEMs daarop zitten te wachten. Als Intel rondvraagt "hebben jullie $50/100/200 extra over voor een Haswell-variant met een nog 2x snellere gpu?", en de reactie is "nee, doe ons maar gewoon een zuinige en goedkopere chip met snelle cpu performance" dan gaat Intel geen mega-gpu op de die schuiven.

[Reactie gewijzigd door Dreamvoid op 10 januari 2013 11:46]

Tis meer wat de markt vraagt. Intel kan de gpu zo krachtig maken als ze willen, da's gewoon een kwestie van meer shaders toevoegen en de klok opschroeven,
Als dat echt zo zou zijn, waren ze nu allang met een betere IGP gekomen, dus zo makkelijk zou het voor Intel niet zijn
Apple is 1 van hun technologiepartners en 1 van hun grote afnemers. Er is al diverse malen eerder een innige samenwerking geweest tussen deze 2 partijen. De eerste MacBook Air en Thunderbolt zijn daar de 2 beste voorbeelden van. Bij de eerste MBA heeft Intel speciaal voor Apple een wat afwijkende versie van hun gangbare ULV cpu gemaakt. Bij Thunderbolt hebben ze Apple om hulp gevraagd voor een goede connector en wat hulp met de marketing.

Het is niet ondenkbaar dat Apple ook nu weer een rol speelt, hoe groot of hoe klein die ook moge zijn. Apple heeft namelijk de MacBook Air, 13" MacBook Pro (retina & non-retina) en de Mac mini welke zowel de cpu als gpu van Intel gebruiken. De 13" MacBook Pro Retina is weliswaar een mooie machine maar de gpu laat daar te wensen over. De retina resolutie vergt nogal wat waardoor lang niet altijd alles soepel loopt. Haswell brengt een krachtigere gpu met zich mee waardoor dat probleem verholpen kan worden en Apple retina mainstream kan gaan pushen. Dit zou ook de 4k schermen deels kunnen helpen (het andere deel is nut; retina is minder nuttig op een scherm waar je een meter vanaf zit vanwege de afstand).

Dit soort gpu's wordt ook vaak gebruikt in de goedkopere computers omdat een dedicated gpu een stuk duurder is. De performance van deze goedkope computers stijgt op deze manier dus ook en dat kan ook weer z'n voordelen opleveren.
Dit doet mij denken aan het filnpje van vorig jaar rond juni/juli, waarop AMD zijn inmiddels uitgebrachte Trinity showde. Die APU kon dit trucje met Dirt3 ook, maar kon daarbij ook nog ondertussen video's converten en dergelijke. Gaat deze dat ook kunnen?
Jij bedoeld dat filmpje waardige notebook verstopt zat in die computerkast?
Precies, die ja. Dit was meer werk voor de GPU en een jaar eerder op de markt.
Te heftig dit welke videokaart willen ze hier dan nog bij gaan doen? :/
Waarschijnlijk een GT(X)680 of 690 (M) of misschien iets uit een toekomstige GT(X)700(M) serie voor de echte rauwe batterij slurpende power.
Terwijl de IGP dan geoptimaliseerd wordt om energie zuinig een goed resultaat neer te zetten.
Een IGP met dedicated geheugen? Apart...

Mijn Asus UX51 zal geen 90fps redden met die instellingen bij Dirt... Dus als het soepel draait met een IGP zou dat ongelofelijk zijn
da's helemaal niet nieuw hoor
mijn Phenom 2 systeem heeft een 790GX chipset met 128MB DDR3 geheugen voor de IGP (een HD3300), indien nodig kan de IGP nog ram aanspreken

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True