Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties, 27.194 views •
Submitter: Rubén89

In de online-benchmarkdatabase van Sisoft zijn benchmarks van Intels nieuwe, nog niet uitgebrachte processor uit de Haswell-generatie gepubliceerd. Het zou gaan om gpu-benchmarks, waarbij de krachtigste versie, de GT3, werd getest.

Intel zal in zijn Haswell-generatie processors drie verschillende gpu-versies toepassen. De minst krachtige daarvan heeft als codenaam GT1, de medium variant wordt GT2 genoemd en de krachtigste versie wordt de GT3. Die laatste is feitelijk opgebouwd uit twee GT2's. Vooralsnog heeft Intel de specificaties en vooral het aantal zogeheten execution units, nog niet vrijgegeven, maar de GT2-versie zou 20 eu's hebben en de GT3 zou er 40 krijgen. De namen die de verschillende GT-versies voor eindgebruikers krijgen, zouden, analoog aan de huidige gpu's in Ivy Bridge, HD Graphics 4600 voor de GT2 en HD Graphics 5200 voor de GT3 luiden.

In de onlinedatabase van Sisoft, de producent van benchmarksoftware Sandra, zijn benchmarkresultaten van de GT3-gpu gepubliceerd. De Intel HD Graphics 5200 werd getest in een Shark Bay-clientplatform; dat is Intels codenaam voor Haswell-systemen. De gpu zou op snelheden van 600MHz tot 800MHz werken en met 1,8GB, op 1600MHz geklokt, ddr3-geheugen werken. Tijdens een demonstratie van een Haswell-systeem op de CES werd de GT3 vergeleken met een GT 650M-videokaart van Nvidia. Beide gpu's zouden bij het spelen van DiRT vergelijkbaar presteren.

Reacties (65)

Reactiefilter:-165064+157+22+31
Moderatie-faq Wijzig weergave
Even snel een grafiek gemaakt. Niet de beste, maar wel nuttig omdat je nu eindelijk een indruk krijgt van hoe snel het ding is vergeleken met iets anders. Dat mis ik in het artikel.

Benchmarks HD5200 t.o.v. GT540M en Radeon Mobility 5800

Nu zie je ook pas hoe snel dit ding eigenlijk is. Hij veegt op sommige punten de vloer aan met een GT540M waar je eigenlijk al prima een spelletje mee kan spelen.

Bronnen:
http://www.sisoftware.eu/...f99ca191b7c4f9c8&l=en
http://www.sisoftware.eu/...aecbf6c7e192af9e&l=en
http://www.sisoftware.eu/...f297aa9abccff2c2&l=en

[Reactie gewijzigd door Willaaam op 14 januari 2013 19:51]

Vergeet niet dat die hardware alweer wat oud is hč? Het is een klein beetje appels met peren vergelijken hier.
tja op verloop van tijd is de opvolger van de haswell zo snel als een 680M.
Leuk dat ze sneller lopen maar inhalen doen ze nog niet.
tegen de tijd dat haswell uitkomt is het alweer verouderd.

een HD4000 speelt ook HL2 waar vroeger een dedicated kaart voor nodig was.
De huidige generatie IGP's in de Intel processors zijn niet echt heel krachtig te noemen. Eigenlijk kan je de meeste games van de huidige generatie amper op een normale resolutie spelen. Ik denk dat het met deze CPU/GPU combinatie best mogelijk wordt om games van nu op een redelijke grafische setting te spelen.

Natuurlijk is dit geen vervanging voor de gemiddelde gebruiker die veel games speelt maar als ik naar die video kijk dan lijkt het mij prima te voldoen voor gebruikers die af en toe een spelletje willen spelen.
een gt650m is een best performante chip, dus dat intel dat met de integrated chipset kan matchen is zeer indrukwekkend te noemen. de vraag is wel hoeveel stroom deze igp gebruikt.
en hoe goed de drivers zijn, en evt hardware matige decoding/compute.

maar dat ze de performance van midrange op laptops matchen is zeer zeker indrukwekkend.
en het is niet de midrange van 2 jaar geleden maar de mid range van nu.
AMD doet dit al langer. Intel begint nu pas in de buurt van AMD's APU's te komen qua GPU performance. Maar nog lang niet qua drivers. En dat doet ook nog al wat. Dat een spel goed draait is leuk maar je wilt de rest ook kunnen spelen.

Desal niet te min een mooie prestatie van Intel om zulke stappen te maken. Ze nemen het in ieder geval wel serieus. Maar ze hebben nog een behoorlijke weg te gaan.
um ja niet dus als de benchmarks werkelijk zo zijn als tweakers/intel verkondicht dan is het gedaan met die APU's.
45watts voor haswell inplaats van een trinity die op 100watts draait en dan is de haswel nog krachtiger ook

zeg maar dag trinity APU en hallo Haswell voor HTPC's
Maar vergeet die haswell maar voor een htpc, want geloof maar dat er in de budget Intel cpu's echt geen GT3 komt te zitten... En alleen de high en cpu's die mijn inziens zeer weinig baat hebben bij zo'n gpu zijn waarschijnlijk (Intel kennende), weer veel te prijzig om in een htpc te stoppen...
De huidige highend HD4000 is ook in een i3 te krijgen, zou niet weten waarom ze daar vanaf zouden stappen.

Dat Intel nog geen dedicated game performance heeft lijkt me eveneens logisch. Dit is voor alle desktop taken ruim voldoende, zelfs meer dan dat.

Wat ik mij blijf afvragen is wat de performance zou zijn als ze zich wel in die strijd gaan mengen. Stel een 300 Watt kaart voor op basis van de HD4000 of zelfs de aankomende 5200 series, dat moet toch prima mee kunnen komen met de NV en AMD?

Dan blijft alleen de vraag nog over of er dan toch nog een toekomstige Larabee aftershock gaat komen.

[Reactie gewijzigd door Double-X-L op 14 januari 2013 21:44]

@firestorm:
um ja niet dus als de benchmarks werkelijk zo zijn als tweakers/intel verkondicht dan is het gedaan met die APU's.
45watts voor haswell inplaats van een trinity die op 100watts draait en dan is de haswel nog krachtiger ook

zeg maar dag trinity APU en hallo Haswell voor HTPC's


Onzin:
Volgorde van cpu/gpu waarde: Prijs/Prestatie/Verbruik

Intel kan voorlopig nog niet eens in de buurt komen van wat AMD kan bieden aan grafisch geweld (Prestatie) tegen veel lagere kosten (Prijs). Leuk dat ze dan wellicht een lager verbruik hebben maar dat komt nou net op de laatste plaats.

Bovendien is voor consumenten het idle verbruik doorslaggevend en dat is bij trinity en lliano slechts 35 Watt wat niet heel erg veel zal schelen met intels huidige cpu's.
Hoe bedoel je een behoorlijke weg te gaan? Als Intel een grote gpu wil maken dan doen ze dat wel. Tis puur een kwestie of de markt bereid is veel extra te betalen voor Intel chips met krachtige igp's. Als de markt ze niet wil, dan maakt Intel ze niet.

[Reactie gewijzigd door Dreamvoid op 14 januari 2013 17:57]

Ja net als de oude intel gpu kaart dat een failure was.
Precies, je kan wel zeggen 'straks is het alweer verouderd' maar we weten allemaal dat de PC game-markt niet echt meer snel vooruit holt en we worden nog niet eens jaarlijks getrakteerd op een nieuwe engine. Dus dat valt allemaal hard mee. Die stagnatie helpt ook wel mee aan het feit dat we nu een totaal andere slag gaan maken met alle vormen van PC gebruik - het energieverbruik wordt en is nu een hot item. In die zin is Haswell een gigantische sprong voorwaarts. Hetzelfde kunnen met minder is gewoon altijd gunstig - voor de warmteproductie, compactheid, kosten, energie, en uiteindelijk dus ook voor de gebruikservaring.
Tuurlijk is de vraag hoeveel stroom deze GPU gebruikt maar ik kan je garanderen dat hij zuiniger zal zijn dan welke dedicated GPU chip, ivm betere samenwerking met CPU omdat er geen vertragende bus tussen zit.
Inhalen hoeft ook niet, maar het is goed nieuws dat dat niveau gehaald wordt.

Kan zelf geen computer met dedicated kaart betalen, maar vind het wel leuk om af en toe een spelletje te spelen en dan is het handig om zo'n geďntegreerde chip te hebben met niveau.

Bovendien is dat het doel ook niet, doel is zuiniger en minder hitte. Een dedicated kaart is dan gewoon iets minder.
Als het op dit tempo blijft doorlopen dan gaat inhalen ook snel gebeuren. De 650M is immers geen geintegreerde GPU, maar een echte grafische kaart en dan ook nog eens een behoorlijk krachtige die bijna alle games op 1080P aankan.

Bij desktops kan je misschien een 660 krijgen, maar bij laptops gaat het van 650M zo naar 670 en 680M (en daarmee ook de prijs van ¤1000 naar ¤1800), dus moet NVidia hard hun best gaan doen om het mid-end segment te behouden.

[Reactie gewijzigd door Wolfos op 14 januari 2013 16:46]

Voor zover ik weet is dit voor het eerst dan de prestaties van een onboard GPU maar 6 maanden achter lopen met de huidige mid tot high-end dedicated notebook graka's.

Ik vind dit een goede ontwikkeling aangezien je steeds meer video-toepassingen kan gaan gebruiken/spelen op mainstream notebooks.

Wel is het de vraag wat het gaat doen met de prijs van zo'n haswell GT3 chip. Als je er hetzelfde voor betaald als voor een GT1 chip + gt650m, zijn energie en warmte reductie misschien de enige winst.

Ook worden Nvidia en Amd geforceerd om het tempo waarin ze hun producten sneller maken te verhogen. Dit om de kosten van een mid en zeker een low range notebookgraka te blijven rechtvaardigen.
Is het bij de huidige cpus van intel niet zo dat de snelste versie van de gpu enkel op de duurste cpu's te vinden is?
Beetje zinloze actie, want bij een i7 van een paar honderd euro steek je meestal toch een dedicated videokaart.
Er zijn nu geen verschillende onboard GPU versies. Het is allemaal HD4000 in de Ivy Bridge generatie.
Nee hoor, je hebt HD2500 en "Intel HD Graphics" bij de IVB Pentium/Celeron modellen.
er zijn alsnog verschillen, niet alle hd4000's presteren hetzelfde ivm oa klokverschillen van de GPU, en ook de geheugen config van het systeem maakt uit. Verder hebben dus niet alle Ivy Bridge chips een HD4000, maar de goedkopere hebben HD2500
Er zijn wel degelijk verschillende onboard gpu versie. Zie bijvoorbeeld de i3 3220 en i5 3450/3470, die zijn allemaal met de HD 2500 uitgerust. ;)
Dit is juist wat deze IGP's doen. De verschillen tussen dedicated midrange en IGP worden steeds kleiner, zeker bij bijvoorbeeld mobiele GPU's zoals die in laptops zitten.

Intel Haswell staat gepland voor eerste kwartaal dit jaar, de achterstand met Nvidia en AMD (ATI) is in een paar jaar tijd vrijwel verdampt.
Half Life 2 is dan ook wel heel erg oud, en Source games zijn nooit erg zwaar. Heb een GeForce 320M die makkelijk alle Source games op 60FPS draait en die is ongeveer op het niveau van de HD3000.
Kan T.net ook aangeven hoe deze zich verhouden tot andere (non-)discrete graka's ?
Kan T.net ook aangeven hoe deze zich verhouden tot andere (non-)discrete graka's ?
Dat vroeg ik me ook af, een vergelijkende tabel was handig geweest. Nu is er wel dat filmpje maar dat is een beetje vaag toch.
Je kunt vergelijkende info vinden door bij de benchmark resultaten op de local rank the klicken voor de resultaten. De enige GPU (relevant voor games) info die in de benchmarks staat is;

#3 (>99.65%) Video Shader Compute Intel HD Graphics 5200 143.664Mpix/s (139.260Mpix/s - 148.068Mpix/s) 40SP 600MHz Normal Laptop/Netbook Windows x64 6.2 2

#54 (>88.25%) Video Memory Bandwidth Intel HD Graphics 5200 9.897GB/s 1792MB 1600MHz Normal Laptop/Netbook Windows x64 6.2 2

Waarbij de shader compute in de buurt lijkt de komen bij de desktop AMD6800 serie, video memory bandwith ongeveer op de HD3000 (voor desktop) performance blijft hangen; dit is overigens dezelfde bandwith als van bijv. een 4850m met dedicated geheugen in een laptop.

Al met al lijkt het me een zeer volwassen GPU voor in een laptop en zal zowel nvidia moeten aanpappen maar vooral AMD die zeker niet meer heer en meester zullen zijn met hun CPU+GPU oplossingen.
ah eindelijk de doodsteek voor budget grafische kaarten. Dus haal alle kaarten onder de 100,- dadelijk maar uit de schappen ;) die voegen dadelijk niets meer toe.

[Reactie gewijzigd door et36s op 14 januari 2013 17:02]

Hangt af van hoe duur Haswell wordt. Als je de modellen met HD5200 pas boven de 200 euro kan kopen, dan is een losse kaart nog steeds interessant.
Waarom zouden die niets meer toevoegen? Worden met de introductie van Haswell ineens computers van 2-3 jaar oud ook zoveel sneller op grafisch vlak? Voor zo'n pc's blijft het vaak interessant om ze te upgraden met zo'n kaartjes voor de casual gamer of voor mensen die ineens een HDMI uitgang nodig hebben omdat ze hun pc op de tv willen aansluiten...
Maar een Haswell is toch ook geen budget-CPU?

Iemand die een goedkope CPU wilt, en een goedkope GPU zal dan geen Haswell CPU nemen neem ik aan.
Maar elke iGPU is altijd zwaar gelimiteerd door het gebruik van normaal (traag) RAM geheugen ivm bloedsnel dedicated video RAM geheugen op standalone videokaarten...

Vooral met 1080p (en hoger) met Anti-Aliasing lever dit lage fps op.

Wordt het geen tijd dat mobo's speciale video RAM sockets krijgen, -naast- het normale RAM?
Maar dat wordt het kosten aspect opeens een stuk minder interessant. Dat maakt de CPU weer duurder (of mobo, kosten moeten toch ergens vandaan komen) en dan kan je net zo goed een GPU kopen.

[Reactie gewijzigd door MeNTaL_TO op 14 januari 2013 16:28]

Nee hoor, dat zou -juist- qua kosten interessant zijn.

Het kan nog steeds via normaal RAM lopen voor goedkope PC's, maar wil je een super-boost qua grafische performance, dan steek je er supersnel dedicated video RAM reepjes bij. :)
Maar bij dedicated video RAM heb je een bepaalde limiet voor wat nuttig is. Tenzij je 4 schermen tegelijk wil spelen, zijn de high-end grafische kaarten van nu toch voldoende denk ik. En zelfs veel midrange hebben al 2 GB dedicated.
Dan moet ook weer een extra geheugencontroller bij en het ontwerk moet compleet anders. Denk dat de kosten van het geheugen ook niet veel lager zullen zijn dan een complete kaart. Bovendien is de losse GPU nog steeds sneller dan de IGP, als je een losse koopt win je op beide qua performance.
Dedicated hoeft niet eens, als het maar meer dan dualchannel wordt. Triple of Quad dus. Vermoedelijk een stuk simpeler te implementeren op de chip van optioneel dedicated kanelen. De reden dat we niet meer dan Dual chanel zien is denk ik de prijs van de benodigde extra lagen van het moederbord. Er moeten +/- 200 baantjes extra bij per channel.
upgraden bij laptops is nu al een zeldzaamheid
een extra memory slot voorzien voor de GPU is gewoon te duur voor wat het zou opbrengen
wie een superboost wil, moet maar een laptop kopen met dedicated gpu
Ik denk dat ze dan eerder het VRAM op de CPU zullen gaan willen drukken, maar dat is waarschijnlijk nog te groot om dat ook daadwerkelijk te doen
de haswell (links) haalt de nvidia in in de demo, hoe kan dat dan?
Heeft er wellicht mee te maken dat de haswell een desktop betreft en de 650M in een laptop zit. CPU power kan in dat geval het verschil verklaren.
Nee hoor, die haswell zit op een laptop mobo. Je hoort dit zo rond de 29/30 seconden in het filmpje. Je hoort iets in de trant van: "that's an actual mobile crb board in there". En daarmee verwijst hij geimpliceerd naar de desktop vermeld rond seconde 20.

Waarschijnlijk bestaan er nog geen laptop behuizingen die de specifieke hardware combinatie kan huisvesten, dus hebben ze het maar in een ruimere desktopkast gezet.
Vermoedelijk 2x een run gedaan en vervolgens vergeleken.
Ik kan bijna niet geloven dat de GT3-gpu maar enigszins in de buurt komt van de 650m , doet die dat wel dat is er sprake van een enorme vooruitgang.

De 650m is eigenlijk zo'n beetje de snelste mobiele gpu die je op dit moment kan krijgen als je geen laptop hebt die enorme gamekaarten kan koelen van 80W +. De 650M heeft zelf ook nog een TDP van 45W.

Als De GT3 echt gelijkwaardig is aan de 650m is dat een enorme klap voor Nvidia en AMD. Alleen gamelaptops zouden dan nog een decicated Gpu krijgen en dat is natuurlijk maar een enorm klein deel van de markt.
De Haswell varianten met HD5200 zullen geen goedkope chips worden, er zouden nog steeds laptops kunnen uitkomen met een Ivy Bridge of goedkopere Haswell + een nVidia gpu.
Ivy bridge heeft anders al de budget kaartjes uit de laptop verjaagd. Haswell gaat zeker aan het midden segment vreten.
Het is natuurlijk niet omdat ze beiden hetzelfde spel draaien onder dezelfde settings (waren afzonderlijke runs die niet naast elkaar gedaan zijn trouwens) dat ze dezelfde performance hadden.

De 560M zou geen moeite hebben om speelbaar te zjn op Ultra settings... vermits Intel dit spel niet op ultra doet lijkt me dat het breekpunt voor hun en is wat we nu zien zowat het hoogst haalbare om niet schokkerig over te komen.

Dat zeggende is het een goede performance!


E.g voor degeen die iets zeggen over sisoft: vermits efficientie van memory ea ertoe doet scoort hasswel met edram veel dichter bij hun maximum dan de andere kaarten. Daardoor valt ook de kaart hoger uit in dergelijke benchmarks.

Wat natuurlijk een zeer grote plus is voor intel, en zolang de concurrentie dit niet hebben gaan ze redelijk wat moeite hebben om te kunnen concurreren hiermee. (Voor AMD iis bandbreedte nu al het grootste probleem met trinity.)

btw amd Temash is geshowcased in zijn form (niet in desktop case) running dirt3 showdown op 1080p (op low of medium).

Voor laptops zie ik alvast niet veel zin meer voor additionele gpu's.
meeste games van tegenwoordig hebben ook maar een budged kaartje nodig om te spelen...

de meeste game specs stammen uit 2006/2007 (console releases) en sinds dien is er grafisch niet veel veranderd.
er zijn wel meer opties bijgekomen zoals tesselation maar die worden vooralsnog helemaal niet gebruikt...
onzin, de meeste games zien er op de hoogste stand op de PC echt wel een heel HEEL stuk beter uit dan de console variant.. Het is zo'n BS dat men zegt dat de console de PC-games terughoudt, het is niet de console, het is de door de gemiddelde PC-gamer gebruikte vidoekaart. Want ja JIJ en je vriendjes hebben misschien wel een high-end videokaart, maar het meerendeel van de de consumenten heeft dat niet, en een developer richt zich op de grootste groep en niet op die hele kleine groep..
Dat is een flinke trap naar nVidia. De GT650M mag toch wel als gamekaart gezien worden aangezien je hierop in full-hd aardig kunt gamen. Dat maakt alles daaronder van nVidia overbodig. Waarschijnlijk zullen de GT1 en GT2 varianten wel meer in lijn liggen met de huidige HD4000.
Aan de andere kant is een GT610M i.c.m een snelle i5/i7 ook overbodig want die is nauwelijks tot niet sneller dan een HD4000.
Ben erg benieuwd naar de Haswell-notebooks. Een "GT3"-chip bij de cpu i.c.m. een GTX 670/680? OF tegen die tijd GTX 770/780 als het geen rebrands zijn. :9~
Ik hoop dam nVidia dan ook weer eens uitgedaagd wordt om fatsoenlijke notebook hardware te gaan verkopen.
Een beetje tweaker heeft toch nog steeds liever alles dedicated? Straks zitten we met IGP en APU vastgesoldeerd aan het moederbord! Wat is daar nou de lol van? Het is toch veel leuker om je eigen pc samen te stellen, over te klokken en te tweaken in plaats van een standaardsetje kopen en daar wat aan tweaken? Al die tablets, laptops, ultrabooks, mini-pc's en straks de moederbord/gpu/cpu/ram borden kunnen me gestolen worden!

Of is tweakers tegenwoordig niet meer zo diehard tweaker als een paar jaar geleden? Ik vind nergens echt meer diepgang in de reviews, in hoe een gpu er exact uitziet, van de technische kant en hoe die dan te tweaken is. Bestaan de mensen nog die met voltmeters in hun kast zitten te prutsen, om alles perfect te balanceren, over te klokken, of gewoon voor de lol wat rondsnuffelen?

Ik denk dat het jammer is voor tweakers.net dat de website zich zo heeft verbreed qua publiek en zoveel minder diepgang heeft dan vroeger.

Ik weet dat dit nogal offtopic is, maar ik begon toch wel met ontopic? Ik heb me een beetje laten meesleuren denk ik |:(
99% van de wereld is geen tweaker. Gemakzucht dient de mens ;)

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True