Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 97 reacties

Intel is begonnen met de levering van nieuwe Skylake-processors voor laptops en desktops. Onder de nieuwe modellen zijn drie nieuwe Core i7's en een Core i5, die vermoedelijk de grafische Iris Pro 580-chip aan boord hebben. Dat is de krachtigste gpu van Intel tot nu toe.

Intel Core i7-4790 BoxedHet gaat om vier quadcores voor laptops: drie Core i7's met ondersteuning voor HyperThreading en een Core i5 zonder die ondersteuning. Op de prijslijst voor januari staan de gpu en de tdp niet, maar vermoedelijk gaat het om de eerste processors met de Iris Pro 580. Dat is onder andere af te leiden uit de hogere prijs ten opzichte van andere modellen en de eerdere aankondiging dat de chips met de krachtige gpu begin 2016 zouden verschijnen.

De Iris Pro 580 of GT4e is Intels krachtigste grafische chip tot nu toe. De chip biedt 72 execution units tegenover 48 eu's voor de GT3, de voorheen krachtigste videochip van Intel. Daarnaast is 128MB edram aanwezig tegenover 64MB waar de GT3 mee uitgerust kan worden. Fabrikanten als Lenovo, MSI, Asus en Apple gaan de nieuwe processors waarschijnlijk inbouwen in hun high-end laptops.

Daarnaast heeft Intel nieuwe Xeons voor mobiele werkstations aangekondigd die waarschijnlijk eveneens van de krachtige grafische chips voorzien zijn. Intel kondigde de komst van de Skylake-Xeons voor laptops met GT4e-gpu vorig jaar aan. Ten slotte verschijnen er de komende tijd snellere op Braswell gebaseerde Celerons en Pentiums en komen er nieuwe Celerons op basis van de Skylake-architectuur.

Intel Iris Pro 580Intel Iris Pro 580

Mobiele Core-processors
Processor Cores/ Threads Kloksn. Graphics Prijs L3-cache Tdp

i7-6970HQ

4/8

2,8GHz

Iris Pro 580/GT4e?

$623

8M

45W?

i7-6870HQ

4/8

2,7GHz

Iris Pro 580/GT4e?

$434

8M

45W?

i7-6770HQ

4/8

2,6GHz

Iris Pro 580/GT4e?

$378

6M

45W?

i5-6350HQ

4/4

2,3GHz

Iris Pro 580/GT4e?

$306

6M

45W?

Mobiele Xeon-processors
Processor Cores/ Threads Kloksn. Graphics Prijs  L3-cache Tdp

E3-1575M v5

4/8

3GHz

Iris Pro 580/GT4e?

$1207

8M

45W?

E3-1545M v5

4/8

2,9GHz

Iris Pro 580/GT4e?

$679

8M

45W?

E3-1515M v5

4/8

2,8GHz

Iris Pro 580/GT4e?

$489

8M

45W?

Mobiele Celeron- en Pentium-processors
Processor Cores/ Threads Kloksn.  Graphics Prijs  L3-cache Tdp

Celeron N3160 (desktop: J3160)

4/4

2,24GHz

HD Graphics 400

$107

2MB

6W

Celeron N3060 (desktop: J3060)

2/2

2,48GHz

HD Graphics 400

$107

2MB

6W

Celeron N3010

2/2

2,24GHz

HD Graphics 400

$107

2MB

4W

Pentium N3710 (desktop: J3710)

4/4

2,56GHz

HD Graphics 405

$107

2MB

6W

Desktop Celerons
Processor Cores/ Threads Kloksn. Graphics Prijs  L3-cache Tdp

G3920

2/2

2,9GHz

HD Graphics 510

$52

2MB

51W

G3900

2/2

2,8GHz

HD Graphics 510

$42

2MB

51W

G3900T

2/2

2,6GHz

HD Graphics 510

$42

2MB

35W

Moderatie-faq Wijzig weergave

Reacties (97)

Ik was al bijzonder onder de indruk van de Intel HD Graphics 520 wat gewoon Battlefield Bad Company 2 draaide op best deftige settings (full-hd, medium settings). En dat op een i5-6300u met een tdp van 15 watt! Hopelijk komt er binnenkort eens een goede benchmark die de IGP's op een rij zet, aangezien het serieus begint te worden.

[Reactie gewijzigd door Xardas op 27 januari 2016 09:04]

Ik gebruik zelf hiervoor de youtube videos van UFDisciple: https://www.youtube.com/channel/UC4Z8mPYjn6Dhr6n531YDh0Q

Die heeft de intel 530 in ieder geval gebenchmarked met wat games. Ik ga het proberen met een
(budgetsysteempie) i3 6100 en het uithouden tot pascal/polaris :-)
ja zit ik ook aan te denken kan het slimst zijn, heb je ook gelijk een basis voor de komende lake cpu´s die in je mobo passen...
Ik kwam er van de week al achter dat de iGPU van de i7 6700K de 2GB HD7700M in mijn laptop eigenlijk evenaart (op sommige benchmarks verslaat). Het is voor mij nu dus ook serieus een optie voorlopig een desktop neer te zetten zonder dedicated GPU, en daar voorlopig mee te wachten tot de komende generatie...
Ligt eraan wat je er mee wilt doen. Ik zou een laptop niet kopen om te gamen, want dat is vaak een lastige combinatie van technische complicaties (warmte niet kwijt kunnen, veel geluid, accu snel leeg, duur, zwaar).
Wat ik wel mis (en gewoonweg niet begrijp) is de grote misser:
HDMI 2.0.
Er zijn nauwelijks moederborden met HDMI 2.0, of ze zijn duur. Idem dito met grafische kaarten.
Zo leg je de enige serieuze leverancier van 4K materiaal voor HTPC's gelijk plat.
Op de Iris Pro van de huidige MacBook Retina 15'' speel ik GTA V en Total War Rome II ook op prima settings. Ideaal om dat overal te kunnen O+
Dat zal best, BF BC is een spel uit 2008. Hardly impressive. Maar voor een igpu best aardig. Heb zelf ook zo'n igpu in mn 6700k. Wordt nooit gebruikt, useless maar we zullen zien misschien met dx12.

[Reactie gewijzigd door dezwarteziel op 26 januari 2016 22:53]

Het moest Bad Company 2 zijn. Desalniettemin blijft het knap wat ze met een igp neerzetten.
Het is sowieso al niet bepaald snugger om te denken dat je met 140+ fps en een reso van 1440 of hoger kan gamen op een integrated GPU. Dedicated GPU's bestaan niet voor niets. 8)7
Ik heb even gegoogled, maar ik kan niet echt vinden hoe zo'n GT4e zich verhoudt tot dedicated gpu's. Weet iemand wat ik me hierbij moet voorstellen.
Ik heb nog een oude laptop met HD3000 aan boord, en daar speelde ik MW2 op (op ultra low welteverstaan).
Dat viel me niks tegen, ben dus wel benieuwd wat je met een chip als deze zou kunnen spelen.
Zie hier een vergelijking voor de GT3e. Op deze site staan zo'n beetje alle mobiele gpu's en kan je ze vergelijken met desktop gpu's of mobiele gpu's. Je kan ook de benchmark kiezen.

De GT4e staat er nog niet tussen maar zo kan je in ieder geval een indruk krijgen van wat de nieuwe gpu's gaan toen ten opzichte van je HD3000.
Dat is wel ongeveer na te gaan met deze linkjes:
nieuws: 'Intel Skylake GT4e-gpu is 50 procent krachtiger dan Broadwell GT3e'

De GT3e zit op het niveau van ongeveer een GeForce GT 750M or GeForce 940M.
http://www.notebookcheck....aphics-6200.125593.0.html

Dus de benches naast elkaar leggende kom je dan ergens uit bij een GeForce GTX 950M of een GeForce GTX 770M

[Reactie gewijzigd door dirkjesdirk op 26 januari 2016 12:23]

Iris Pro 580 is ongeveer vergelijkbaar met een Xbox One qua grafischekracht. Dat is echt niet mis voor een IGP.

[Reactie gewijzigd door AlphaBlack_NL op 26 januari 2016 11:44]

Dan mogen die consoles wel gaan inpakken als een laptopie met igp ze straks evenaart lol
Deze Iris Cpu's kosten los tot 3 keer zoveel (1200+ dollar) als een complete console.
(laat staan alleen de APU die erin zit met een waarde van slechts enkele tientjes)

Je kan het 1op1 gaan vergelijken maar kijk dan ook meteen even naar de kostprijs.

Is er bekend van deze laatste Iris IGP welk die-oppervlak hij heeft ?
Je kan het wel ongeveer schatten, de GT2 Skylake die is 122 mm2, daarvan is zo'n 40 mm2 de GPU. Deze HD550 heeft 2.5x zoveel EU's plus 128MB edram, dus dan zal de GT4e Skylake in de orde van 200-220 mm2 zijn. Dat is voor laptop begrippen een flinke chip, maar niet echt schokkend groot. AMD's Carrizo is bv 244 mm2.
Ik zie er ook een voor 300 dollar das duur maar stukken goedkoper dan 1200.
Dit is zelden anders geweest.

Overigens. Kost de complete Xbox One minder dan de goedkoopste i5 met deze nieuwe gpu.

Appels met peren vergelijken dus.
De steeds betere gpu's uit de Iris-serie maken de aanschaf van een UCFF zoals een Intel NUC steeds interessanter voor professionele doeleinden of als krachtige HTPC. Mooie ontwikkeling!
Wat bedoel je dan precies met professioneel? Voor professionele verwerking van 3D rendering, renderen van video's of werken in CAD/Photoshop is dit nog steeds verre van interessant. Buiten dat de chip niet snel genoeg is en de voeding niet sterk genoeg voor erg intensief gebruik, zal de NUC ook niet genoeg opslag kunnen hebben voor grote projecten, waar working files soms al gigabytes per stuk zijn.

Voor een HTPC of desktop waar je YouTube en simpele games op afspeelt is het natuurlijk wel interessant.
Tja wil niet veel zeggen maar dat i3tje waar ik met solidworks op werkte tijdens mijn stage verbaaste mij positief. Dat was een Sandy bridge. Tot zon 500 onderdelen ging dat prima.

Zie het nog best gebeuren voor cad systemen aangezien het vooral de cpu is die belast word niet de gpu eigenlijk.
Dat is een klein spectrum van het professionele park natuurlijk, wat "simpelere" grafische bewerkingen kunnen hierdoor ook opeens op de IGP, zonder dat extra GPU nodig is.
Een beetje aanklooien met videobewerking en Photoshop kan met de huidige HD3000/4000 ook wel. Deze upgrade zal dit alleen niet ineens heel veel beter maken.
Ze zijn natuurlijk niet krachtig genoeg voor de zware activiteiten die jij beschrijft, maar voor de simpelere professionele handelingen (zoals waar ZZP'ers meer mee werken) is het tegenwoordig iets om mee te nemen in de afweging.

Zo werkt Photoshop vrij aardig zolang je niet alles uit de kast wil trekken. Het blijft natuurlijk vergelijken met laptop ipv desktop hardware, maar daar binnen worden de UCFFs steeds beter.

De Iris Pro 580 is op notebookcheck als middenmoter in Class 2 geclassificeerd, vroeger bungelden die Intel gpu's altijd helemaal onderaan. Dat was meer het punt dat ik wilde maken. ;)
Als ik naar de passmark tests kijk zit een Iris Pro 6200 (GT3e model; de Iris Pro 580 gaat daar nog overheen) op ongeveer 1/7 van een Nvidia GTX980 TI). G3D Mark score:
  • Intel Iris Pro 6200: 1553
  • Nvidia GTX980 TI: 11549
http://www.videocardbench...php?cmp[]=3258&cmp[]=3218
Off-topic: Soms heb ik het idee dat het allemaal langzaam gaat, en dat de performance al jaren op hetzelfde niveau zitten of maar mondjesmaat worden verbeterd. ;)

Tuurlijk is dit niet waar; de socks worden steeds kleiner, nieuwere/betere instructieset, etc. Alleen als je blind staart op de Hertz, cores/threats, cache, bus, etc. dan zou je verwachten dat er bij elke nieuwe generatie minimaal het dubbele getal zou moeten staan. Is dit eerlijk om te denken?

On-topic: goed om te zien dat er weer een nieuwe generatie GPU's van Intel aan zit te komen die beter presteert. Nu nog even afwachten tot de prijzen dalen en de eerste notebooks/desktops worden geleverd. :)
Sinds AMD geen serieuze bedreiging is, gaan de ontwikkelingen bij Intel een stuk langzamer (naar mijn idee).

En dan hijgt opeens de Apple processor in je nek.
http://www.extremetech.co...m-in-arm-x86-grudge-match
De hete adem van Apple in de nek?
Ik denk dat het nog jaren duurt voordat Apple/Mediatek/Samsung/Qualcomm kan concurreren met intel in de high-end notebook en desktop markt Pentium/iX Core's, laat staan de ultra high-end van Xeon's en i7 E's.
AMD zie ik het gat nooit meer dichten, maar er komt vast binnen nu en 20 jaar een moment dat de grens tussen mobiele en desktop vervaagd. En dan hebben zowel Apple als Samsung goede papieren.

OT:
Jammer van het TDP, dat betekend volgens mij dat we de GT4e nog even niet terug gaan vinden in macbooks.
Apple doet dat feitelijk al, de iPad Pro had ook een surface-achtige Macbook Air met OS X en x86 kunnen zijn maar Apple's eigen chips zijn snel genoeg om iOS langzaam steeds hoger in de markt te duwen.

In principe zou een dual-socket omhooggeklokte A9 ook wel voldoende performance bieden voor de low-end Macbooks, Mac Mini's en iMacs, en dan houdt Apple een hoop centen in de zak die nu naar Intel vloeien. Maar je zit met OS X, wat je dan over twee architecturen moet uitspreiden, ARM voor de low-end Macs en x86 voor de high-end modellen, dat schiet nog niet zo op.
Maar je zit met OS X, wat je dan over twee architecturen moet uitspreiden, ARM voor de low-end Macs en x86 voor de high-end modellen, dat schiet nog niet zo op.
Dat zal ze echt niet tegenhouden, in 2006 - 2007 hield Apple er ook een architectuur-gesplitst aanbod op na (PPC/x86) en dat verliep buitengewoon vlot met Rosetta en Universal Binaries. Ik denk het nu nog naadlozer zal gaan.
Onmogelijk is het niet, maar die overstap ging razendsnel, binnen een jaar waren de PPC Macs allemaal vervangen (bovendien waren er niet zoveel PPC Macs in omloop). Dit zou een jarenlange parallelle overgangsperiode betekenen. Ik vermoed dat Apple nog even wacht totdat ze Xeon-klasse chips kunnen bakken, en dan pas in 1 klap overgaan.

[Reactie gewijzigd door Dreamvoid op 26 januari 2016 11:44]

Mjah, Intel Core Duo was dan ook wel 4x sneller dan de PowerPC G4 waar ze vandaan kwamen. Waardoor de dynamische vertaling met Rosetta goed kon werken. De beste x86 emulatoren voor ARM geven alleen een factor 10x vertraging tov. native gecompileerd. ARM zou dan dus ook 10x sneller dan x86 moeten zijn om alles soepel te laten verlopen Š la Rosetta.
Nope, zie reactie van 84hannes; oplossing ligt in Bitcode. Architectuuremulatie mag blijven waar het is: In het verleden.
Feit blijft dat vandaag enkel Apple Watch apps in Bitcode beschikbaar zijn. Al het andere (Bijv. alle desktop apps) moet gehercompileerd worden.
Ik denkt dat je je niet zo druk hoeft te maken over MacOSX aan de praat krijgen op ARM, Apple is in de geschiedenis koning geweest in het switches van GPU-architectuur. Maar denk eens in hoe lang het Adobe (om maar een bedrijf te noemen) heeft geduurd om te switchen van PowerPC naar x86 op de Mac, en je kan je voorstellen wat Apple tegenhoud: applicaties van derden. Gelukkig zijn ze al bezig met een langetermijnoplossing voor dit probleem: Bitcode!
Het is een beetje (ja, kort door de bocht) vergelijkbaar met Bytecode van java: compileren is broncode (geschikt voor meerdere CPU's) omzetten naar (CPU specifieke) Assemblycode. Halverwege dit proces zit een Abstract Syntax. Bitcode is in feite deze abstracte code: geen source code meer, maar ook nog geen CPU-specifieke instructies. Bij Java Bytecode wordt deze code JIT gecompileerd voor de gebruikte CPU, bij Apple's bitcode kan Apple dit voor je doen. Voor nu slechts interresant als iWatches of iPhones op een andere architectuur gaan draaien, maar in de toekomst wellicht ook voor MacOSX applicaties.
Maar je zit met OS X, wat je dan over twee architecturen moet uitspreiden, ARM voor de low-end Macs en x86 voor de high-end modellen, dat schiet nog niet zo op.
En daar komt de 'bitcode compilation' om de hoek zetten. Je levert iets 1x aan iTunesConnect and Apple compiled het specifiek voor dat nieuwe platform als dat er is.
Nou ja, de Apple CPU's zijn natuurlijk erg indrukwekkend te noemen maar een bedreiging voor Intels high-end (waar dit artikel over gaat) zijn nou ook weer niet. Ze beginnen inderdaad te knagen aan de onderkant van Intels product aanbod maar high-end zal nog wel even duren.
Waarom zou AMD niet kunnen inhalen? AMD is afhankelijk van de chip bakkers. En die bleven op 32nm steken. Nu AMD ook 14/16nm chips kan laten bakken kunnen ze flink inlopen hoor. Maar we gaan zien eind dit jaar met ZEN of ze bij kunnen komen.
Gebrek aan geld.
Om je een indicatie te geven. AMD's totale R&D budget voor zowel CPU als GPU (en quirks als RAM) is kleiner dan dat van Nvidia aan GPU (en quirks als shields). Intel heeft weer een R&D budget wat een kleine tien keer groter is dan dat van Nvidia.

Dit gebrek aan geld zou je kunnen opvangen door betere know-how in huis te hebben, maar ik meen me te herinneren dat AMD de laatste jaren nogal een brain-drain heeft ondergaan.

Begrijp me niet verkeerd, ik hoop van ganser harte dat AMD de prestatie kroon (en performance per watt, dus geen 290x of FX9xxx) weer in handen krijgt en marktleider wordt. Maar ik vind het moeilijk voor te stellen dat een belegen bedrijf als AMD (dus geen dynamische tech-startup of 'staats'bedrijf) met een fractie van het budget (1/20?) kan concurreren op zulke high-tech producten.

Dat ze op 14nm kunnen gaan bakken betekend niet dat de architectuur goed ontworpen is. De enige 2 kansen die ik voor AMD zie is dat er een overname komt door bijv Apple of Samsung of dat Intel zo erg ligt te slapen dat het AMD de kans geeft bij te komen. (qua IPC increase lijkt het daar wel bijna op).

We zullen het zien met ZEN en Polaris en met name bij de architectuur die daarna komt hoe het met AMD gaat aflopen (gezien de doorlooptijd van ontwikkeling een aantal jaren is)
Tuurlijk zal AMD nooit intel verslaan. Maar dat hoeft ook niet. Zolang AMD beter en goedkoper presteert dan bv een i3/i5 er genoeg geld te verdienen voor AMD. En zal intel of sneller moeten worden of goedkoper. Tevens vraag ik mij af hoeveel van de R&D geld van intel in hun 2011-3 zit. Leuk hoor een 36 core cpu. Maar voor de consument totaal niet interessant. Intel heeft een hoop cpu's en zal ook best veel geld in hun 1000 euro cpu proppen. Maar wij als consument hebben baat bij concurrentie op de normale i3/i5/i7 markt. En AMD hoeft geen geld in een andere socket te stoppen(buiten hun apu socket)
Bang/Buck is blijkbaar niet meer zo interessant. Want AMD biedt bijv goede bang/buck in het midden segment. (volgens mij de grootste sub-markt) Toch is AMD's marktaandeel in de totale markt van dedicated GPU nog geen 1/5. (en de recente steam survey bevestigd Forbes cijfers imo). De markt bepaald blijkbaar anders.

Hunch, volgens mij is de marge op de producten ook nog eens lager dan bij de concurrenten. (kan ik zo snel geen betrouwbare cijfers van vinden).

Al met al een hoop rode lampjes voor het rode kamp.

[Reactie gewijzigd door eL_Jay op 26 januari 2016 13:10]

de reden dat AMD is slechter doet in de r9 380/390 markt is omdat mensen keer op keer weer oude koeien uit de sloot trekken door te roepen slechten driver support. en stroomverbruik schikt mensen af. omdat ze blijkbaar denken dat een AMD versie enkele euro's per maand extra kost. en dan heb je nog het overgrote deel wat of met een pre-build zit of advies gaat vragen in de winkel. en dat is helemaal drama. daar vonden ze het blijkbaar nodig om een gtx-950 boven een r9 380x te plaatsen 8)7.

en ja dan zit je met een overgroot marktaandeel.
De high-end van Intel is maar voor een relatief kleine groep.

Belangrijk is dat Intel producten levert die op een aantal vlakken vlekkeloos presteren. Media, en dan met name afspelen van video, moet zonder al te veel trammelant gaan. Geen haperingen of vertragingen.

En de huidige serie doet het goed genoeg alleen is Windows in casu vaak de bottleneck.
Irritant in Windows 10 zijn bijvoorbeeld al die tiles die consequent informatie ophalen. Dat is belastend en je merkt het ook als je aan het browsen bent. Dat kun je gelukkig allemaal uitschakelen maar je bent dan wel een tijdje bezig om alles door te spitten (ongetwijfeld dat daar alweer software voor is).


Natuurlijk draait een I3/I5/I7 daar zijn vingers niet voor om, maar waarom als het niet nodig is, maar waarom Łberhaupt meer als minder net zo goed is. Juist daar blinkt Apple goed in uit en Android heeft met de laatste versies er ook voor gezorgd dat er minder lag in het OS zit.

Snelste betekent niet altijd de beste, er wegen meer factoren mee waarvan de belangrijkste niet eens in hun handen ligt, meest gebruikte OS op x86.
AMD is niet echt relevant hierin, het zijn TSMC en Samsung die door hun miljardeninvesteringen in fabs inmiddels niet meer twee jaar achterlopen, maar nu op dezelfde (14/16nm) node zitten als Intel. Dan zie je vanzelf dat ook de performance dichter bij elkaar kruipt - want bedrijven als Qualcomm en Apple kunnen net zo goed goede chipdesigners in huis halen als Intel.

[Reactie gewijzigd door Dreamvoid op 26 januari 2016 11:18]

Dus jij wil zeggen als AMD met zen weer goed op de markt komt intel ineens een dozijn performance uit een blikje kan trekken?. Geloof me intel wil niets liever. Maar helaas lopen we tegen limieten aan. En daar kan concurrentie niets aan doen.
Het is inderdaad geen eerlijke weergave. Aangezien de performance van de laatste jaren niet in het aantal Hertz zit, maar in de aantal instructies per kloktik. Even gechargeerd: een 1GHz van vandaag laat een 3GHz van een paar jaar terug volledig in de koude kleren staan.
De pure CPU performance gaat inderdaad niet meer met de sprongen vooruit zoals we dat kennen tot de eerste generatie Core iX series. Maar de vooruitgang is wel degelijk groot, enkel op andere vlakken. Zo zijn de processoren vele malen zuiniger dan ze waren, kleiner en genereren ze minder hitte. Wat mobiliteit en performance in hanzame pakketjes ten goede komt. Daarnaast zijn de APU pakketten hard vooruit gegaan (zeker bij Intel). Zo is een ingebakken Iris Pro 6200 uit 2015 gewoon zes keer zo snel als een HD 3000 uit 2011, de nieuwe Iris Pro lijkt hier weer een enorme schep bovenop te doen. Uiteindelijk klopt de wet van Moore nog altijd en is de vooruitgang groot, maar de focus van de fabrikant verschoven.
Off-topic: Soms heb ik het idee dat het allemaal langzaam gaat, en dat de performance al jaren op hetzelfde niveau zitten of maar mondjesmaat worden verbeterd. ;)
[...]
Deze CPU's hebben de 128 MB "videomemory" als L4 cache geschakeld.
Dat maakt de CPU's een heel stuk veelzijdiger.
Je hebt dan namelijk 128 MB cache wat met 30ns latency en 2x 50 GByte/sec aan bandbreedte ingezet kan worden.

Jammer dat dat zo onderbelicht blijft bij deze CPU's, want het is toch wel een heel prettige toevoeging.
Wat me op valt is dat de "standaard" laptop van tegenwoordig (lees rond §600,-) veelal geen "dedicated" graphics heeft, en eigenlijk alleen afhankelijk is van de Intel Graphics.

Zijn de built-in gpu's van Intel daadwerkelijk zů veel verbeterd de afgelopen 3-4 jaar?
Ik heb nog een laptop liggen, uit 2012, met een Nvidia GT630M i.c.m. een Intel i5-2450M.
(destijds aangeschaft voor §550,-)

Nu is de 630M niet de beste mobile gpu die er is, maar dat tegenwoordig de meeste laptops in deze pricerange met een processor-gpu komen, en verder niets, vind ik zelf een aparte ontwikkeling.

Het zal een hoop schelen in het gewicht van een laptop (koeling van gpu, etc), maar het lijkt me dat je de "horsepower" van een 'echte' gpu toch wel gaat missen...?
Zijn de built-in gpu's van Intel daadwerkelijk zů veel verbeterd de afgelopen 3-4 jaar?
Kort antwoord: ja. Vrijwel alle performance verbetering in de afgelopen jaren bij Intel zit in de GPU.
Dus de gemiddelde I5-6xxx GPU kan games beter aan dan de 2Gb GT630M in de (verouderde) laptop die ik ergens op zolder heb liggen?

Aan de ene kant een hele mooie voortgang/evolutie natuurlijk, je hebt 'minder' resources nodig, en kan het gewicht en ruimte reduceren door het weglaten van deze dedicated GPU.

Aan de andere kant vraag ik me af hoe dit uit zal pakken voor de business van Nvidia / AMD, en of je daadwerkelijk dezelfde performance zal krijgen als met een 'echte' GPU.
(Kan dit zelf helaas niet goed testen, beschik op het moment niet over een I5-6xxx o.i.d.)
De HD5500 uit een i3-5010U (Broadwell) gaat al over de 630M heen, deze Skylake chip is minstens twee keer zo snel.

De business van nVidia en AMD verandert al, de verkopen van losse gpu kaarten neemt gestaag af, ze richten zich nu meer op APU/SoC's (nVidia's Tegra, AMD's console chips) en ze proberen in de lucratieve HPC markt te breken met varianten voor GPGPU toepassingen.

Niet zo lang geleden hadden mobieltjes losse gpu chips, dat is weg. Tablets, allemaal weg. Notebooks inmiddels, allemaal geintegreerd. Consoles, idem. All-in-ones en NUC's ook.
Intel GPUs van 2013 zijn ongeveer net zo snel als die 630M: http://gpu.userbenchmark....ile-1011-GHz/m7814vsm7668
Rond die prijs is de target school/werk computerwerk, een GPU is extra kost en brengt in dat verhaal niks bij. De gemiddelde consument zal het verschil tussen een aparte GPU en een (igp) HD 3300 ook niet merken.

Overigens blijkt het ook niet nodig, de huidige generatie iGPU kunnen al best een spelletje spelen, 720p/low. Met deze generatie gaat er nog een stapje bijkomen als het klopt. Ik denk dus dat maar weinig mensen die extra dure energieslorpende kaart gaan missen!
Ik heb deze laptop destijds inderdaad gebruikt voor veelal schoolwerk, virtualisen, maar ook gamen, en licht werk met AutoCAD.

Vandaar dat deze 2GB 630M bij mij heel goed van pas kwam, en de I5-2450 was destijds ook een goede processor.

Maar ik ben toch benieuwd of bovengenoemde taken, vooral gamen en Autocad, kunnen worden uitgevoerd met de built-in gpu in Intel's nieuwere processoren.
(al is het 'maar' het verschil in GB, welke goed van pas komen met bepaalde taken)
In die prijsklasse zit je tegenwoordig ook veelal met ultrabooks. Kijken we naar de 400-500 range dan zie je ook dat je keihard genaaid wordt, maar omdat dergelijke systemen met een SSD vele malen sneller zijn dan voorheen met een HDD kon lijkt het allemaa een stuk krachtiger. Ook is 4K afspelen op een simpele atom proc als geen probleem meer. Vooral in Multimedia land zijn er een aantal dingen doorgevoerd waardoor kaarten als de 630M eigenlijk niet meer nodig zijn en je liever iets als een 760m of 960m koopt.
Het is natuurlijk logisch dat er tegenwoordig meer gevraag wordt van je laptop, grafisch, in bepaalde applicaties, videos, en natuurlijk ook games.

Het is dan natuurlijk niet meer dan logisch dat de 630M tegenwoordig niet al te veel te bieden heeft (is natuurlijk een oudere kaart), maar ik had dit als voorbeeld genomen.

Wanneer je een "echte" videokaart in je laptop wil, laten we zeggen de 960M, begin je rond de §1.000,-.

Natuurlijk is dit in vergelijking een veel hogere kaart dan de 630M, maar voor zijn tijd was de 630 een redelijke kaart.

Daarom snap ik de voortgang in genoemde laptops niet helemaal. Waar ik 4 jaar geleden een laptop kocht met "een krachtige gpu!", zoals dat toen werd geadverteerd, koop ik nu voor dezelfde prijs een laptop met Intel Graphics, waarbij ikzelf, en personen in mijn vriendenkring, veelal nog negatief denken over deze, omdat het "maar" een in-een-cpu-ingebouwde gpu is.
Ja dat begrijp ik, maar dat was toen ook de meeste kosten/efficiŽnte manier om films op FHD af te kunnen spelen bijvoorbeeld. Integrated Graphics konden dat lange tijd niet aan en de enige optie destijds waren kaarten als dit die wat meer kracht hadden dan nodig om dat te kunnen doen. Tegenwoordig is het voor standaard desktop gebruik helemaal niet nodig en is het zelfs een stuk efficiŽnter om de IGP te gebruiken.
Een iris pro is een veel betere chip in benchmarks maar waarom zitten die niet in desktop chips?
Waarschijnlijk is dit om een monopolie positie te gaan voorkomen in de grafische markt. In tegenstelling tot wat veel mensen denken is Intel de grootste leverancier van 'grafische kaarten' met > 50% marktaandeel (kan de bron even niet meer vinden).

Als je op dit moment een spelletje wilt spelen in HD op de desktop dan ga je al vrij snel naar een dGPU toe. Wanneer Intel besluit om de grafische kracht van de mobiele gpu in de desktop IGP te stoppen worden alle lagere series van AMD & Nvidia in ťťn klap overbodig.

offtopic:
Bovenstaande IMHO

[Reactie gewijzigd door j-phone op 26 januari 2016 11:42]

Dat is al
Ik speel nog steeds met de ingebouwde igp van amd
Op mijn laptop als de pc
Het ligt aan de gebruiker en lcd scherm hoeveel power je nodig heb
Ik speel veel gratis online games
Wow achtige games gaan erg goed met de ingebouwde igp
AMD is hier een vreemde eend in de bijt. Het verbaasd mij namelijk dat er niet meer AMD APU's worden verkocht met een verdomd goede IGP erin (in vergelijking met Intel). Het is al jaren een USP voor AMD cpu's.

Maar Intel rukt nu wel snel op qua IGP performance.
De niche waar AMDs APUs in zitten is wel vrij klein, niet genoeg power nodig om een dgpu te verantwoorden, maar wel om een relatief dure CPU (voor de betere igpu) + duur geheugen te kopen. Gecombineerd met relatief veel warmte etc.. en net wat duurdere mobo-tjes dan intel's goedkope spul, en je USP verdwijnt vrij snel

Je komt al snel in de richting waar een H81+pentium+instap dgpu een betere keus is.
Omdat mensen die een snelle gpu in een desktop willen liever een goedkope cpu + losse gpu kopen. Je hebt in een desktop niet de beperkingen qua ruimte en koeling.
Yay, skylake Celerons

Ben zelf toch wel een groot fan van de celeron lijn tegenwoordig, het instapmodelletje is altijd leuke bang/buck voor ~§40, prima voor instapsysteempjes, en met 12 EUs in de igpu ook niet eens compleet kansloos voor oudere spelletjes (HL2 liep al prima op 1080p op een ivy bridge celeron met 6 EUs)
Inderdaad. Zeker nu het grafisch gedeelte geen handicap meer heeft t.o.v. duurdere cpu's (i3 en beter). Deze Celerons hebben een GT1 (510) aan boord die dezelfde functies (DirectX12, OenGL 4.4, H.265/HEVC) heeft als de GT2 (520/530), maar dan met de helft van de 24 EU's.
Het idle energieverbruik van Skylake-cpu's is extreem gedaald t.o.v. Haswell, wat er dus voor zorgt dat deze Skylake Celerons prima HTPC-processors zijn. Alleen jammer dat HDMI 2.0 nog niet aanwezig is. Het zal wachten zijn op Intel Cannonlake en AMD ZEN processors vooraleer HDMI 2.0 eindelijk benut zal worden.

edit: De mobiele Braswell Celerons hebben een TDP van 4 tot 6 Watt i.p.v. 15 Watt zoals foutief in het artikel staat.

[Reactie gewijzigd door ShaiNe op 26 januari 2016 12:53]

De duurdere pentiums hebben ook HD 530 (zelfde als i3)
Kan nu niet lang meer duren dat de nieuwe Macbook pro's met Skylake en Iris pro gaan verschijnen dan. Zou me niet verbazen dat de dGPU gaan droppen omdat de GT4e enorm dichtbij de huidige dGPU's zit zeker omdat AMD Polaris en Nvidia Pascal uarch nog niet productieklaar zijn.
En toch zal ik nooit een apparaat kopen waar de graphics van de cpu afgetrokken worden. Een dedicated videokaart zal altijd beter zijn. Mijn broer heeft een 2000+ euro macbook pro, en die kan games van een paar jaar oud niet eens op full hd spelen. Belachelijk.
Het gaat ook bijna altijd om verbruik, het is dan altijd maar relatief. 'Krachtig' met 45w tdp, een beetje videokaart loopt daar rondjes om maar verbruikt dan ook een behoorlijk stuk meer.
Ik ook, maar speel nooit op Full HD. Zou ook niet weten waarom ik dat zou doen als mijn werkruimte native 1440X900 pixels is. Overigens hebben die machines ook gewoon een dGPU. Heb zelf de AMD R9 M370X.

gok dat je broer dan een aantal slechte ports heeft als deze niet fatsoenlijk draaien. Ik kan een aantal spellen (vooral oudere games) bijna op 2880X1800 spelen. BF2 kan op die resolutie alles op Ultra prima aan.
Battlefield 2 is uit 2005, het is ook niet heel gek dat je macbook die goed kan draaien want toen waren de gpu's nog niet zo snel :P.

De intel gpu's kunnen nog wel wat meer edram gebruiken als je ziet wat voor hoge resoluties sommige laptops hebben.
Nee uiteraard. Daar ben ik me van bewust, maar spellen als Stranded deep (die nu nog in alpha zit), KSP, BF3 en COD draaien zeer goed op mijn macbook.

Maar zoals ik ook al aangeef, wil je helemaal niet gamen op FHD, maar op 1440X900 of 2880X1800. Alle andere resoluties geven gewoon minder kwaliteit door slechte scaling binnen windows (resoluties hoger dan 900P binnen OSX word eerst opgeschaald naar 4X en dan terug gezet naar 1800p).
Er is geen enkele reden waarom IGP's niet dGPU's kunnen vervangen. Enige wat ze nog terughoud is de beperkte bandbreedte van normale RAM DDR3/DDR4(Intel beperkt dit nadeel door EDRAM te integreren in de topmodellen). Maar met HBM2 op de horizon gaan we waarschijnlijk nog veel snellere IGP's zien. Heterogenous computing is de toekomst.
Ik heb zelf een macbook pro uit 2011 met een dedi AMD GPU.

In games merk ik het inderdaad dat er een dedi GPU is, vooral in Windows, waar overigens alleen de dedi GPU beschikbaar is.

Binnen Mac OS merk je echt het verschil in stroom gebruik, dan mis ik totaal de dedi GPU niet, omdat ik het voor mijn werk niet echt nodig heb, maar de CPU horse power leuk is om te hebben.
als ik de prijzen voor een xeon of een i7 zie schrik ik toch wel. voor het geld van de xeon E3-1575M v5
koop je gewoon een meer dan deftige game pc met een i7-6700K erin.... en dan nog maar niet te spreken over het overklokpotentieel van een desktop in verhouding met een laptop die zijn hitte niet goed kwijt kan...
Ook de meerwaarde van een laptop met zo'n CPU is ver te zoeken. dan zou ik liever een normaal laptopje halen voor de minder belastende taken, en de zware taken waar een i7/xeon voor bedoeld is. (video/foto bewerking, rendere etc) lekker op een dedicated desktop doen.
Ik heb zelf een laptop met een Xeon E3-1535M gekocht omdat ik veel onderweg ben. Het is erg fijn om niet gebonden te zijn aan een vaste plek. En vergeleken met de processor kracht is het nog best een zuinige processor ook.
Maar wat is dan het voordeel voor die combinatie? Er zijn specifieke vlakken waar Xeons in uitblinken, maar voor alledaags gebruik zijn i7's meer dan capabel. Dus waarom de Xeon? Wat is de use case voor deze proc in jouw geval?
Trusted computing my friend... trusted computing.

De ondersteuning van ECC (DDR4).
Check even de Wikipedia betreffende ECC. Voor toepassingen waar een enkele 'rekenfout' een heel systeem kan corrupten, is ECC een uitkomst. Zo ook in mijn geval van eindeloos grote CAD assemblies.

https://en.m.wikipedia.org/wiki/ECC_memory

Overigens staat trusted computing enigszins los van ECC geheugen. Maar ook daar is het een toevoeging.

[Reactie gewijzigd door kaasboer09 op 26 januari 2016 15:41]

Ja eens. ECC is dan zeker een must. Maar dan zou ik toch sneller neigen naar een i7 met ECC ondersteuning zoals de i7-5700EQ of i7-5850EQ Scheelt toch §200 op alleen je CPU.

DDR4 maakt mij dan niet zo heel veel uit. Qua snelheid is het om het even, maar met name de grotere hoeveelheid en verlaagd stroomverbruik is wel chill.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True