Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 113 reacties

Intel heeft tien processors van de vijfde generatie, oftewel Broadwell, aan zijn productlijn toegevoegd. Het gaat om vijf chips voor laptops en vijf modellen voor desktops. Voor het eerst krijgen de desktopprocessors Iris Pro-gpu's. Ook zijn er nieuwe Xeons.

Intel BroadwellBegin dit jaar en eind vorig jaar introduceerde Intel al zuinige Broadwell-processors; nu zijn daar de krachtiger varianten voor laptops en desktops bijgekomen. Broadwell is de vijfde generatie processors en Intel produceert ze op 14nm, waar Intel Haswell nog op 22nm maakte. Daarnaast heeft Broadwell krachtiger gpu's met meer execution units.

De desktoplijn van Broadwell bestaat uit vijf processors, waarvan de Core i7-5775C de krachtigste is. Deze quadcore heeft een kloksnelheid van 3,3GHz met Turbo Boost naar 3,8GHz. Waar de Haswell-desktopchips het nog met een HD Graphics 4600 met 20 eu's moesten doen, beschikken de Broadwells over de Iris Pro 6200-gpu met 48 eu's die ook nog eens hoger geklokt zijn. Bovendien is er edram-cache aanwezig. Dit alles zou tot dubbel zo goede grafische prestaties moeten zorgen als bij de vorige generatie, claimt Intel.

Er zijn slechts twee desktopchips met 'C'-achtervoegsel met een unlocked multiplier voor de LGA1150-socket; de drie 'R'-varianten worden gesoldeerd op een bga-voetje en zijn vooral voor mini-pc's en all-in-ones.

De mobiele lijn van processors voor laptops bestaat uit vier quadcores voor bijvoorbeeld gamelaptops en daarnaast is er slechts een Core i5-dualcore. Alle chips voor laptops hebben een tdp van 47W en op een na, de 7-5700HQ, beschikken ze over de Intel Iris Pro 6200-graphics. Over een of twee maanden moeten de eerste laptops met de chips op de markt verschijnen.

Tenslotte heeft Intel de Xeon E3-1200 V4-lijn van datacenterchips aangekondigd. Deze Xeons zijn eveneens op 14nm geproduceerd en zijn van de Iris Pro P6300-gpu voorzien. Deze gpu's met 48 eu's en edram moeten vooral het transcoderen van video in datacenters versnellen en de processors zijn dan ook vooral voor grafische werk in rekencentra bedoeld.

Desktopprocessors
ProcessorCores/ ThreadsKloksn. (GHz)GraphicsPrijs L3-cacheTdp

i7-5775C

4/8

3,3

Intel Iris Pro graphics 6200

$366

6M

65W

i7-5775R

4/8

3,3

Intel Iris Pro graphics 6200

$348

6M

65W

i5-5675C

4/4

3,1

Intel Iris Pro graphics 6200

$276

4M

65W

i5-5675R

4/4

3,1

Intel Iris Pro graphics 6200

$265

4M

65W

i5-5575R

4/4

2,8

Intel Iris Pro graphics 6200

$244

4M

65W

Mobiele processors
ProcessorCores/ ThreadsKloksn. (GHz)GraphicsPrijs L3-cacheTdp

i7-5950HQ

4/8

2,9

Intel Iris Pro graphics 6200

$623

6M

47W

i7-5850HQ

4/8

2,7

Intel Iris Pro graphics 6200

$434

6M

47W

i7-5750HQ

4/8

2,5

Intel Iris Pro graphics 6200

$434

6M

47W

i7-5700HQ

4/8

2,7

Intel HD graphics 5600

$378

6M

47W

i5-5350H

2/4

3,0

Intel Iris Pro graphics 6200

$289

4MB

47W

Datacenterprocessors
ProcessorCores/ ThreadsKloksn. (GHz)GraphicsPrijs L3-cacheTdp

Xeon E3- 1285 v4

4/8

3,5

Intel Iris Pro graphics P6300

$557

6MB

95W

Xeon E3-1285L v4

4/8

3,4

Intel Iris Pro graphics P6300

$445

6MB

65W

Xeon E3-1265L v4

4/8

2,3

Intel Iris Pro graphics P6300

$418

6MB

35W

Xeon E3-1278L v4

4/8

2,0

Intel Iris Pro graphics P6300

$546

6MB

47W

Xeon E3-1258L v4

4/8

1,8

Intel Iris Pro graphics P6300

$481

6MB

47W

 
Moderatie-faq Wijzig weergave

Reacties (113)

Wat ik opvallend vind is dat die processoren steeds duurder worden...

Een kleiner procedé zorgt natuurlijk voor een hogere kans op fouten maar ook een hogere yield per wafer, toch blijven die prijzen omhoog gaan voor een chip die ongeveer hetzelfde doet als de vorige generaties.

Ik hoop dat dit geen trend blijft?
Dat kun je wel verwachten ja in een markt waar bijna geen concurrentie meer is. Intel heeft AMD 10 jaar geleden de kop afgesneden door een smerig spelletje te spelen, daardoor kon AMD niet doorpakken op hun AMD64 architectuur. De settlement van een miljard dollar heeft AMD later wel uit de problemen gehaald maar het voordeel van Intel is wel vele malen groter want zij kunnen nu de markt domineren, dat Broadwell veel te laat op de markt komt heeft Intel op geen enkele manier pijn gedaan. En ja, dat nieuwe processors meer gaan kosten lijkt mij logisch gevolg ook.
Bedoel je met dat smerig spelletje over die deals met leveranciers (o.a.) Dell dat ze uitsluitend Intel zouden leveren? Ja dat was toen allemaal wel vies. AMD maakte toen snellere cpu's als intel, in mijn ogen omdat intel een aantal verkeerde keuzes gemaakt had. AMD stopte eerder als Intel met de Mhz-race; ook hadden ze gekozen voor DDR in plaats van het duurdere rambus geheugen.

Overigens is AMD64 er wel doorgekomen, want dat is de x86-64 architectuur waarmee we nu werken. Intel heeft voor het eerst de instructieset van AMD overgenomen, normaal ging dat andersom. Van oorsprong was AMD de second source supplier voor de x86 cpu's, een eis van IBM>

Intel en HP hebben de x86-incompatible IA64/Titanium architectuur ontwikkeld, die bestaat nog wel overigens.
Ja maar er was nog veel meer aan de hand, Microsoft zou al lang klaar zijn geweest met Windows XP 64bit. Niet dat dat een ontzettend succesvol OS was geworden, maar het feit dat deze pas RTM ging toen Intel zijn eigen 64bit procs uitbracht deed mij wel argwanen.

Enfin, doen we niks meer aan, maar we gaan er uiteindelijk wel voor betalen.
Daarom stopt Intel er ook steeds meer GPU in. Schijnt dat al 2/3 van de die voor GPU is. Dus zou Intel enkel een quadcore i7 op 14nm produceren, kunnen ze die voor 100¤ verkopen en hebben we een TDP van 15W. Dat gaan we niet doen! De groeten!
Enige die dit kon afdwingen was Apple onder Steve. Maar die is niet meer. Doen nu dus wat ze willen.

Zelf heb ik geen idee wat ik met al die GPU power moet. Sinds mijn 9400M full HD decodeert vind ik het allemaal best.

[Reactie gewijzigd door blanka op 2 juni 2015 16:16]

Oh ja de GPU, een flink verkoop punt waar een groot deel gebruik van maakt, en een relatief klein deel niks mee te maken wilt hebben...
Hoezo is de GPU een verkoop punt? Als ik wil gamen is de IGP van Intel net voldoende om GTA V op low te spelen op 720p.

http://www.anandtech.com/...eview-i7-5775c-i5-5765c/7

Inderdaad een flinke verbetering t.o.v. eerdere IGP's, maar wie gamed er nu op IGP's?

Ik zit al jaren te wachten op een flinke verbetering van de CPU, maar die komt maar niet. En ondertussen maar zeuren dat het slechter gaat met de PC markt. Misschien moeten ze zorgen dat de core i7 920 die ik 6 jaar gelden kocht obsolete is omdat er een 16 core CPU is of omdat er een 5GHz 8 core is. Het lijkt wel stil te staan de laatste jaren.

Uiteraard is het allemaal niet zo simpel als ik hier boven beschrijf, het lijkt erop dat we qua kloksnelheid wel de limiet bereikt hebben. De zin van meer cores is voor normaal gebruik niet heel groot dus Intel brengt deze niet voor consumenten uit. Software die wel schaalt naar veel cores doet het vaak nog beter op GPU's want die hebben nog meer cores die voornamelijk op rekenwerk gericht zijn. Dus uiteindelijk is het inzetten op een IGP met veel reken threads misschien niet eens zo'n slecht idee. Kunnen we straks de Physics laten doen door de IGP terwijl de GPU zijn kracht kan gebruiken voor de shaders,
Nieuwsflits: de meeste mensen (en bedrijven!) die een computer kopen hebben geen enkele interesse in de zware spellen die een gemiddelde gamer speelt. Die zijn allang blij als Patience soepel werkt. De grote meerderheid heeft niks aan een dedicated videokaart. Meer iGPU kracht betekend wel dat het zuiniger is, en als het nodig is dan kan het toch nog voldoende leven voor die mensen die niet serieuze gamers zijn.
Nieuwsflits: de meeste mensen (en bedrijven!) die een computer kopen hebben geen enkele interesse in de zware spellen die een gemiddelde gamer speelt.
Zij zitten dus ook niet te wachten op een snellere IGP is wat ik bedoel te zeggen.
Dat denk ik wel: resoluties worden steeds hoger, dus ook die simpele spellen (bijvoorbeeld, kan ook CAD of zo zijn!) hebben steeds meer nodig, maar niet zoveel als een dedicated GPU levert.
Dat denk ik niet: Huidige IGP's zijn krachtig genoeg om meerdere hi-res monitoren aan te sturen inclusief Aero interfaces of andere effecten. De Core i3 in een NUC waar ik op gewerkt heb was al snel genoeg om een simpele WebGL shader fullscreen op 2 1920x1200 monitoren te draaien op 60 fps. Pure overkill voor de gemiddelde office taken. De HD4000 doet al meer dan 300 GLOPS

http://en.wikipedia.org/wiki/Intel_HD_and_Iris_Graphics

Daarmee kun je 600 float berekening per pixel doen op een UHD scherm op 60fps. Ook snel genoeg om 3x UHD aan te sturen mits ze de aansluitingen er op zetten.

En als je CAD doet dan koop je een dedicated GPU die een factor 10 sneller is.
Waar ik werk gebruiken ze laptops voor CAD werk, die hebben in het beste geval een quadro, die net zo slecht is als de iGPU...

Er is vast een markt voor CPUs waarbij de iGPU nuttig is, geen idee welke. Misschien gebruiken ze het alleen maar om driver ervaring op te doen, wie weet...
In laptops is het verschil inderdaad niet zo groot, toch zou een Quadro een factor 2 tot 6 keer sneller moeten zijn dan een IGP van dezelfde generatie.

Er is vast wel een markt voor snellere IGP's maar ik denk niet dat er veel bedrijven op zitten te wachten. Maar als software meer gebruik gaat maken van de GPU voor bepaalde taken dan kan het wel weer interessant worden,.

Wat Intel betreft denk ik dat ze proberen AMD op elk front te verslaan en dat betekend dus ook een snellere IGP.

Wat interessant is aan deze nieuwe Intel CPU's is dat ze 128MB onboard eDram hebben wat ook voor de CPU gebruikt wordt.

AnandTech heeft een diepgaande review van deze CPU's:

http://www.anandtech.com/...eview-i7-5775c-i5-5765c/2
Tot nu toe in mijn ervaring niet, hoewel dat wel de zwakste Quadro beschikbaar was :+
Gpu heeft zijn plaats op een i3 , maar worden die gpu's op i7 wel gebruikt?

Intel moet baat hebben bij zo een strategie.

Heeft er iemand statistieken over wie, hoe, en wat (welke cpu) - heeft en wat ze ermee doen?

Zij warschijnlijk wel ;) En dus gebakken lucht verkopen

Waar blijft AMD? Dachten zij echt 5 jaar op een architectuur te blijven?

[Reactie gewijzigd door Neuron Collider op 3 juni 2015 01:37]

Als je weet dat een i3/i5 een niet volledig functionerende i7 is, begrijp je ook waarom er een iGPU in een i7 zit.

Daarbij zijn er vast veel systemen waar een i5/i7 in zit en die geen dedicated GPU hebben...
De getallen die je noemt zijn onzin. Wat in mijn ogen wel waar is, is dat intel door meer onderdelen te integreren andere leveranciers buitenspel zet. Het heeft voor andere leveranciers geen zin om een northbridge of simpele on-boad gpu te ontwikkelen.

Verder: in een oligopolie (zeker als die bijna een monopolie is) wordt de prijs niet bepaald door de productiekosten/ontwikkelkosten en deze zal daar ook niet nauw mee samenhangen, maar de leveranciers zullen zoeken waarbij het product van prijs en afname maximaal is.

Toen Intel IGP's begon mee te leveren met hun cpu's ging de TDP van 65w naar 73w, maar ik weet niet of ze daarbij 'stiekem' de TDP van het cpu-gedeelte omlaag hebben gegooid. Als iemand info heeft over het aandeel in de TDP en de die-size van de igp dan hoor ik het graag.

En ja ik weet trouwens dat het een aparte die is ;-).
Als de beoogde klanten op gepaste wijze reageren en de pecunia in de zak houden zal zo'n trend vlot gesmoord worden.
Intel wil veel verdienen.

Het zijn lachwekkende verbeteringen de afgelopen jaren. Sinds AVX uitkwam is er niet veel verbeterd qua crunching power. Enige waar ze mee bezig zijn is iets krachtigere gpu onboard poten. Dat is alleen handig ALS DIE CHIP OOK GOEDKOOP IS natuurlijk :)

Kleiner procede overigens, duurdere machines, duurdere fabriek en dat moet ook terugverdiend worden.
Eerste review is er al voor de geintereseerde: http://www.tomshardware.c...oadwell,review-33215.html

''Operating at lower clock rates with less shared L3 cache and 65W TDPs, Intel’s two new socketed Broadwell-based CPUs clearly aren’t intended to usurp the existing enthusiast-oriented Haswell processors. Power users, breathe easy. That’s not what today’s launch is about. The real star of the show is Iris Pro Graphics 6200, which absolutely destroys anything Intel previously offered for its LGA 1150 interface (not to mention AMD’s best effort to make APUs look good).''
Mooie onzin vergelijkingsreview.
  • Intel Core i7 4790K vs. Intel Core i7 5775C
  • 4 (4.4) GHz vs. 3.3 (3.7) - Logisch dat de 5775C verliest.. vergelijk dan ook met een 4770R
  • 0 MB vs. 128 MB - Logisch dat de 4790 verliest.. neem dan ook een 4770R
Top desktop Haswell tegen top desktop Broadwell. Grofweg zelfde prijs, gericht op hetzelfde marktsegment. Prima vergelijking dus en ook de gebruikelijke gang van zaken in reviewland. :)
Tomshardware heeft als eerste (en enige?) een review van de nieuwe Intel Core i5-5675 & i7-5775C desktop processoren!

Dit zijn overclockbare 14nm Broadwell processoren met de krachtige Iris Pro 6200 graphics en een relatief lage TDP van 65 Watt. Ze zijn compitabel met H97 en Z97 moederborden. Ze zijn een stuk zuiniger dan zowel hun voorgangers (Haswell) als AMD's tegenhangers. Wat verbazingwekkend is is hun graphics performance. Ze halen maar liefst 1.5x de framerates van AMD's top model APU (de A10 7850K) en wel 2x de framerates van de A10 7700K! De GPU is qua performance zelfs bijna even snel als een Nvidia GTX 750! Qua CPU performance zijn ze net wat langzamer dan de Devils Canyon (Haswell Refresh, i5 4690K en i7 4790K) GPU's, maar het scheelt niet heel veel. En dan de conclusie:
a 14nm manufacturing process gives Intel a distinct advantage, which manifests as four IA cores fast enough for desktop workloads and a significantly more complex graphics engine able to hang with many mainstream add-in cards, all crammed into a modest 65W TDP.
Dat is een GPU van 100¤. Niet slecht.
Leken vraagje. Wat heb je aan die grafische verbeteringen in deze processors als je toch gebruikt maakt van een videokaart? De GPU wordt dan toch overgenomen door de kaart?
Ik meen dat nu met DirectX 12 beide GPU's benut kunnen worden.
Ja dat is waar, maar de vraag is hoeveel verschil een Iris Intergrated GPU maakt in fps als je bijvoorbeeld al een GTX 970 hebt. Ik denk dat je die extra rekenkracht van de intergrated chip dan wel bijna mag verwaarlozen...
In laptopprestaties is een extra iris pro best al een serieus percentage naast een GTX950/960M. En als die er toch al inzit, waarom dan niet gebruiken?
En voor de skylake gaan de EUcores van 48 naar 72 (+50%) wat toch al zeer dicht tegen de prestaties van een GTX950M komt te liggen.

[Reactie gewijzigd door dieter87 op 2 juni 2015 16:21]

Op het gebied van laptops moet ik toegeven dat met de verbeterende Iris Pro GPU's je daar, omdat de meeste laptop GPU's (en in gedachte houdende dat de meeste laptops niet eens een externe GPU hebben) best zwak zijn of telkens net niet genoeg fps halen voor een stabiele 30 fps, wel een extra geven.

De vraag is alleen hoe erg Intel de rekenkracht van de CPU zelf daardoor laat beïnvloeden. De clockspeeds van deze nieuwe Broadwell processors zijn namelijk wel duidelijk wat lager dan de normale, bv. i7's. Niet veel, maar het verschil is te zien.

"En voor de skylake gaan de EUcores van 48 naar 72 (+50%) wat toch al zeer dicht tegen de prestaties van een GTX950M komt te liggen." Hier trouwens niet vergeten dat we het dan hebben over technologie die zich verder ontwikkeld. Skylake, en dus betere cores, komen eraan maar natuurlijk zit Nvidia met haar m laptop reeks ook niet stil. Vooral deze m reeks maakt grote stappen ten opzichte van vroeger en het doel van Nvidia is om uiteindelijk prestaties uit de chips te halen die (bijna) gelijk zijn aan desktop kaarten.

Zie hieronder een voorbeeld hoe Nvidia over de tijd 'het gat dicht'.
http://images.dailytech.c..._Closing_The_Gap_Wide.png

[Reactie gewijzigd door caesar1000 op 2 juni 2015 17:00]

Maar als je met een GTX 980Ti vergelijkt is het gat plots weer evengroot als vroeger...

en maakt die 200a300mhz nu echt zoveel voor je uit? Er bestaat altijd nog een non irispro model voor als je dit echt zo belangrijk vindt.
Ja, maar er is ook geen Titan X of 980 Ti laptop model. Je moet niet een 980m vergelijken met een 980 Ti of Titan X maar met een 980. Dat is ook te zien in de grafiek.

En qua snelheid hoort de ontwikkeling juist vooruit te gaan. Nu zie je hier wat minder snelheid en meer grafische kracht (logisch natuurlijk). Mensen willen natuurlijk ook krachtigere cpu's. Het is mooi dat de grafische kracht omhoog is gegaan maar het gaat natuurlijk het meest om de rekenkracht die telkens toeneemt. :)

[Reactie gewijzigd door caesar1000 op 3 juni 2015 12:27]

en waarom zou ik daar niet mee mogen vergelijken? Omdat het niet dezelfde naam heeft..?
Het is maar hoe je het kind een naam geeft..

Ik vergelijk highend met highend,
net zoals de GTX480 de meest highend kaart was in de 400serie en de Titan X dat is in de 900 serie.
Dat ze nu eerder uppermidrange en later echte highend launchen maakt daarom het verschil niet kleiner met vroeger.

[Reactie gewijzigd door dieter87 op 3 juni 2015 12:46]

"en waarom zou ik daar niet mee mogen vergelijken? Omdat het niet dezelfde naam heeft..?":

"Verder liggen de prestaties van de 980M volgens Nvidia op 80 procent van die van de GTX 980 voor de desktop."

nieuws: 'Laptops met GeForce GTX 980M-kaarten komen begin oktober'

Je vergelijkt natuurlijk mobiele versies met de chip waarvan hij afstamt. In dit geval gaat het om de GM204 chip en niet de GM200 chip van de 980 Ti en Titan X. Je gaat toch ook niet een i2-8400 met een i7-4790K vergelijken omdat die verschillende namen hebben. "

Je weet en snapt (hopelijk) best dat de Titan X toch wel een beetje apart ligt van de mainstream net zoals de 980 Ti die al wat meer hierop gericht is maar nog steeds niet door de meeste mensen zal worden gebruikt. Dit zijn producten die vele malen minder worden verkocht omdat ze echt alles uit een chipgeneratie halen en daarom ook extreem duur zijn. Je gaat toch ook niet als je de i7-3770K en i7-4770K vergelijkt de i7-5960X erbij pakken om te laten zien dat er eigenlijk niks is veranderd qua verschillen tussen de twee...

[Reactie gewijzigd door caesar1000 op 3 juni 2015 16:54]

er zijn zat mensen die geen GTX970 hebben
de iris pro is dan misschien niet top, maar er valt best wat mee te doen
"als je bijvoorbeeld al een GTX 970 hebt." Hier doel ik op het antwoord van Depress die het heeft over het benutten van 2 GPU's. Als je een Iris GPU en videokaart met elkaar vergelijkt kun je je afvragen of je dan wel echt veel hebt aan die extra Iris GPU die helpt met renderen. Die is natuurlijk nog steeds veel minder krachtig dan de doorsnee gamers/render videokaarten en ik vraag me dus af of het echt zo heel veel zin heeft/verschil maakt.

Met de Iris Pro apart valt inderdaad veel te doen als je geen aparte videokaart gebruikt ten opzichte van vroeger waarbij intergrated GPU's eigenlijk alleen voor het visualiseren van alles zorgden waarbij ze nu ook echt wat kunnen helpen bij renderen of games al is natuurlijk de losse videokaart altijd een nog veel betere manier om dit sneller te laten verlopen. Maar ja, toch is het zeker een mooie progressie om dit standaard bij je cpu te hebben zitten! :)
Het enige waar de iris gpu hier nu goed voor is.. is live video encoding. De intel quicksync encoder is zo goed als gratis. Kost geen cpu of gpu kracht, mits je toch een externe kaart gebruikt. En het geeft een betere compressie dan de nvenc encoder van nvidia.
Enige punt kan zijn dat je intel cpu meer 'gebruikt' wordt en dus warmer is en instabieler kan worden.
Je kan in veel gevallen de videokaart weg laten tenzij je voor een echte game PC gaat.

edit: zover ik snel heb kunnen vinden presteert de iris 6200 pro ongeveer zoals de GTX 940M en die kan veel moderne spellen op lagere resolutions prima afspelen.

https://www.youtube.com/watch?v=xUgFWzemY74

[Reactie gewijzigd door Dazzyreil op 2 juni 2015 12:10]

Weglaten zou ik nu niet direct durven zeggen
http://www.notebookcheck....raphics-5200.90965.0.html

Zolang er nog een waslijst aan games zijn die gereleased zijn voor je aankoop dat je zelfs niet op low@720p op zelfs 30fps kunt draaien zou ik het niet als vervanging zien.

Lijstje:
Witcher 3
Evolve
Far Cry 4
Need for speed: Rivals
Company of heroes 2
Assassins Creed Unity
etc

Ik ben verre van een echte gamer, maar ik wil toch wel minstens medium@1080p >40fps spelen bij de aankoop van mijn systeem, en 2jaar later nog alles op low@900p kunnen spelen. Ik zie dus een GTX950/960M nog steeds als minimum, maar dat wel voldoet :)

[Reactie gewijzigd door dieter87 op 2 juni 2015 16:28]

Je zit compleet verkeerd te kijken, je linkt zelf naar de Iris Pro 5200...

Lijstje @ 720p

Evolve -->40fps
Far Cry 4-->29fps
GTA 5-->55fps
Battlefield Hardline-->40fps
Alien: Isolation-->45fps

En het lijstje wat jij noemt valt toch wel onder het kopje "echte" gamer games.
Spellen zoals LoL zullen wel op 1080p@60fps draaien.
Ik link niet verkeerd, de 5200 IS de 6200 maar met 8EU cores minder.
Er zijn nog geen exacte benchmarks van de 6200.
Ja de tests op 1024x768 zijn nutteloos sinds niemand op die resolutie zal gamen wegens de verhouding,
ik zie eerder 1366x768 als minimum en dan zieje dat ze enorme moeite hebben om aan 30fps te komen.

Ik denk net dat games als Farcry, Witcher, Assassins Creed, Need for speed games zijn die in de miljoenen worden verkocht, dan kan je niet anders concluderen dat het niet enkel een game is voor de diehard gamer...
Nee.

"Depending on the benchmark, the Iris Pro Graphics 6200 performs similar to a dedicated GeForce 940M. Most games of 2015 can be played fluently in low or medium settings."

Dus het lijkt mij logisch om de benchmarks van de GeForce 940M gebruiken in plaats van de benchmarks van een oudere generatie, wat natuurlijk compleet onlogisch is.

Mijn fps lijstje was allemaal 1366x768 op medium.
Nee want een dedicated GPU is COMPLEET anders opgebouwd dan een intregrated one zonder een Eigen pak VRAM (1of2GB)
En kan je dus niet mee vergelijken

Dan blijft de vorige zelfde architectuur waarop is verder gebouwd veel logischer dan vergelijken met NVidia.
Typisch aan integrated is net dat de performance instort op hogere resoluties.
Volgens de experts zit de Iris pro 6200 net onder de preformance van een GTX 560.
Is het nu zo moeilijk om te snappen dat NVidia architectuur volledig verschilt met intel?!
Die 'experts' kijken gewoon naar een nummertje in 3DMark dat ver van de praktijk staat.
Ik wil je nog eens 1440p zien gamen op een GTX560 en op een Iris Pro 6200,
die laatste zal al blij mogen zijn als hij de helft van de fps haalt, omdat ie gewoon geen deftige memory bandwidth heeft of Eigen VRAM.
En dat heeft met de complete verschillende architectuur te maken, wat ik je al constant wil vertellen...

Waarom denk je dat zo vaak de iris pro op lage resolutie getest wordt? Omdat de cpu meer meespeelt in het verhaal en de GPU kracht meer verdoezelt wordt.
Vergelijk eens op hogere resolutie door de cpu bottleneck weg te halen, je ziet een heel ander verhaal.

Idem met de Iris pro 5200 dat 'evensnel' was als de GT650M volgens 'experts'.
Ja de iris pro kwam inderdaad in de buurt op lage settings en op 720p, maar als je eenmaal op 1080p en hogere settings begon te kijken was de GT650M echt PAKKEN sneller.

[Reactie gewijzigd door dieter87 op 3 juni 2015 12:52]

dit is dan ook niet bedoeld voor de gamer maar voor de huis tuin en keuken pc.
er zijn nog steeds veel meer niet gamende pc gebruikers dan gamende en ook die hebben een GPU nodig om beeld te krijgen en daarvoor is een IGP van Intel al snel sterk genoeg
Daar heb je een punt!

Er is alleen wel een voordeel aan. Als je 3 ( of meer) beeldschermen wilt gebruiken is dit niet altijd mogelijk met 1 videokaart. In plaats van een 2e videokaart erbij te stoppen kun je de onboard GPU gebruiken voor dit ene beeldscherm waar je dingen als Skype en Twitch dashboard voor streamers op kunt zetten!

Maar je hebt gelijk. over het algemeen heb je het niet nodig.
Zo gebruik ik mijn setup idd ook, het is dat ik nog een scherm over had om aan te sluiten op de IGP, anders had ik hem uitgeschakeld. Maar idd, zeker nu ze zo krachtig worden kun je het aanschaffen van een videokaart toch vrij lang uitstellen en die paar honderd euro besparen.

Ben benieuwd of de IGP's tegen de tijd dat 4K mainstream wordt (een jaartje of 3-4), dat al aan kunnen sturen.
Leken vraagje. Wat heb je aan die grafische verbeteringen in deze processors als je toch gebruikt maakt van een videokaart? De GPU wordt dan toch overgenomen door de kaart?
dit geld alleen voor gamers en videobewerkers de normale huis tuin en keuken gebruiker heeft genoeg aan de onboard gpu die in de processor zit en dat maakt het systeem ook gelijk een heel stuk goedkoper
... en dat maakt het systeem ook gelijk een heel stuk goedkoper
En los van goedkoper vind ik het wel handig dat je in ieder geval beeld kunt hebben zonder videokaart. Ik weet niet of, en zo ja welke videokaart ik zou willen.
Je videokaart word gebruikt bij intensief grafisch gebruik, voor de rest word de IGP gebruikt dus inderdaad 'overgenomen'.
Nice, maar wellicht beter wachten op Skylake voor systeemupgrade?
Wat denken jullie?
Wachten dit is geen upgrade behalve op grafisch gebied. Op cpu gebied ga je er op achteruit als ik die kloksnelheden zie.
Maar ik ben benieuwd hoe ze overklokken.
Maar ik ben benieuwd hoe ze overklokken.
Er zijn geruchten dat Broadwell goed overclockbaar zal zijn :D

http://www.techpowerup.co...apes-5-ghz-oc-on-air.html
Als ze zo goed overklokken dan hadden ze wel hogere kloksnelheden gebruikt om ze als standaard te verkopen.
Nu doet het me vermoeden dat ze niet zo stabiel zijn op 4ghz om ze op die snelheid als high end te verkopen, zoals de 4790k. Kan natuurlijk zijn dat het gebleken is dat ze op de stock koeler dan niet binnen hun normen vallen ofzo.
Tsja dan moeten ze de stockkoeler maar iets aanpassen. Dat kleine blokje aluminium is nou niet echt bepaald goed. In principe kan je met een coolermaster dingetje van ¤20 al vele malen betere temperaturen halen. Echt bizar dat ze daar nog geen verandering in brengen. Haal zelf standaard de stockkoelers eruit als ik een PC moet verbouwen. Vervangen voor een standaard tower modelletje met koperen heatpipes van 92mm scheelt al een graad of 10 waarbij de hoeveelheid herrie ook veel minder is.

Maar het kan natuurlijk ook zo zijn dat ze de clock express wat lager houden zodat ze straks met een fikse verbetering kunnen komen. De nadruk ligt de laatste tijd steeds meer op zuinigheid en compactheid dus iets lager clocken is dan zo dom nog niet.
stock coolers zijn zo gemaakt dat:
- zo goedkoop mogelijk
- net genoeg koel capaciteit voor normaal gebruik
- compatibel met elke case
- nooit ram problemen.

een hoop air cooler kunnen hier overweg met ram modulles zoals: corsair Dominator of Kingston HyperX Predator
er zijn meer cpu koelers die hier geen probleem mee hebben dan wel dus een beetje onzin om als argument te gebruiken.
dat klopt maar die zijn over het algemeen duurder om te produceren dan de stock cooler. En waarom zouden ze een duurdere cooler erbij doen als de mensen die toch meer koeling willen altijd een aftermarked cooler kopen ( dit geld ook voor AMD btw )
Het is voor intel dus ook niet rendabel om een betere en dus duurdere stock cooler erbij te leveren. want dan zou of de winstmarge omlaag moeten of de prijs van boxed cpu omhoog moeten.
De meeste aftermarket tower koelers binnen het 92mm segment kunnen dat prima. Geen enkel probleem. Als Intel de stock koelers 5mm hoger zou maken zou dat al heel veel schelen in temperatuur en lawaai. En oud 775 blok op een 1155 socket presteert al veel beter bijvoorbeeld. En die vallen nog steeds binnen de door jouw aangegeven eisen.

Maar zoals ik al zei. Energiezuinigheid en compactheid spelen een grote rol tegenwoordig.
5 ghz op 1.42V klinkt niet echt als iets stabiels voor 24/7, en de overklok was maar op 1 core.
Op de vrij overklokbare cpu's moet je altijd een aftermarket koeler zetten toch ;)
dat zal goed kunnen. tevens zou ook kunnen dat het stroomverbruik dan te hoog zou liggen. want hoe hoger de clock snelheid hoe meer voltage hoe hoger de TDP. en intel is juist aan het inzetten op steeds energie zuinigere chips. wss zal de prestatie winst minimaal zijn maar wel van 80W naar 65W :)
Kloksnelheden tussen verschillende generaties kun je niet vergelijken ;)
Dit is een die shrink veel meer ipc zal er niet inzitten hooguit paar %
Gelukkig zijn de C-cpu's geschikt voor overklokken dan zet je ze zelf op 4.4GHz ;)
Erg jammer waar zijn de rest van de 35W CPU's, en de 25W CPU's?

Daar moeten we nog op wachten dus, aan gezien Socket 1150 CPU,
de Intel Core i3 4130T en Intel Core i5 4460T en Intel Core i7-4785T allemaal maar 35W gebruiken.

En de Intel Xeon E3-1220L v3 en Intel Xeon E3-1240L v3 maar 25W gebruikt.

[Reactie gewijzigd door AmigaWolf op 2 juni 2015 16:47]

Wachten.... als je tot eind 2016 wilt wachten misschien? Het is nog steeds niet duidelijk wanneer precies skylake uitkomt. Als je wilt upgraden dan moet je dat nu gewoon doen. Zoveel performance winst moet je niet verwachten. Upgrade nu en check of het over 5 jaar nodig is om weer te upgraden.
Skylake komt binnen een paar maanden uit volgens de meeste bronnen
Sowieso even wachten waar AMD mee gaat komen. Dat kan je portemonnee geen pijn doen.

De naamgeving begint wel wat wazig te worden. Misschien houd ik me niet zoveel bezig met Intel, maar ik heb zo langzamerhand niet meer door welke nummering bij welke performance hoort :/

Hoe krijgt Intel het voor elkaar om alle CPU's een TDP te geven van 65w? Ik geloof er niet zoveel van. Ik weet wel zeker dat die i7's meer trekken dan dat.

Deze benchmark laat dit heel duidelijk zien. Haswell zou ook een TDP van 65w moeten hebben, maar trekt in de realiteit 102w.
TDP is dus totaal wat anders dan stroomverbruik. TDP gaat om warmteontwikkeling.
Hmm ja, dit was ik helemaal vergeten! Je hebt gelijk. Ik had er ooit wel eens over gelezen maar het was me volledig ontschoten.

Maar nu de volgende vraag, wat heb ik dan aan het TDP? Mijn cpu gaat dus gewoon oververhitten als ik er een koeler op zet met een rating van 65w? Of is dit gewoon weer een truukje om het specsheet mooier te laten lijken?
In principe heb je bij een TDP van 65 watt een koeler nodig die 65 watt aan warmte kan afvoeren. Dat is exact waar de spec nuttig voor is. Voor de rest wat mij betreft inderdaad een truukje om de specsheet mooier te laten lijken, want de meegeleverde stockkoelers zijn al voldoende...
Waarom wordt deze reactie gedownvoted ? Hij heeft toch gewoon gelijk al had hij het iets uitgebreider kunnen uitleggen. Hoe verbaast mij echt hoeveel mensen hier en op de rest van techsites denken dat het tdp het verbruik is. Het is bedoeld om aan te geven wat voor een koeling er nodig is. Er zit ook verschil tussen hoe amd en intel dit bereken. Valt het nou echt niet op dat bijvoorbeeld een reeks i5 processoren allemaal hetzelfde tdp hebben terwijl de kloksnelheden verschillenen ?
Ik weet niet zo goed waarom je hier een -1 voor krijgt want je hebt wel gelijk.
The thermal design power (TDP), sometimes called thermal design point, is the maximum amount of heat generated by the CPU that the cooling system in a computer is required to dissipate in typical operation. Rather than specifying CPU's real power dissipation, TDP serves as the nominal value for designing CPU cooling systems.[1]
Bron: http://en.wikipedia.org/wiki/Thermal_design_power
Zo kun je altijd wachten op volgende generaties. Skylake staat vooralsnog gepland voor (eind) augustus, als we deze bron mogen geloven. Er komt altijd iets beters, ik denk dat wachten op dit moment nog niet gek veel uit zou maken. Ieder zijn ding in ieder geval ;)
als je kan wachten, dan zou ik wachten. het is altijd de overweging nu iets kopen of wachten op iets beters, maar uiteindelijk gaat de keus erom of je kan wachten, zo niet, dan heb je aan de huidige generatie ruim voldoende voor de komende drie jaar (afhankelijk van de toepassing natuurlijk) als doorsnee gebruiker.
Kun je wachten, dan zou ik wachten, maar geduld wordt soms ook op de proef gesteld, want mijn overweging nu iets te kopen of later is toch echt..hebbe hebbe hebbe... :9~ , mijn vrouw is wijzer en die zegt later... :D

[Reactie gewijzigd door TheTeek op 2 juni 2015 11:53]

Jouw vrouw heeft dus de broek aan! :P
Nee zijn vrouw geeft niks om computers, de meeste Tweakers 95% is man.

Vrouwen (de meeste) houden nu éénmaal (jammer genoeg) niet van computers of grote 4k of meer schermen en 5.1 of meer grote boxen waar goed geluid uit komt, en ja ik spreek uit ervaring.

Zo lang ze maar een computer hebben die hun sociale media kan doen en wat internetten zijn ze blij, zelfde vaak met een TV zo en geluid, zo lang ze beeld hebben en geluid is het vaak goed genoeg.

Spel fouten

[Reactie gewijzigd door AmigaWolf op 3 juni 2015 00:34]

Hoog tijd voor Vanessa Evers om ICT dan nog wat meer te promoten onder het vrouwelijke deel van de bevolking dan! Mooi mens trouwens, die Evers! :Y)
Ja dat zou leuk zijn ja, wat meer vrouwelijke Tweakers (nerds).
Dat moge vanzelfsprekend zijn. Er is niets aan Broadwell wat interessant is voor de meeste desktopgebruikers buiten om het feit dat het de courante lijn is.
Skylake heeft hardware ondersteuning voor x265, ik zou zeker wachten.
Tenslotte heeft Intel de Xeon E3-1200 V4-lijn van datacenterchips aangekondigd. Deze Xeons zijn eveneens op 14nm geproduceerd en zijn van de Iris Pro P6300-gpu voorzien. Deze gpu's met 48 eu's en edram moeten vooral het transcoderen van video in datacenters versnellen en de processors zijn dan ook vooral voor grafische werk in rekencentra bedoeld.

Tuurlijk we gaan transcoden op een IGP en niet op de daarvoor bestemde Quadro/FireGL of Tesla/Xeon Phi kaarten die vele malen sneller en beter hun resultaat afleveren.
Persoonlijk vind ik het een vrij dwaze move om een IGP op een xeon te plakken maar goed.
Graphics heb je sowieso nodig (al was het maar om de BIOS te configureren) dus die IGP moet er zijn. Daarnaast kan men beginnen met de IGP en wanneer deze niet meer voldoet en er budget voor is omschakelen naar snellere, betere hardware.
Ik vernam van pcworld dat deze chips voornamelijk als antwoord op de Nvidia Grid systemen zijn en als remote cad/cam workstationcluster dienst moeten kunnen doen.

Met beschikking over deze informatie slaat het tenminste ergens op, als Tweakers dit dan misschien ook in het artikel kan vermelden?
Graphics heb je sowieso nodig (al was het maar om de BIOS te configureren) dus die IGP moet er zijn
Dat hangt van het moederbord af. Veel server moederborden hebben een AST video chip. Voor die moederborden zijn er tot nu toe steeds ook Xeon E3 varianten zonder IGP geweest, naast de versie met IGP.
ik denk dat dit meer een aanval is op de goedkopere varianten van de Quadro/FireGL
die worden nog best vaak verkocht (want de snelle Quadro/FireGL kaarten zijn best prijzig)
Hmm, ik ben momenteel aan het plannen om de XPS 13 2015 te kopen binnenkort, ook om er een beetje op te kunnen gamen (niveau Diablo3 en DOTA2). Maar als ik deze vooruitgang zie qua GPU lijkt het t mij wel waard om hier nog mee te wachten ... Wat is 'jullie' verwachting over dat de XPS 13 2015 een upgrade (optie) krijgt naar één van deze CPUs over een paar maanden? Misschien toch nog maar even wachten en kijken wat deze CPUs gaan brengen, de huidige HD Graphics zijn nog maar net genoeg voor bijvoorbeeld dus Diablo 3.
Ik betwijfel het. De XPS 13 2015 gebruikt de U cpu's met een TDP van 15W. Deze cpu's gebruiken 47W. Veels te veel warmte wat de XPS13 niet kwijt kan.

Huidige i7-5500/5600u voor XPS 13 met HD5500 -> 15W
Huidige i7-5557U voor Macbook Pro 13 met Iris 6100 -> 28W
Nieuwe i7-5750HQ met Iris 6200 -> 47W
Mjah, ziet er logisch uit, zonde! Maar bedankt iig! Jij ook B.A.T.!

Dan het toch maar met 'minder' doen ;)
Het lijkt me dat de CPU's met geïntegreerde Iris Pro GPU's allemaal richting Apple gaan. Althans, afgezien van BTO en Clevo zijn er weinig fabrikanten die Intel Iris Graphics leveren en géén Appeltje achterop hebben.
Hoeveel de HD Graphics krachtiger zijn dan hun voorgangers durf ik niet te zeggen. Wachten op de benchmarks (als die er nog niet zijn) :)
Waarom moeten die productcodes nou weer verandert worden, de K versie's zijn nu weer C versie's om het makkelijk te maken.
De Broadwell is een 'tussen' versie. In de herfst komen de Skylakes waaronder de 6700K (vergelijkbaar met 4790K), maar die heeft de Z170 of H170 chipset nodig. Ook krijgen ze een hogere TDP van 95W en de desktop versies support voor DDR4 geheugen.

Daarbij is de CPU van de 5775c vergelijkbaar met de 4790K, maar is de GPU uitstekend. Eerdere reviews van de 5775c laat niets heel van de AMD A10-xxxx processors.
No shit, dat is altijd al zo geweest. Je vergeet er ook bij te vermelden dat de A10 processors minstens 100 dollar goedkoper zijn dus in een totaal andere prijsklasse valt.

Snap ook niet wat je wilt zeggen met je reactie, want het heeft niks te maken met bovenstaande comment.
Maar je moet het ergens mee vergelijken. Er zijn maar twee spelers op de markt die CPUs met een ingebouwde GPU ontwikkelen voor de desktop markt, Intel en AMD. Hoewel Intel dus inderdaad duurder is (op dit moment) lijkt het erop dat Iris behoorlijk sneller is in vergelijking met de A10 range.

Betaal je wel 100-150$ meer voor. :)
Ligt het aan mij of is dit de eerste die shrink waarbij performance omlaag gaat?
http://ark.intel.com/compare/88040,75123,65523,61275

Normaal is de mainstream i7 3.5GHz (met Haswell Refresh als uitzondering), maar nu hebben ze hem verlaagd naar 3.3GHz (om de GPU te verbeteren, dat dan weer wel). Maar bij unlocked modellen wordt meestal de iGPU niet gebruikt (want er wordt meestal een aparte GPU aan gehangen - hoewel er natuurlijk mensen zijn die de IGP gebruiken in een media center), dus is dit eigenlijk grotendeels een verspilde kans.
En ik zie eigenlijk geen manier waarop hij sneller kan zijn, want er is minder cache, lagere turbo speed, en tegenover Haswell ook niet veel sneller, dus tenzij Intel nog heeft zitten te tweaken met de architectuur is hij gewoon trager. (maar mogelijk overklokt hij beter)

[Reactie gewijzigd door field33P op 2 juni 2015 11:53]

Ben inderdaad ook erg benieuwd: een shrink verandert in principe niets aan de architectuur. Ben ook huiverig voor de verlaagde cache van 8 naar 6 MB.
Was die Intel Iris Pro 6200 niet vorig jaar ook al uit? Of is dit een snellere variant? Ik zag op Tom's Hardware dat deze grafische chip m.b.t. gaming nog best aardig weg komt. Niet altijd even goed als een losse GPU, maar lang niet verkeerd.
De mobiele variant van Broadwell is al te koop. Ook bij Apple. Dit zijn desktop parts.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True