Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties, 22.099 views •

Intel heeft nieuwe details van de gpu in de Haswell-processors bekendgemaakt. De snelste gpu's krijgen de benaming Iris en Iris Pro. Ook toonde Intel benchmarkresultaten van 3DMark voor een aantal laptop- en desktopprocessors.

Intel heeft de GT3e-gpu, die in een aantal mobiele Haswell-processors zal verschijnen, Iris Pro genoemd. De chipfabrikant zal de traditionele viercijferige typenummers echter ook aanhouden. Voluit heet de GT3e-gpu vanaf nu 'Intel Iris Pro graphics 5200'. De GT3e-gpu onderscheidt zich van de andere GT3-gpu's door het gebruik van edram, waardoor de grafische prestaties volgens Intel in de buurt van die van een GT 650M-gpu van Nvidia liggen.

Intel heeft ook meer duidelijkheid over andere Haswell-gpu's gegeven. Een stapje lager op de prestatieladder staat de 'gewone' GT3-gpu, die in mobiele processors met een tdp van 28 watt te vinden zullen zijn. Ook deze gpu krijgt de merknaam Iris mee, maar ontbeert het Pro-predikaat. Het verschil tussen de Iris 5100 en de Iris Pro 5200 is de afwezigheid van edram bij de eerstgenoemde. Intel heeft ook een derde versie van de GT3-gpu op stapel staan. Deze zal in processors met een tdp van 15 watt te vinden zijn en valt niet meer onder de Iris-merknaam, maar zal HD graphics 5000 genoemd worden. De klokfrequenties van deze gpu liggen lager dan die van de gpu's in de Iris-serie.

Intel GTx graphics

Intel zal de GT3-gpu alleen in processors integreren die op het moederbord zijn vastgesoldeerd. Dat zal niet alleen bij laptopprocessors het geval zijn; de fabrikant gaat ook bga-desktopprocessors met het R-achtervoegsel leveren, waarin de Iris Pro-gpu is geïntegreerd.

Intel gaat de GT2-gpu die ook in desktopprocessors zal verschijnen in vijf verschillende soorten uitbrengen. Er komen de Intel HD graphics 4600, 4400 en 4200 voor consumenten-pc's en voor de zakelijke processors heeft Intel de typenummers P4700 en P4600 gereserveerd. De zwakste ingebouwde gpu is de GT1. Intel lijkt deze chip vooraslnog gewoon 'Intel HD graphics' te gaan noemen.

De typenummers voor gpu's in mobiele processors waren al enige tijd bekend. Nu blijkt dus dat Intel de mobiele processors met GT3-gpu's verschillende tdp's meegeeft, waardoor grotere ultrabooks die over betere koeling beschikken ook snellere gpu's kunnen krijgen.

Intel heeft behalve typenummers ook prestatiebenchmarks bekendgemaakt. De fabrikant draaide 3DMark06, 3DMark Vantage en 3DMark11. Het mag geen verrassing zijn dat de Haswell-processors stukken beter presteren dan de processors uit de vorige generatie. De met een Iris Pro-gpu uitgeruste i7-4770R scoort in 3DMark11 bijna drie keer zo hoog als de i7-3770K met HD 4000-gpu.

Intel Haswell gpu-benchmarks Intel Haswell gpu-benchmarks Intel Haswell gpu-benchmarks Intel Haswell gpu-benchmarks

Intel presenteerde tot slot nieuwe processorlogo's voor de Haswell-serie. De fabrikant is afgestapt van het horizontale ontwerp en heeft dit vervangen door een verticaal georiënteerd logo.

Intel Haswell logo's

Reacties (67)

Lijkt me heel goed nieuws. Heb een tijdje zitten kijken naar een ultrabook maar zou er af en toe ook een spelletje op willen spelen(Starcraft 2). Dat gaat met de huidige HD 4000 eigenlijk net te traag.
Die GT3e zal waarschijnlijk alleen in de duurste duurste i7's zitten. (Wat ik heel stom vind als ze dat zouden doen. Als ze het nou in een bepaalde i3 stoppen hebben ze een zeer geduchte tegenstander voor de APU's van AMD. We zullen zien)
De GT3e zal enkel in vastgesoldeerde cpu-zitten (BGA), ook bij desktop cpu's. Deze gesoldeerde desktop cpu's hebben een "R" als suffix en zijn niet persť de duurste/snelste want ze hebben een relatief zuinig TDP van 65 Watt. Ze zijn eerder bedoeld voor in compacte maar krachtige all-in-ones en mini-barebones.

Voorlopig zijn dit de desktop haswell-cpu met de snelste GT3e/HD 5200:Als de i7-4770R (BGA) vergelijkt met de gewone i7-4770 (socket 1150) dan heeft deze laatste meer cache, een hogere basiskloksnelheid, een hoger verbruik en uiteraard een minder snelle GPU (link)

[Reactie gewijzigd door ShaiNe op 2 mei 2013 15:52]

De GT3e zal enkel in vastgesoldeerde cpu-zitten (BGA), ook voor desktop cpu's.
Bedoel je nou dat ze in allebei zitten?
Die GT3e zal waarschijnlijk alleen in de duurste duurste i7's zitten. (Wat ik heel stom vind als ze dat zouden doen. Als ze het nou in een bepaalde i3 stoppen hebben ze een zeer geduchte tegenstander voor de APU's van AMD. We zullen zien)
GT3e zal wellicht zelfs de huidige amd apu's voorbij gaan, maar next gen APU's van AMD die er binnenkort aankomen waarschijnlijk niet.

Even wat getallen. :)

3dmark11 performance
Intel HD4000 - 650 (i7 3770K)
Intel GT3e +- 1950 (schatting 3 x hd4000 score)
A10 6800K – 1667 (Richland)

Is even afwachten wat voor trucjes amd uit hun mouw weten te schudden met de nieuwe GCN 2.0 GPU en of er iets gedaan gaat worden met de 128bit GDDR5 geheugen controller die er in komt te zitten. Als AMD vernieuwde "sideport memory" gaat gebruiken bij nieuwe apu's dan is die 20% voorsprong in 3dmark makkelijk te dichten.

Let op, staar je niet blind op 3dmark, reallife games kunnen wel eens heel anders uitpakken, en intel drivers gooien nog steeds bij sommige spellen roet in eten. Drivers zijn nog steeds niet op het niveau van Nvidia of AMD.

[Reactie gewijzigd door mad_max234 op 2 mei 2013 12:46]

In de desktop CPUs is een "IGP" een stuk minder interessant. Genoeg plek voor een GPU in zon kast en een paar watt meer of minder maakt ook niet uit want dat kan gewoon uit het stopcontact gehaald worden.

Waar deze IGPs het van moeten hebben is verbruik om zo goed te kunnen functioneren in ultrabooks en zeer compacte systemen. En ik denk dat een totaal TDP van 15 watt een erg knappe prestatie is van Intel. En wel hierom;

De huidige "ultrabook' variant is een 3687U en bezit een HD4000. Kijkende naar vergelijkbare TDP (17-->15watt) in de tabel die intel geeft zie je een performance verbetering voor de HD5000 tov van de HD4000 van tussen de 25 (3dmark 06) en 50% (3dmark 11). Dat is volgens Notebookcheck een score van 6000 voor 3dmark06 en 900 voor 3dmark 11 voor een TDP van 15watt. Als je die naast een huidig alternatief legt van AMD uit bijv de recent gereviewde Ativ van Samsung met de 8570 (van tweakers legt; reviews: Samsung Ativ Book 7: ultrabook-alleskunner dan presteert de 8570 slechts 25% beter dan de HD5000.

Dat zou betekenen dat de dedicated 8570 GPU slechts een TDP van 5watt mag hebben om gelijk te komen in watt/performance. Iets zegt me dat die dat niet gaat redden. Ik denk dat zowel AMD als Nvidia hier nog wel een lichte kluif aan gaan hebben om met iets te komen wat qua gflop/watt de HD5000 in het ultrabook segment gaat verslaan.
In de desktop CPUs is een "IGP" een stuk minder interessant. Genoeg plek voor een GPU in zon kast
Alleen gaat die ruime kast langzaam aan steeds minder voor komen. De trend is meer SFF en All in One, en juist daar is een krachtigere IGP een uitkomst.
Voor goedkope casual gaming is een IGP wel veel goedkoper. En omdat ik dat ben en ook nog de PC passief koel is het voor mij een geweldige oplossing.
Zelfs dat niet, de GT3e komt enkel op CPU's die vastgesoldeerd worden, zoals vaak bij ultrabooks gebeurt. De redenering is dat een dergelijk krachtige IGP volgens Intel in een desktop geen zin heeft, omdat gebruikers die het belang van een GPU kennen en het ook nodig hebben, sowieso voor een dedicated kaart zullen gaan.

Een beetje kromme redenering volgens mij, aangezien ik voor een toekomstige huiselijke PC om exact die reden niet eens een Intel overweeg.
ik zit juist te wachten op de gt3e omdat de igp zo krachtig is is perfect voor HTPC's onder de tv en zo kun je het voordeel houden van een low profile pc
Eindelijk DP 1.2, wat betekent dat MST ondersteund wordt zodat het een pak makkelijker is om 3 FullHD monitoren aan te sturen op 1 laptop poort. Tot nu toe moest je altijd een AMD GPU hebben om dat te doen.... (of een van nVidia's Quadro x000K GPUs). Ik ken een paar binnen mijn bedrijf die content gaan zijn.
Redactie: is trouwens geen eDRAM (= on-die DRAM), maar DRAM in het package (system in package, SIP). Door de kortere draaden tussen de memory controller and de DRAM --> lagere impedanties, caps --> hogere snelheden en minder power.
yes, dus toch. Vroeg me een tijdje terug al af of intel deze fancy RAM zou toevoegen. Ik herinner me nog van de xbox dat eDRAM ontzettend duur was om te implementeren/
Zou eigenlijk eerder willen weten of ik nog een i5 3570K moet aanschaffen of wachten.
Waarschijnlijk gaan de nieuwe CPU's duurder zijn en amper sneller en het interne GPU gedeelte daar heb ik niks aan.
Aangezien je voor een i5 wil gaan en de interne GPU niet nodig hebt neem ik aan dat dit voor een game systeem is? Wachten heeft dan denk ik niet heel veel nut qua performance voor je games.
Verschil is wel dat haswell een nieuw socket heeft, dus als je nu voor een ivy bridge cpu en mobo gaat kan je later niet makkelijker upgraden.

Prijsverschil tussen ivy en haswell zal overigens wel meevallen, ivy zal iets in prijs droppen en haswell zal er misschien iets boven zitten maar het zal niet heel veel schelen, iig dat is meestal het geval.
Haswell is weldegelijk sneller. Twee keer zoveel vector processing performance (AVX2 registers zijn 256 bits ipv 128 bits - nu zul je support daarvoor in games nog niet zo snel tegenkomen, maar het betekent ook dat ie 2 128 bits operaties in parallel kan doen), en verwacht wordt dat een enkele thread ook tot iets van 10% sneller is (betere branch prediction, grotere L2 TLB, 2 extra execution units, etc.) tov Ivy Bridge.
+-10% wat de nieuwe chip gemiddeld sneller is(op paar specifieke taken na) is amper merkbaar. 10 seconden of 9 seconden zul je in praktijk niks van merken. Om iets te merken heb je toch wel tientallen procenten nodig, eerder richting de 50%. Alles daaronder heeft amper nut, ja voor de getallen is het euk dat je 20% meer score hebt maar in praktijk heb je er amper iets aan, en zeker geen honderden euro's waard om je oude systeem weg te doen!

[Reactie gewijzigd door mad_max234 op 2 mei 2013 12:54]

Het gaat er niet om dat je je oude systeem wegdoet en vervangt door een nieuwe. De vraag was of het nuttig was om te wachten op Haswell als je sowieso een nieuw systeem ging kopen. De prijzen liggen niet heel ver uit elkaar, als je het kan veroorloven om een maandje te wachten zou ik dat gewoon doen. Al is het alleen maar omdat je met socket 1150 beter bent voorbereid op toekomstige upgrades.

[Reactie gewijzigd door .oisyn op 2 mei 2013 15:38]

Ach, kom, niet overdrijven. IvyB was ook "sneller" dan SB en nog steeds zie je in elke bench de i5 2500k recht onder de 3570k staan. De verschillen zijn sinds SB gewoon minimaal en liggen vooral in nieuwe instructiesets/uitbreidingen daarop. Doe je niet specifiek iets met zo'n instructie dan is er geen reden om te upgraden binnen het socket.

De performance per watt gaat sterk omhoog per generatie, en daarin zit ook de reden om te upgraden. Vind je dat niet belangrijk en heb je SB? Niks doen, lekker wachten, en pas upgraden voor een echte prestatiewinst: meer cores/threads bijvoorbeeld.

Nu wachten op Haswell of IVB? Kijk eens een paar weken aan wat er met de prijs van S1155 gebeurt, zowel proc als bordje, wanneer Haswell geleverd kan gaan worden. Haswell gaat sowieso hoger geprijsd worden (daar gaat je netto winst op basis van performance/watt al!) en als IVB goedkoper wordt mis je bar weinig op desktop gebied door gewoon IVB te nemen - je hebt dan namelijk gewoon alles dat belangrijk is: PCI 3.0, SATA600 etc.

Haswell is een prestatieslag voor mobile procs, meer niet. Desktop heeft echt geen reden om specifiek voor Haswell te gaan.
Ach, kom, niet overdrijven. IvyB was ook "sneller" dan SB en nog steeds zie je in elke bench de i5 2500k recht onder de 3570k staan.
Wat voor benchmarks bekijk jij dan? Benchmarks van games die niet CPU limited zijn? Nee, nogal logisch dat je het daar niet mee ziet nee. Zoek een willekeurige CPU benchmark en je ziet dat bijv. een 3770 weldegelijk beter presteert dan een 2700.
Intel zet de GT3e naast de GT 650M van NVIDIA...als ik TomsHardware moet geloven
4-5 Weken wachten op Haswell. Dat zou toch moeten lukken.

De laatste 2 CPUs die ik kocht heb ik besteld op de dag dat ze uitkwamen. Beiden werden snel geleverd (enkele dagen). En na een jaar waren ze nog ongeveer dezelfde prijs als bij aanschaf. Ik zie geen reden om niet te wachten op de nieuwste generatie, als die zo dicht bij is.
Zou eigenlijk eerder willen weten of ik nog een i5 3570K moet aanschaffen of wachten.
Waarschijnlijk gaan de nieuwe CPU's duurder zijn en amper sneller en het interne GPU gedeelte daar heb ik niks aan.
CPU's vallen altijd binnen een bepaalde prijsrange en die verandert niet noemenswaardig. Daar zou ik me dus geen druk om maken...

Aangezien Haswell in juni uitkomt is het wat mij betreft redelijk onzinnig om nu nog een Ivy Bridge aan te schaffen. Die ene maand kun je nog wel volhouden lijkt me ;) .

[Reactie gewijzigd door sdk1985 op 2 mei 2013 12:36]

Wat ik interessanter vind is de gelukkig voortgaande lijn van meer prestatie tegen minder WATT's !

Mijn huidige systeem is voorzien van een intel 7 S met tdp 65 watt, maar die in eco terug schakelt naar 1,6 GHz en dan nog zuiniger is dus goedkoper in elektra kosten.
Nogal een verschil met mijn vorige die 100 a 130 WATT stond te zuipen bijna 2/3e van de dag.

Voor mij het beste van 2 werelden, stil en zuinig en vlot zat voor als het moet, voor wat ik er mee doe en dat is ook af en toe gamen op 1920x1200 (niet de hoogste grafische settings ivm onboard 4000 gpu)

[Reactie gewijzigd door notsonewbie op 2 mei 2013 10:57]

Nogal een verschil met mijn vorige die 100 a 130 WATT stond te zuipen bijna 2/3e van de dag.
Dat was dan geen i7 of zelfs niet een C2Q, geen 1 cpu gebruikt dat IDLE al 5+ jaren niet. Zelfs van de octacores lijkt het me nogal sterk voor IDLE...

[Reactie gewijzigd door watercoolertje op 2 mei 2013 10:58]

Misschien bedoelt die zijn hele systeem ofzo :P of met losse grafische kaart.
Core 2 Extreme QX9775 SLANY (C0)
3.2 GHz 2 ◊ 6 MB 1600 MT/s 8◊ 1.215 V
150 W
150 Watt TDP, ja. Wat gebruikt die chip in idle?
Een Core 2 Quad Q6600 SLACR (G0)

TDP is 105W volgens intel. Volgens Xbit is er een meetbaar verschil van bijna 70W tussen load en idle op een geheel systeem. Dus zeg 55W op puur de CPU. Dan praten we dus over een idle verbruik van 50W

Een QX9770 doet het niet heel veel beter dan de oudere Q6600. Met een grofweg verschil van 105W tussen idle en full CPU-load op het gehele systeem kunnen we rustig spreken van 90W tussen Idle en Load op de CPU. Dus dan zou die idle rond de 45W zitten.

QX9775 is wat lastiger na te zoeken, maar als je de hogere TDP en kloksnelheid extrapoleert zou je denk ik kunnen verwachten dat zo'n chip idle toch nog goed een 70 a 75W zal verstoken.

Maar goed een QX9775 heb je niet omdat je zuinig wilde computeren. Die heb je gekocht om of dik te patsen bij je vrienden of omdat je toen ter tijd de beste perfomance wilde hebben, vrijwel ongeacht de kosten.
Had je zuinig willen gamen had je voor minder geld toen ook wel een Q9400S, Q9505S of Q9550S kunnen kopen. Minder snel, dat is waar, maar ook een TDP dat nog niet de helft van de QX9775 is.
Misschien een AMD FX8120, die trekt dat echt wel.. (*cries*)
Nou ik kan hier nog echt niet warm van worden :(
Ik wil ruwe CPU power voor 3D renderen, geen zuinigere en krachtigere onboard GPU of andere leuke optimalizaties zoals JPEG processing.

Ik blijf de "vooruitgang" op CPU gebied erg teleurstellend vinden.
In eerdere topics heb ik het al gebrek aan concurrentie genoemd, maar daar schijnen de meningen nogal verdeeld over te zijn? (omdat mensen dan ineens ARM en Samsung gaan aanhalen)
Idd ik zit volgens mij zelf al jaren te wachten op een non Xeon 8core+ processor. Het word een tijd dat AMD iets fantastisch op de markt zet zodat intel meer zijn best gaat doen.
Je bedoelt de AMD FX-8350, dat is een octocore met 4ghz (overklokbaar naar 5 geloof ik).
Het is allemaal leuk en aardig dat de FX-8350 acht cores heeft en 4GHz aantikt, maar de Intel i7 processors gaan deze bij bepaalde werkzaamheden nog steeds voorbij met 'slechts' 4 cores.
Maarja, is amper sneller dan een Core i5 maar slurpt wel een boel meer.....
Er is in het lagere segment heel veel concurrentie, met AMD, Intel, Samsung, nVidia en Qualcomm die allemaal in dezelfde telefoon/tablet/netbook vijver proberen te vissen. In het hoge segment (HPC, database servers, clusters, etc) is er stevige concurrentie van nVidia (Tesla), Oracle/Fujitsu (SPARC) en IBM (POWER).

Het is alleen in het hard krimpende middensegment (consumenten PC's) waar Intel relatief weinig concurrentie heeft. En omdat de markt krimpt, zijn er weinig bedrijven echt happig om erin te gaan stappen.

[Reactie gewijzigd door Dreamvoid op 2 mei 2013 12:03]

In een interview met een adobe medewerker heb ik juist gelezen dat de integratie van gpu het juist interessanter maakt om ook voor de gpu te programmeren. Dit ivm de kortere weg die data af moet leggen waardoor het rendabeler wordt. (srry kan de bron zo snel niet vinden)

Ik kan mij zo voorstellen dat er ook voor 3D voordelen zijn. Al worden die wellicht teniet gedaan door het gebruik van quadro kaarten
http://www.tomshardware.c...p-aftershot-pro,3208.html

Interview met Adobe vanaf pagina 7.

[Reactie gewijzigd door Mijiru op 2 mei 2013 17:03]

@TangledUniverse
Uhm, 3D renderen doe je toch ook met een GPU? Een CPU voor de fixed point berekeningen en de GPU voor de floating point berekeningen.

En concurrentie genoeg hoor: pricewatch: AMD FX-8350 Black Edition

4ghz octocore, helaas zijn er weinig applicaties op MS Windows die ermee overweg kunnen.

[Reactie gewijzigd door sfranken op 2 mei 2013 11:17]

Nee dat doe je niet.

Die GPU renderers die jij bedoelt zijn extreem "biased".
Allerlei hacks en trucs om het mogelijk te maken die GPU die bepaalde scene snel te laten renderen. (minder recursies van rays, screen-space sampling technieken etc.)
Zet je er een minder gehackte/getructe renderer tegenover, of beter gezegd, de "native' renderer er tegenover...dan blijft er weinig over van zo'n GPU qua performance.

At rendertime, dwz dynamisch gegenereerd op het moment van renderen, kunnen GPU's nog vrij weinig op het moment. Je moet alles voorkauwen en in mondjesmaat voeren.
Veel geometry is uit den boze en rendertime displacement is nog niet ontwikkeld.
Dit is exact de reden waarom al die GPU renderers autootjes laten zien in hun demonstraties. Daar zit niks in qua hoeveelheid geometry en rendertime displacement, erg misleidend.

GPU is op dit moment (nadruk daarop!) nog niet geschikt om CPU taken volledig over te nemen in het 3D renderer segment.
Renderen voor games is een heel ander segment van 3D en daar heb ik het dus niet over, voor het geval iemand er op in wilt haken :)

Maar er gaat wel veel veranderen gelukkig op dit gebied aangezien de instructiesets voor de GPU's uitgebreid worden en ook de SDK's sterk vooruit gaan.
Ga je op ACM.org zoeken dan zie je dat er behoorlijk veel research gedaan wordt naar GPU oplossingen voor render-problemen die voorheen alleen goed door de CPU verwerkt konden worden. Erg interessant!
Dus qua toekomst (>5-8 jaar) zit het wel goed, dan gaan we GPU only renderen.
Op het moment, nee.

[Reactie gewijzigd door TangledUniverse op 2 mei 2013 12:43]

Tegenwoordig zit er gelukking in de meeste 3D renderers GPU support zodat je niet meer op je relatief trage CPU hoeft te renderen en daarvoor dus veel meer aan een goede (embedded) GPU hebt.
Zie mijn reactie hier boven dat het een beetje appels met peren vergelijken is.

Een CPU renderer gebruikt al allerlei trucs en optimalisaties die de "render equation" moeten oplossen. Dus die renderers zijn eigenlijk al niet eens correct qua resultaat, sinds de "render equation" het ware resultaat geeft (ground state).
Echter deze is alleen complex en bijzonder langzaam om uit te rekenen, dus verzint men allerlei omwegen en versimpelde benaderingen die er op lijken om er de gang in te houden.
Doe je dat wel, dan heet dat gewoon "brute force" renderen. Duurt lang, maar 100% correct.

GPU renderers zijn trucs bovenop die bestaande trucs en dus al helemaal niet correct qua resultaten. Benadering bovenop benadering.
Ik heb hetzelfde ook al eens aangehaald in vorige topics.
Waar is die tijd gebleven dat wij van een pentium 2 naar een pentium 3 sprongen? Dat waren nog eens vooruitgangen. Tegenwoordig moeten we maar blij zijn met een snelheid winst van 5 tot 7% op een nieuwe generatie. En dan maar een iets beter gpu'tje erop om het maar nog iets van noemenswaardig te maken.

Ik ben bang dat het niet alleen licht bij weinig concurentie, maar wellicht lopen we ook gewoon een beetje tegen de natuurkundige grenzen van silicon aan.
Als je vooruitgang alleen maar kan zien als een constante, liefst exponentiele verhoging van de rekenkracht dan is het inderdaad al een tijd lang aan het stagneren. Maar dat is ook logisch: natuurkundige wetten zitten een eindeloze groei gewoon in de weg.

Ik weet nog dat we het eind van de gigaherzen bereikten een aantal jaar terug, en dus kwamen er multicore procs uit. Minder verbruik/warmte, verdelen van taken, dat was de heilige graal. AMD heeft hier vol op ingezet door voor zo laag mogelijke kosten zo veel mogelijk cores en threads te willen verwerken. Of dat een goede keus is geweest, laat ik over aan de echte analisten en is ook geen vraag voor vandaag, maar je ziet wel dat de benadering bij AMD en Intel verschilt. Intel daarentegen is de single thread performance blijven verbeteren, wetende dat dat altijd de basis zal blijven voor 95% van alle toepassingen: en: meer werk per klok verplaatsen maakt per saldo AL je oplossingen sneller: of die nu single, dual of octocore zijn. HT is ook het noemen waard, een andere manier om per klokcycle en met dezelfde hardware meer te kunnen doen.

Het is voor zowel Intel als AMD relatief simpel om een 32 core proc uit te brengen. Maar binnen de retailmarkt is daar gewoon geen afzetmarkt voor. Wie heeft 32 of zelfs ook maar 8 cores nodig? Juist ja: de semi-profs, de workstations. En dan kom je al op een ander marktsegment, bovendien is dat maar een erg kleine groep.

Vooruitgang moet je ook vanaf de andere kant bekijken: hoeveel kun je doen tov de prijs die je ervoor betaalt. En vooral ook: hoeveel heb je eigenlijk nodig en wat is het nut van een nog hogere prestatie op papier?

Je ziet zelfs in de supercomputer-wereld dat prestatieverhoging niet zit in het blijvend verbeteren van componenten, maar in het schakelen van meerdere dezelfde componenten. Dat zal voor de consumentenmarkt niet anders zijn. Er zit gewoon een plafond aan de prestatie van dat kleine blokje dat je in je PC duwt.
Ik wil ruwe CPU power voor 3D renderen, geen zuinigere en krachtigere onboard GPU of andere leuke optimalizaties zoals JPEG processing.
En daar zijn al jaren Xeon UP, DP en MP cpu's voor te koop.
Het is een knappe vooruitgang van de prestaties, maar voor Die Hard gamers zal dit qua grafische prestaties denk ik niet voldoende zijn. Koop je een i7-4770R 'betaal' je ook weer een stuk voor de Iris 5200, en daarnaast nog eens voor je GTX680.
Dan koop je toch een dikke Xeon zonder GPU.
Je snapt mn punt je niet, en je argument gaat prijs-gewijs al helemaal niet op. Daarnaast is een Xeon voornamelijk een server processor en vele malen duurder dan wat een consument te besteden heeft aan een CPU, laat staan nodig heeft.

Je wordt als consument "gedwongen" om een relatief snelle interne grafische chip aan te schaffen, terwijl een groot deel van ons als Tweakers toch liever dit stukje geld bespaard, en bijlegt aan een snelle Nvidia / Ati kaart.

Intel maakt uiteraard een mooie all-in-one prijs voor dit apparaat, maar reken maar dat de ontwikkeling en productie van deze chips gewoon worden doorgerekend op de eindgebruiker.

Ik had liever keuze gehad, wel of geen HD Graphics ingebakken op m'n CPU.
gingen er ook geen versies verschijnen zonder GPU-gedeelte?
Meende dit gelezen te hebben bij de verklaring van de type-nummers van de processors een tijd terug op tweakers?
uiteraard, dat is de P-variant
helaas zijn die maar van een vrij beperkt aantal (bv i5 3300P)
maar zoals mocem schrijft kan ook de Xeon variant kopen
de Xeon E3 is doorgaans net hetzelfde, maar dan (meestal) zonder GPU
qua prijs komen ze ook redelijk overeen (bv E3-1270 en i7-3770)
Koop je een i7-4770R
Waarom koop je dan een R? Haal dan gewoon een 4770K of gewoon een 4770. Goed, zit nog steeds een GPU in, maar geen HD 5200 maar "gewoon" een HD 4600.
HEt meest interessante vind ik dat ARM een steeds minder zuinig wordt en de Intel i processoren worden steeds zuiniger. Als die elkaar nog tegenkomen dan zie ik Intel er nog met de winst vandoor gaan!
Hoezo steeds minder zuinig? Dat is relatief he - ARM processoren worden steeds krachtiger, dus relatief gezien zijn ze nog steeds veel zuiniger dan Intel chips.
dus relatief gezien zijn ze nog steeds veel zuiniger dan Intel chips.
Nee, relatief al een tijd lang niet meer, en sinds Intel's sub-3W telefoonchips ook absoluut niet meer. Ze zijn nog wel beduidend goedkoper.
Ik heb pas een onderzoek gelezen waar Sandy Bridge, een wat oudere Atom, en de A8, A9 van ARM worden vergeleken op de tijd die het kost om een bepaalde benchmark uit te voeren en hoeveel energie dat in totaal gekost heeft. Dit werd gedaan voor 26 benchmarks onder Linux.

In ťťn enkel geval lagen de gebruikte hoeveelheden energie van de 4 processors niet veel uit elkaar en gebruikte de i7 het meeste energie.
In alle andere benchmarks scoren de Atom, i7 en A9 redelijk gelijk aan elkaar. De A8 scoort echter veruit het slechtste en gebruikt tot wel 4x meer energie als de andere drie processors.

Gemiddeld gezien waren de A9 de efficiŽntste en de A8 veruit de minst efficiŽnte processors.
De Atom en A9 ontliepen elkaar echter maar een paar procent.


ARM maakt dus echt niet per definitie betere/efficiŽntere CPU's als Intel.

[Reactie gewijzigd door knirfie244 op 2 mei 2013 16:38]

Wat mij het meest verbaasd is dat ze de gesoldeerde cpu's met eDRAM alleen in het hogere segment hebben. Terwijl mij juist lijkt dat de voordelen te vinden zijn in configuraties zonder dedicated GPU cq het mobiele segment?
Veel publiciteit rondom deze GPU maar ik vrees dat hij niet veel beter zal zijn als de GPU in Tinity. Daarnaast zullen de drivers nog lang niet zo goed zijn als die van AMD of nVidia. Het gaat de goede kant op maar ze hebben imo nog een lange weg te gaan.

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True