Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties
Submitter: Huppie

Ondanks meerdere problemen met nog niet uitontwikkelde moederborden, bleek Intels nieuwe Nehalem-processor in een vroege test een flinke stap voorwaarts ten opzichte van het huidige Penryn-platform.

De reviewers van Anandtech wisten de hand op twee Nehalem-processors te leggen en voerden enkele voorlopige benchmarks uit. De resultaten zijn nog niet helemaal representatief, aangezien de P58-moederborden die de thuisbasis voor de nieuwste 45nm-quadcores van Intel vormen, problemen gaven. De borden, afkomstig van Taiwanese fabrikanten en nog niet zo ver doorontwikkeld als Intels referentiebord, hadden wat problemen met het ddr3-geheugen en de pcie-sloten, waardoor ook grafische benchmarks niet uit de verf kwamen. Desondanks wisten de Nehalems imposante scores ten opzichte van Penryn-cpu's neer te zetten.

Nehalem pinsHet merendeel van de benchmarks werd met een op 2,66GHz geklokte Nehalem-processor uitgevoerd, die tegenover een Q9450 quadcore op basis van de Penryn-architectuur werd gezet, een cpu die zijn werk eveneens op 2,66GHz doet. De extra threads die Nehalem dankzij Hyper-threading kan verwerken, blijken de cpu in Valves map compilation benchmark een flinke prestatieverbetering op te leveren. De vier cores zouden het wellicht tegen de acht cores van een even snel geklokt Skulltrail-systeem op kunnen nemen.

De toegang tot het cachegeheugen werd eveneens vergeleken: de toegangstijd voor het L1-cache nam met één klokcyclus toe naar vier cycli. De toegangstijd tot het L2-cache bleek echter, ondanks de grotere capaciteit, met 11 cycli voor de Nehalem sneller te zijn dan de 15 tikken die de Penryn nodig had. Ook het 8MB grote L3-cache werd niet alleen in minder kloktikken benaderd, ook de latency van het werkgeheugen lag lager terwijl de bandbreedte hoger was dankzij de geďntegreerde triplechannel geheugencontroller van de Nehalem. Een iets snellere Nehalem, met een kloksnelheid van 2,93GHz, werd vergeleken met een op 3GHz geklokte QX9650. De Everest Ultimate 4.50-benchmark wees ook nu de Nehalem als duidelijke winnaar aan.

De strijd op het gebied van renderbenchmarks werd, weinig verrassend, in het voordeel van Nehalem beslecht. Zo behaalde de nieuwe architectuur een winst van 24% ten opzichte van zijn voorganger bij Cinebench. Aangezien ook de singlecore test van Cinebench een snelheidswinst van 25% voor een Nehalem-core ten opzichte van een Penryn-core opleverde, lijkt de nieuwe architectuur op alle fronten een vooruitgang ten opzichte van Penryn. Op het gebied van energie vroeg de 2,66GHz Nehalem ongeveer tien procent extra prik, zowel onder belasting als idle. De twintig tot dertig procent prestatieverbeteringen die Intel met de komst van Nehalem belooft, lijken door de voorlopige benchmarks op suboptimale moederborden bevestigd te worden.

Nehalem taskmanager
Moderatie-faq Wijzig weergave

Reacties (93)

@ mLavaert

De nehalem is in de eerste instantie een quad-core. Maar de processor heeft hyper-treading, waardoor elke core als 2 cores kan worden gezien. Er zijn dus in totaal 8 threats, die zich gedragen als een octa-core.

@ M.koers

De nehalem voor desktops komt het eerst kwartaal van 2009 op de markt. Ik denk alleen dat deze aan het begin meer gericht is op de high-end markt. En volgens mij zijn intels high-end processoren toch wat duur ;) Ik gok dat hij niet voor de gewone man te betalen is, en zelfs een btje duur voor de tweakers onder ons. Maar je weet het natuurlijk nooit.

Ik zou persoonlijk gewoon voor de q9450 gaan, deze is snel genoeg. je gaat toch geen half tot driekwart jaar wachten op een nieuwe processor?

Voor servers komt de proc het laatste kwartaal van dit jaar uit

[Reactie gewijzigd door leeuwtje1 op 5 juni 2008 20:29]

Intel kan alleen nog maar gamers achter zich scharen voor een dure processor d.m.v. ray tracing link
dit schaalt heel erg goed op meerdere processor cores.
Als Intel fanboy hoop ik toch voor AMD dat ze hier een gepast antwoord op hebben. Meer concurrentie is alleen maar beter voor ons.

Soms vraag ik me af of Intel AMD niet aan het 'plagen' is.

Ik hoop dat Intel vroeg of laat toch ook eens in het zand gaat bijten.
Als Intel fanboy hoop ik toch voor AMD dat ze hier een gepast antwoord op hebben. Meer concurrentie is alleen maar beter voor ons.
Dat is de "generale consensus" maar dat hoeft lang niet altijd waar te zijn. Fabrikanten kunnen door moordende concurrentie ook overgehaast halfklare modellen op de markt zetten bijvoorbeeld. En prijstechnisch hoeft het ook niet echt, het is maar hoe de fabrikant zichzelf wil positioneren in de markt.

Okay ik leg het even uit met een voorbeeldje of twee;

"De mp3 speler markt is moordend qua concurrentie. Toch heeft het marktleider Apple niet gedwongen diens prijzen te verlagen. Mensen kopen het uiteindelijk toch wel zegt Apple, omdat ons product superieur is en exclusief. Dat laatste is natuurlijk helemaal niet waar, maar wel hetgeen wat de consument blijkbaar denkt."

"De markt voor gameconsoles is ook groot en de concurrentie daar is eveneens moordend. Dat heeft Microsoft ertoe gedwongen om de xbox360 vervroegd op de markt te zetten, terwijl deze nog niet helemaal in orde was. Maar juist door die concurrentie voelde Microsoft zich gedwongen deze stap te nemen"

En ik zei wel 2 voorbeelden, maar een derde is Intel zelf. AMD is de afgelopen 2 jaar geen bedreiging meer geweest, Intel doet erg goede zaken en zou zo nog twee jaar door kunnen boeren met de huidige modellen en de prijs ook kunnen verhogen. Maar dat gebeurd maar niet, de prijzen bij Intel dalen immers rap en de modellen worden steeds een flinke factor sneller. Hoe?

Een fabrikant wil een doelstelling bereiken. Bij Intel is AMD niet de concurrent, maar raar genoeg Intel zelf. Consumenten voelen zich minder snel geroepen een snellere duurdere processor te kopen als deze 5 tot 10% sneller is dan de huidige generatie. Intel grijpt dus naar steeds extremere middelen om consumenten ertoe te bewegen een vervangings aankoop te doen.

Een voorbeeld van een fabrikant die het niet helemaal doorheeft is bijvoorbeeld Microsoft, deze had een bijna geperfectioneerd operating system, XP SP2 en dacht dat men automatisch wel Vista aan zou schaffen, simpelweg omdat het nieuw zou zijn en hier en daar wat kleine updates. Daar is de consument niet ingetrapt en dus is Vista niet het succes waar MS op hoopte.

[Reactie gewijzigd door Kykez op 5 juni 2008 19:51]

"Een fabrikant wil een doelstelling bereiken. Bij Intel is AMD niet de concurrent, maar raar genoeg Intel zelf. Consumenten voelen zich minder snel geroepen een snellere duurdere processor te kopen als deze 5 tot 10% sneller is dan de huidige generatie. Intel grijpt dus naar steeds extremere middelen om consumenten ertoe te bewegen een vervangings aankoop te doen."

Zo heb ik het nog nie bekeken.....vind het wel een hele interessante stelling, deze vraag zou eigenlijk iemand bij Intel neer moeten leggen!!!

Maar mijn vraag is dan....moeten desktop computers nog wel sneller worden? Kijk, het gros van de desktop gebruikers zijn mensen net als mijn ouders, beetje internetten, mail bijhouden, torrents downloaden (oftopic ja ja, mijn moeder is de 58 en heeft da net geleerd :-))...daar heb je geen beul van een computer voor nodig. Met dat in gedachte, is het dan niet interresanter om de huidige generatie CPU's goedkoper en zuiniger te maken?

Offtopic: erg net stukje tekst Kykez!!!
Het klopt inderdaad dat de gebruikers die "slechts" emailen of het internet als dagelijkse informatiebron gebruiken, niet echt een snelheids monster hoeven te hebben. Intel heeft wat dat betreft een klein probleempje en tegelijkertijd ook meteen twee antwoorden;

- Intel werkt aan een lager verbruik van zijn processoren, eventueel zou het kunnen lonen voor een consument om zijn huidige Pentium 4 in te ruilen voor een Core 2 Solo processor met een TDP van bijvoorbeeld 10 Watt (voorbeeld).

- Intel is ons al een stapje voor en heeft de Atom geintroduceerd. De processor die amper stroom verbruikt en toch redelijke prestaties neerzet. Om die Atom ook populair te maken geeft Intel ze bijna voor niks weg en worden ze massaal gebruikt in nieuwe populaire apparaten zoals de Eee PC van Asus en een heleboel anderen.

Naast het verbruik van een processor is het handig om na te gaan wat er zoal nog meer gebruikt kan worden om een consument over de streep te trekken. Denk bijvoorbeeld aan platformen met nieuwe technologie. Intel zal waarschijnlijk van z'n klanten vragen om een ander moederbord met een specifieke chipset voor de ondersteuning van WIMAX bijvoorbeeld. Ik weet niet of dat zo is, maar dat is één van de mogelijkheden die Intel heeft om een kwartaal met winst af te sluiten.

Een andere mogelijkheid is ook de opkomst van consoles, deze zullen naar verwachting steeds meer de taak van de "home computer" overnemen. Stel je nu eens voor dat die consoles elke 5 jaar vervangen worden, dan loopt Intel uiteraard weer binnen. Persoonlijk lijkt dit mij de meest gezonde manier van concurreren, net als in de vliegtuig industrie, je krijgt de order pas zodra je daadwerkelijk bewezen hebt de beste te zijn. met 5 jaar tijd tussen de consoles in, kun je flink experimenteren en bugs verwijderen.

Maargoed, dit zijn allemaal aannames van mijn kant en wellicht niet realistisch.
Bedankt voor je offtopic pluim :D
Ik was de Atom idd effe vergeten, en ik denk dat je aanamens aardig (kuunen) kloppen. Ik verwacht ook dat de consoles het in de toekomst erg goed gaan cq blijven doen (daar hoef je ook geen glazen bol voor te hebben).
"De mp3 speler markt is moordend qua concurrentie. Toch heeft het marktleider Apple niet gedwongen diens prijzen te verlagen. Mensen kopen het uiteindelijk toch wel zegt Apple, omdat ons product superieur is en exclusief. Dat laatste is natuurlijk helemaal niet waar, maar wel hetgeen wat de consument blijkbaar denkt."

Dit klopt natuurlijk niet helemaal. Je hebt ook nog zoiets als deelmarkten en zo. Apple heeft eigenlijk zeer weinig concurrentie binnen de doelgroep waarin ze nu verkopen. De stelling dat de mp3 markt moordend is qua concurrentie geldt dan ook alleen voor de andere producenten, die moeten vechten om de kruimels die Apple achter laat.

Verder heb je op zich wel gelijk. Alhoewel ik niet zou zeggen dat AMD niet een concurrent is, maar gewoon zeggen dat Intel een concurrent van zichzelf is. En misschien inderdaad nog wel belangrijker dan AMD; dat dan weer wel.
Apple heeft eigenlijk zeer weinig concurrentie binnen de doelgroep waarin ze nu verkopen
wat is die doelgroep dan?

Qua prijsklasse zijn er nog de Zen's van creative en bijvoorbeeld die Meizu dingen, die ik ook steeds meer zie in de trein.

Zelf tevreden Zen V Plus gebruiker :).
5% tot 10% sneller dan de huidige generatie gaat deze keer waarschijnlijk niet op, want zoals in de post staat is dit toch wel een flinke prestatieverbetering. Dit zie je niet vaak in CPU-land, althans, ik weet van niks.

Maar idd, niemand heeft baat bij een proc die 5-10% sneller is dan de huidige. Maar de meeste slaan ook 1, 2, of zelfs 3 architectuurreleases over, en kopen ipv. een penryn nu, een op nehalem gebaseerde proc (??) straks. Dus gemiddeld zal een pc bezitter zo'n vijf jaar met z'n pc doen. (de gemiddelde pc bezitters zijn natuurlijk jouw ouders mijn ouders.)

Ik zie het (simpel gezegd) zo:
Groep 1 koopt P4EE's in laten we zeggen 2004
Groep 2 koopt CoreDuo's in 2006
Groep 3 koopt C2Quad's in 2008

Dan koopt groep 1 in 2009 een eerste editie nehalem proc's
Vervolgens koopt groep 2 in 2011 een of andere derde editie nehalems
En groep 3 koopt in 2013 iets nieuwers dan een nehalem gebaseerde proc.

Alles wat daartussen zit, hebben die groepen respectievelijk niet nodig, omdat ze
of A. net een pc hebben die aan hun wensen voldoet
of B. een nieuwe proc willen, maar die voordelen zijn maar -die 5-10%-
of C. een pc hebben die misschien wel een upgrade kan gebruiken, maar de voordelen nog niet betaalbaar zijn.

Daar kan Intel niets aan veranderen, behalve idd wat je zegt, concurreren met zichzelf.
Of zoals uit dit artikel blijkt, de prestaties zodanig verbeteren dat zelfs onze ouders beginnen te kwijlen en hun portemonnee trekken. Al is dat laatste meer een grap :P want dat gebeurt natuurlijk ook niet zomaar. Ik ben ervan overtuigd dat het gros alleen een nieuwe pc koopt, omdat de oude niet meer voldoet, en niet omdat ze 'een nieuwe racemonster' willen hebben.
AMD zal geeneens proberen op de ultra high-end cpu markt mee te draaien. Maar zich meer mikken op de goedkopere klasse waar immers ook het meeste wordt verkocht. Net zoals de huidige Phenoms Intel hakt ze makkelijk in de pan maar ze zijn wel goedkoop, als ze wat energiezuinger waren dan was het toch een grote concurrent voor intel. Helaas is dat niet zo.
ach.. als ik bekijk hoe ik mijn computer gebruik kan ik het grootste gedeelte van de tijd ook wel aan met een Athlon 3000+ maar mensen denken altijd sneller nodig te hebben (wat komisch genoeg leidt tot aanboden met quadcores en discrete graphics)
Inderdaad. Ik gebruik voor internet, muziek en mail nog een 2600+. En ik merk nauwelijks verschil met mijn broers core 2 duo. Pas op het moment dat je zware applicaties of games draait heb je behoefte aan dat soort power. Maar de meeste mainstreamconsumenten hebben daar helemaal geen behoefte aan.
zelf had ik die globale conclusie vorig jaar al getrokken;
kijk naar een PS3 en Xbox360,
waar hoor je ze de hele tijd over?
de video kaart.

hoeveel geheugen, wat voor processor, maakt allemaal niets meer uit,
gewoon een goede video kaart is de juiste investering.
zeg nou zelf, wat kost extra geheugen?
als je nu een trage CPU koopt op een goed moederboard,
dan koop je volgend jaar gewoon een veel snellere CPU om in dat moederboard te prikken.

dus het video kaart is leidend, dan het moederboard, dan de voeding om de 2 GPU kaarten
te trekken, dan een berg snel geheugen, dan Blu-ray, als je nog wat geld over hebt;
een redelijk snelle CPU
en vervolgens gooi je nog een harde schijf, een extra koeling en OS in het mantje
en je pc is klaar.

Niemand begint meer met de procesor om te bouwen;
en zeg nou zelf, als er 880GTX SLI in zit op een 850i board, dan maakt het toch niet meer
uit wat voor CPU?
zelf had ik die globale conclusie vorig jaar al getrokken;
kijk naar een PS3 en Xbox360,
waar hoor je ze de hele tijd over?
de video kaart.

hoeveel geheugen, wat voor processor, maakt allemaal niets meer uit,
gewoon een goede video kaart is de juiste investering.
zeg nou zelf, wat kost extra geheugen?
als je nu een trage CPU koopt op een goed moederboard,
dan koop je volgend jaar gewoon een veel snellere CPU om in dat moederboard te prikken.

dus het video kaart is leidend, dan het moederboard, dan de voeding om de 2 GPU kaarten
te trekken, dan een berg snel geheugen, dan Blu-ray, als je nog wat geld over hebt;
een redelijk snelle CPU
en vervolgens gooi je nog een harde schijf, een extra koeling en OS in het mantje
en je pc is klaar.

Niemand begint meer met de procesor om te bouwen;
en zeg nou zelf, als er 880GTX SLI in zit op een 850i board, dan maakt het toch niet meer
uit wat voor CPU?
Stop jij jouw 8800GTX SLI setje maar eens voor de gein in een systeem met een 5 jaar oude CPU of zo... Wedden dat je veel verschil zal merken in prestaties? ;) Dus videokaart leidend... Dat neem ik in twijfel om eerlijk te zijn, de CPU is zeker ook erg belangrijk!
ik durf te wedden dat onder Crysis je weinig zult merken van een tragere CPU of een snellere
met dit systeem.

is nu een dualcore 6600,
het is een kleine moeite om een 'dualcore 5600' of vergelijkbaar er in te prikken
en een 'dualcore 7600' of vergelijkbaar.

laten we dus zeggen, 1000 punten omhoog en 1000 punten omlaag.

ik denk dat je weinig zal merken,
zelfs niet als je er ook nog eens van 2-core naar 4-core zou gaan,
of zelfs 8-core...

ik zal van de week eens kijken of ik een processor belasting kan draaien tijdens
crysis,
dan zie je het wel,
die doet echt weinig.
Ziet er goed uit. Ik ben benieuwd wat het antwoord van AMD hierop is :)
reversed hyperthreading
reverse hyperthreading bestaat niet komt er niet. is een mythe.
zoals al bevestigd door amd.
jammer genoeg blijkt het niet mogelijk 2 cores aan 1 taak te laten rekenen
Ik herriner me ergens een white paper te lezen een tijd terug waar 2 cores samenwerken aan 1 taak.

Core A voert de code uit met aggresieve branch prediction, core B loopt erachteraan met dezelfde code maar dan met minder (of zonder) prediction. Als iets later core B ziet dat core A verkeerd gerekend heeft worden de resultaten van core A vervangen door die van core B en wisselen de rollen om.

In de paper verwachte men dat dit 10% extra snelheid zou opleveren op een enkele thread. Bijkomend voordeel is dat het een vorm van "transient error suppression" zou bieden. Als de core die voorop loopt een fout maakt zou die fout afgehandeld worden alsof de core een branch prediction fout had gemaakt. Als de core die erachteraanloopt een fout maakt is dit geen probleem want deze resultaten worden toch niet gebruikt tenzij de vooroplopende core een branch prediction fout had.
[Leekmodus]
Hoe weet een processor dat een resultaat verkeerd is van 1 van beide cores? En wat gebeurt er als beide resultaten fout blijken te zijn?
[/Leekmodus]
@ Arie Atari

Een CPU moet vaak wachten op data uit het geheugen totdat het weet of het bij een IF-Else statement De IF of de Else tak moet uitvoeren. Via prediction gokt de processor dan.

Als de processor fout gokt, moet de hele Pipe leeg gemaakt worden en opnieuw begonnen worden vanaf de goede tak. Echter als je 2 CPU's eraan laat rekenen, 1 Die gokt op de ELSE tak en 1 die gewoon netjes wacht dan gebeurt er het volgende.

CPU0 gokt op else en begint met rekenen
CPU1 wacht op informatie uit de L1/L2/L3 Chache of het RAM geheugen.
CPU1 ziet dat de else tak inderdaad de goede was.
CPU0 heeft ondertussen al (bijvoorbeeld) 5 instructies van de else tak uitgevoerd.

Nu is er een winst van 5 instructies. En mocht er fout gegokt zijn is er geen verlies. (immers CPU1 zal dan gewoon netjes verder gaan.)

Als CPU0 verkeerd gegokt heeft zal CPU1 de snelle worden en bij de volgende Branch een gok wagen. Ondertussen heeft CPU0 zijn pipe geleegd en begint mee te rekenen op het moment dat CPU1 gokt. en zo begint het zelfde verhaal weer opnieuw.

Op dit moment gokken CPU's ook, maar dan in hun eentje. als dan bij de 5e instructie in de verkeerde branch de geheugen data komt die verteld dat de CPU verkeerd zat moet de PipeLine geleegd worden (dat wel meer dan de tijd van 5 instructies kan duren bij een C2D had je dacht ik een pipeline van 8 instructies/ticks (meestr instructies duren 1 tick)

Dus dan heb je bij een verkeerde gok veel meer tijd nodig om te herstellen en opnieuw te rekenen.

Zo moet het dus ongeveer gaan werken.

[Reactie gewijzigd door roy-t op 5 juni 2008 21:42]

als je 3 cores inzet:
  • CPU 0: Wachten op informatie in cache of ram geheugen voor if/else statement
  • CPU 1. Begin bereking if
  • CPU 2. Begin bereking else
  • CPU 0. Bepaalt dat of CPU 1 of CPU 2 juist bezig is
Nu heb je altijd een winst van 5 instructies...

Misschien is er dan toch toekomst voor cpu's met een oneven aantal cores of niet symetrische opstelling.
@ joepHDW
als je 3 cores inzet:
...(snip)...
Nu heb je altijd een winst van 5 instructies...
Dat zou kunnen, maar wat denk je van een Switch statement bijvoorbeeld?
Ik denk wel dat een twee delige branch het meeste voorkomt dus If-Else of While of For (ga in de loop of ga niet in de loop)

In machinecode/assembly zit het wel wat anders, ik weet niet precies hoe het voor de X86 architectuur geld, maar op de 68000 heb je alleen branches van 2, dus of hier door gaan of jumpen. natuurlijk heb je met 2 jumps achter elkaar dan maximaal 1 instructie winst, dit zou met meerdere cores nog sneller moeten gaan.

Maar inderdaad 3 cores combineren zou opzich heel wat snelheid moeten kunnen schelen op 1 thread. Je blijft wel het probleem dat je dual/quadcore ineens een stuk minder goed is in het schakelen tussen 2 taken omdat alle cores bezet zijn. Maar dit zou afgewogen kunnen worden in software door de verschillende complexiteit/prioriteit van veschillende taken.

Een pc die slechts 1 belangrijke Singlethreaded applicatie runt zou op deze manier echter meer voordeel hebben.
@roy-t
Dat zou kunnen, maar wat denk je van een Switch statement bijvoorbeeld?
Is een switch eigenlijk niet meer dan een hoop geneste if-else statements die iets ordelijker geordend zijn? (alles mooi onder elkaar ipv telkens een if in een else met bijhorend inspringen)
Maar inderdaad 3 cores combineren zou opzich heel wat snelheid moeten kunnen schelen op 1 thread. Je blijft wel het probleem dat je dual/quadcore ineens een stuk minder goed is in het schakelen tussen 2 taken omdat alle cores bezet zijn
Met de huidige trend om steeds meer cores in een CPU te steken (nieuwe Xeons 'Beckton' zullen er 8 hebben) gaat ook dit probleem opgelost geraken. Dat komt dus neer op een dual core (2*3 cores/thread) met nog 2 cores extra.

[Reactie gewijzigd door Big Womly op 6 juni 2008 08:44]

Is een switch eigenlijk niet meer dan een hoop geneste if-else statements die iets ordelijker geordend zijn?
Semantisch wel ja, maar aan een switch statement kan in bepaalde gevallen behoorlijk geoptimaliseerd worden door een compiler.
Als de control variabele een nummer is en de cases dicht bij ekaar liggen kan er bijvoorbeeld een branch table gebruikt worden in plaats van een hoop conditionele branches. Er wordt dan simpelweg ((control variabele - laagste case) * branch instruction size) bytes bij het instruction pointer opgeteld om bij de branch instructie in de tabel uit te komen. Hiermee wordt de complexiteit van de switch statement teruggebracht van O(N) (aantal if'jes dat doorlopen moet worden is afhankelijk van het aantal cases) naar O(1) (je springt direct naar de juiste case). Als de case blocks ongeveer van gelijke grootte zijn kan de branch table zelfs achterwege worden gelaten en direct naar de case worden gebranched door ((control variabele - laagste case) * case block size) bij het instructiepointer op te tellen en een branch instructie te besparen (ten koste van wat interne fragmentatie in de kortere case blocks).
altijd winst
volgens mij kun je meer winst halen door 3 verschillende threads/processen tegelijk uit te voeren.
[Leekmodus]
Hoe weet een processor dat een resultaat verkeerd is van 1 van beide cores? En wat gebeurt er als beide resultaten fout blijken te zijn?
[/Leekmodus]
Eén van de twee cores voert de berekening zónder de prediction uit. Hierdoor krijgt 1 core dus altijd de juiste uitkomst op de code...

Ik snap alleen het voordeel van 10% niet. Je moet dezelfde code namelijk 2x uitvoeren; één keertje mét prediction en één keertje zónder prediction. De uitkomsten van beiden moet je dan alsnog vergelijken om te kijken of die van de prediction klopt ja of nee...

Of zie ik nu iets over het hoofd?

Voor wanneer staat de Nehalem voor release geplanned? Ik ben zelf al rond aan het kijken naar een nieuwe PC en als ik niet al te lang hoef te wachten op een Nehalem, schaf ik liever een Nehalem aan dan een Penryn... :)
Dus gezit eignelijk met 2 cores aan hetzelfde terekenen :| goed voor de overclockers= minder kans op fouten op hoge snelheid maar je doet dan eigenlijk hetzelfde 2 keer of lees ik nu verkeerd
Die fouten gebeuren in de processor, en zijn geen systeemfouten.
De kans op fouten (bvb een crash ve benchmark) door overclocken blijft gelijk.


Een voorbeeld van een fout die vermeden kan worden is het volgende:

...
cmp bx,20h // vergelijk register bx met 20 hexadecimaal
jz eenLabel // als bovenstaand register gelijk is aan 20h: jump naar eenLabel
...

Hoe werkt dit nu intern:
Een core heeft een pipeline, stel dat die pipeline uit 4 stappen bestaat (ophalen van instructie, ophalen van data, verwerken van instructie, bewaren van resultaat).
Stel dat iedere stap 1 klokcyclus duurt en dat er iedere keer 1 lijn code verwerkt wordt.
Dan wil dat dus zeggen dat de core maar op het eind van stap 3 (verwerking) kan weten of die jump al dan niet genomen moet worden.
=> Om de pipeline volledig gevuld te houden moet de core op voorhand gokken. (branch prediction)
Stel dat er verkeerd gegokt werd zijn er dus 2 nutteloze stappen uitgevoerd en zit die (nutteloze) data reeds in de pipeline klaar voor verwerking => deze moet geflushed worden en er moet opnieuw begonnen worden met voorgaand resultaat

Wetende dat een C2D 14 stages heeft kan dit al snel een impact hebben op de performantie als dit een paar 100 keer per seconde gebeurt.
En bij een Pentium 4 met 20 (of 28) stages kun je het resultaat wel raden... (de Pentium 4 is trouwens de reden waarom intel nu zo'n sterke branch prediction heeft, er is veel onderzoek naar gedaan om de P4 op die manier te optimaliseren)

Als er bij zo'n fout gewisseld kan worden van core wordt er dus geen tijd verloren met het flushen en herstarten.
(al vraag ik me wel af hoe ze dit ooit elektrisch zullen realiseren...)

[Reactie gewijzigd door SMa op 5 juni 2008 23:18]

@ SMa

Dat regelen ze nu al electrisch/met microcode

Immer nu werkt branchprediction ook al 1 set schakeleningen ertussen die ipv aangeeft je moet overnieuw aangeeft ook nu is de andere cpu de grote jongen moet dan niet zo veel verschil zijn. (Natuurlijk bouw je dit in een cpu niet zo maar even om, maar toch)
10% winst terwijl er 2 cores aan werken... Niet bijster efficiënt lijkt me, dus totaal oninteressant voor de toekomst.

Gewoon goed multithreaden is de boodschap aan programmeurs ;)
Gewoon goed multithreaden is de boodschap aan programmeurs
laat dat nou net niet altijd kunnen met alle taken.

onder andere daarom zijn de tests ook een beetje misleidend. ze zijn precies dat gene waarvoor nehalem ontworpen lijkt te zijn (naarst server-loads.)
games of liniëren taken hebben we nog niet veel gezien van nehalem. met zo weining l2 per core zou dat nog wel een een zwakke plek kunnen zijn ten opzichte van penryn.
al is de l3 van nehalem blijkbaar wel erg snel.
laat dat nou net niet altijd kunnen met alle taken.
Ik ben nog maar weinig gevallen tegengekomen waarbij het echt niet kan.
Maar vaak vergt het gewoon te veel van de programmeur om van een lineaire taak iets multithreaded te maken.
qua high-end kan amd spijtig genoeg al een tijdje niet meer volgen
een tijdje geleden bedoel je tot het uitkomen van de core 2 duo...
Das niet eens zo lang geleden.
De X2 pakte tot dan toe de pentium 4 en de core duo (2 aan elkaar geplakte p4's) in.
Maar met de core2duo's lopen ze in 1 klap een jaar of meer ontwikkel achterstand op...
Een core duo is niet een dubbele op elkaar geplakte pentium 4 (netburst?) dat was de pentium D serie.

De core duo is een processor welke ontwikkeld was voor de notebook markt.
Volgens mij maar ik kan even zo snel geen bron vinden was de Core Duo een stapje terug naar Pentium 3 -> Pentium M -> Core Duo, niet echt super te noemen.

Hier thuis was een leuk voorbeeld SuperPi deed de Core Duo veel sneller (even geen cijfers bij de hand) maar zodra je met VMware een kleine w2k3 servers wxp clients omgeving startte legde die het toch af tegen de AMD Turion X2 1,6 (met manke cache)
Buiten het feit om dat de Pentium 3 architectuur een hoger IPC (instructions per cycle) had door zijn kortere pipeline. Maar daardoor kon hij niet hoger geklokt worden. Ze hebben dat ontwerp aangepast nadat ze doorhadden dat ze met de Netburst (pentium 4) architectuur nooit hoge prestaties op notebooks konden krijgen, wegens de warmte. Dat noemde de Pentium M, zeer succesvol en een erg goede architectuur, deze werd dualcore gemaakt en weer verbeterd, genaamd de Core Duo. Deze architectuur werd niet voor desktop uitgebracht omdat ze ettelijke maanden later met de Core 2 kwamen, een nogal ingrijpende verbetering op de core duo waaraan ze nu hun succes te danken hebben. Dus dat stapje terug heeft hen geen windeiren gelegd.

En het feit dat je Core Duo geen goede prestaties had met VMwave kwam wrs omdat deze geen hardwareondersteuning voor virtualisatie had.
Het is maar wat je niet zo heel lang geleden noemt. Het is ondertussen tot op de maand alweer twee jaar geleden dat de eerste Core2Duo's over de toonbank gingen.

En het voordeel dat AMD had in de tijden van x64 vs P4, en X2 vs dual core P4 was een gigantisch stuk minder groot dan het voordeel dat intel op dit moment heeft...

[Reactie gewijzigd door knirfie244 op 5 juni 2008 21:33]

Core Duo is geen 2 aan elkaar geplakte P4's, dat is de 'Pentium D'. Core Duo is gebasseerd op de Pentium Mobile (Hele andere architectuur dan de Pentium 4) en de voorloper van de Core 2 Duo.
Achja het is altijd al geweest dat afwisselend Intel danwel AMD sneller was. P4 Northwood 800FSB was ook sneller dan een AMD XP in de meeste programma's, De Athlon classic daarvoor was sneller dan de PIII.AMD 64 was weer sneller dan de P4.

Het enige probleem nu is dat bij de andere series processoren de verschillen klein waren en applicatieafhankelijk (P4 scoorde goed in multimedia, AMD64 in games).
Nu is het echter zo dat Intel over de gehele linie de snelste is en dat al bijna 2 jaar is. AMD's antwoord in de vorm van de Phenom is niet het goede antwoord geweest in de zin van de prestaties. Ik ben bang dat Intel straks weer een heel stuk voorop ligt als de Nehalem te koop is.

ik hoop dat ik het vol kan houden met mijn Core 2 Duo E6600 tot de Nehalem goed verkrijgbaar is, dan kan ik tenminste goed upgraden.
Is dit eigelijk een native 8-Core processor... Zoals de AMD Phenom een native Quad-Core is, of hebben ze 4 Dual Core's aan elkaar 'gelijmd'?

Ondersteuning voor de SSE4 instructieset? :)
het is een native quadcore, 4 cores die door hypertreading worden weergegeven als 8 cores.
eerder 2 quad cores ;-)
Weer een flinke slag voor Intel op gebied van prestatie. Toch knap dat ze tot nu toe nog zulke concurrerende resultaten hebben kunnen neerzetten zonder geďntegreerde geheugencontroller. Het verschil met nu een geďntegreerde geheugencontroller is duidelijk. Ik ben benieuwd wat de volgende generatie gaat bieden (vergelijkbaar met Core (goed) => Core 2 (beter).

[Reactie gewijzigd door PolarBear op 5 juni 2008 19:28]

Voor zo ver ik weet beschikt de Nehalem wel over geďntegreerde geheugen controllers
Integrated memory controllers supporting DDR3 SDRAM and between 1 and 4 memory channels.
bron
Toch knap dat ze tot nu toe nog zulke concurrerende resultaten hebben kunnen neerzetten zonder geďntegreerde geheugencontroller.
Lijkt mij vanzelfsprekend dat Polarbear het over de pre-Nehalem modelletjes heeft.

[Reactie gewijzigd door Kykez op 5 juni 2008 19:35]

de Nehalem heeft een geďntegreerde geheugencontroller
En dan denk je dat ze al ver zijn met de huidige Core architectuur! :o De ontwikkeling van deze CPU's laat wel keer op keer rooskleurige resultaten zien zeg!
Ik ben al super tevreden met mijn 1e generatie Core 2 Duo E6600, maar Intel laat ook nu weer verrassende resultaten zien.
De grootste vooruitgang zal vermoedelijk de interne geheugencontroller opleveren. Dat hadden ze natuurlijk veel eerder van AMD moeten afkijken :P

Maar goed, beter laat dan nooit :)
Idd, maar amd is met de phenom met het hoofd tegen de lamp gelopen net zoals r600, veel beloven maar weinig harde feiten, en cpu's op 3ghz die een particulier nooit (enkele uitgesloten) nooit zullen halen :+
Toch mooie cpu's maar ze waren veel te optimistisch en dat werkt nu eenmaal niet in pc-land

[Reactie gewijzigd door Frietjemet op 5 juni 2008 20:20]

interesant voor multitasking .. deze test ziet er zeer goed uit!
een stap vooruit dat zeker en op het oog een grote stap ook

maar kwa gaming hoe zit het daarmee aangezien de meeste games toch nog steeds het meeste profeit hebben van dual cores?

ik ga denk ik volgend jaar dan toch maar een penryn aanschaffen de E8600.. waar nu ES samples van rondgaan.
omdat nehalem quad/octo word en er geen dual cores meer uitkomen( als mij goed is geinformeerd.)

misschien dat er met de invoering van nehalem eindelijk steeds meer games en steeds sneller games komen die worden geoptimaliseerd voor quads.. want op dit moment gaat het zeer traag , maar ik kijk nu al uit naar ingame benchmarks met nehalem tov een dual core.

[Reactie gewijzigd door pino85 op 5 juni 2008 19:29]

wikipedia:
Various sources have stated that Nehalem's specifications will be as follows.

* 1 through 8 (or more) cores.
...
Er komt dus wss wel een dual core Nehalem ;)
En daar wacht ik ook op voor mn desktop-upgrade: een Nehalem 2x3GHz, 4GB DDR3, GeForce 9800GT met 1GB :) Ik begin al te sparen ^^

[Reactie gewijzigd door kiang op 5 juni 2008 21:29]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True