Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: PC Watch, submitter: silentsnow

Uit de laatste roadmap van Intel blijkt dat het zo goed als al zijn processors in 2005 zal vervangen door een dual-core exemplaar. De enige twee uitzonderingen hierop zijn de LV-versies van de Xeon DP- en de Itanium DP-processor. Deze laatste zal echter in de tweede helft van 2006 ook als dual-coreprocessor verschijnen. Wat nieuw is, is de verschijning van een dual-core-Pentium M-processor. Deze processor, die als codenaam Yonah heeft, stond op eerdere roadmaps te boek als single-coreprocessor, hoewel The Inquirer vorig jaar al wist te melden dat dit een dual-core-cpu zou zijn. Intel zal volgens de nieuwe roadmap ook de 64-bits extensies, EM64T, in de Pentium M implementeren. Op de eerste Pentium M-cpu's met EM64T zal echter gewacht moeten worden tot eind 2006, als de opvolger van de Yonah het licht zal zien.

Intel roadmap (22-08-2004, klein)

Lees meer over

Gerelateerde content

Alle gerelateerde content (40)
Moderatie-faq Wijzig weergave

Reacties (33)

niet iedereen wilt een krachtige notebook, velen willen een notebook die lang meegaat. De huididge 64bits processors in notebooks zorgt er niet echt voor dat de batterij nog lang meegaat.
En zoals dit bericht verscheen kan misschien ook die mobiele processor van intel nog vroeger verschijnen, time will tell i guess.

2006 is trouwens niet zo veraf meer, in 1groot jaar kan er al niet veel marktaandeel verschuiven
de nieuwste (90mn) athlon64 mobiles verbruiken maar maximaal 35watt aan energie.
dat is dus niet zo gek veel meer als de 24watt gemiddeld verbruik bij niet-idle draaien van de dothan.
en dat zijn dan de "gewone" low voltage athlon64 modelen en nog niet eens de ultra low voltage.

voor de thin en light notebooks zal de p-m nog wel even te koning blijven maar een athlon64 in je thin en light notebook is dus niet meer helemaal uitgesloten.

en marktaandeel gaat over verkochte aantallen per, zeg kwartaal. en daarmee kan veel gebeuren in anderhalf jaar (het is pas halvewegen 2004, dus nog zeker anderhalf jaar voor 2006 ook maar begint)
de nieuwste (90mn) athlon64 mobiles verbruiken maar maximaal 35watt aan energie.
dat is dus niet zo gek veel meer als de 24watt gemiddeld verbruik bij niet-idle draaien van de dothan.
Dothan gebruikt helemaal geen 24 Watt gemiddeld, maar 21 Watt max. en tussen de 3 en 11 Watt in batterijbesparende modus.

Verder zijn er ook al 130nm mobile Athlon 64's met maximum van 35 Watt. 90nm verandert dus weinig aan de situatie, behalve dat er nu wellicht een extra speedgrade komt in die categorie.
Als Intel pas eind 2006 notebooks gaat maken met 64 bits proccesoren en er nu al notebooks (desktopvervangers) zijn met een AMD 64 zal AMD ook op dit gebied een enorme voorsprong op kunnen bouwen, dit jaar en in 2005 zullen er heel veel dingen op 64 bits uitkomen, en zal de prijs/performance van 64 bit machines die van 32 bits machines overtreffen... lekker voor AMD, maar ik snap niet dat Intel zo 'traag' is..
Komt omdat ze bij Intel nog op 32 bit werken :P
waarom staat de Sonoma (+ Alviso chipset) er niet bij de Pentium M`s deze zal toch nog eerder uitkomen dan de Yonah?

Sonoma uitstel tot 2005

edit:

Sonoma word het nieuwe platform. het is geen nieuwe CPU. verkeerd gelezen!
Sonoma houdt in:

Dothan 7XX 2MB L2 533FSB
Alviso Chipset
Calexico 2-WiFi
Ik snap niet waarom ze niet verder gaan met de P4 met " Northwood" core.
Als ik al die reviews lees over de prescott dan sta ik niet echt te springen om hier op over te stappen (Hogere temperaturen,nauwelijks prestatie winst).
In plaats daarvan kunnen ze naar mijn idee beter door borduren op de Northwood en vervolgens deze uit rusten met 1MB cache.
Ik weet niet wat de ervaringen zijn van diegene die al een Prescott hebben?
Ze gaan verder met de israelische processor lijn (Pentium M) en niet de P4 om een aantal redenen:

a) alle fabrikanten, ook intel, hebben enorme problemen gehad met nieuwe proces technologieen. Ze doen geen van allen een boekje hierover open, maar het is duidelijk dat het lastig wordt om processors te laten doorclocken op dezelfde manier als dat dit in het verleden gebeurde.

b) HT/SMT op de P4 was een grote mislukking. De effectieve prestatiewinst is er gewoon niet bij de gemiddelde multithreaded/multiprocessing software. Slechts wat theoretische applicaties laten prestatiewinst zien en 1 of 2 database benchmarks.

We praten dan in die paar gevallen dat het wel loont om 10% ongeveer effectief prestatie winst.

Dit waar dual core heel dicht bij de 2.0 prestatiewinst zal laten zien. Dus 100%. Factor 10 effectiever dan P4

c) de P4 is supergepipelined. Nu is daar niets mis mee, maar de manier waarop het gedaan is bij de P4 blijkt met name in de prescott dat dit ten koste gaat van een aantal zaken:
c1) random lookups zijn beretraag geworden
c2) de ontzettend belangrijke L2 cache is TRAGER geworden in de prescott t.o.v. Northwood

d) de P4 is een 32 bits processor met weinig registers (wel veel renaming voor de SMT/HT) en superkleine L1 cache. Dat klokt natuurlijk veel makkelijker hoog als een grotere L1 cache.
x86-64 vereist echter meer registers en 64 bits instructies zijn groter als 32 bits, Kortom een ander soort design is nodig voor de toekomst om beter te schalen.

e) de L1 cache is veel te klein van de P4. Dit is zijn zwakke schakel samen met de floating point. Het veranderen van L1 caches betekent een totaal herdesign van een processor.

f) ten opzichte van zijn IPC verbruikt de P4 veel te veel stroom. Een P4 Xeon 2.8-3Ghz 0.13 zit al tegen de 100 watt aan. Vergelijk met een Opteron 0.13 die rond de 60 watt zit en een TDP heeft van iets boven de 89 watt (dat is het maximaal wattage dat mainboard fabrikanten moeten aannemen voor mainboards als maximum voor de toekomst dat deze processors verbruiken gaan). Een Opteron kan dus nooit bij normaal gebruik boven de 80 watt komen. Alleen worst case is er dus een piek boven de 80 watt in de toekomst mogelijk.

g) de P4 is een processor met een aantal enorme zwaktes. Intel heeft die goed weten te cloaken door veel geld in compiler en support teams te stoppen.

Echter het is natuurlijk om van te huilen dat een hedendaagse processor maar liefst 2 cycles nodig heeft voor een shift operatie. Dit is 1 van de meest gebruikte operaties in software.

De floating point unit van de P4 is ronduit zwak.

Natuurlijk heeft intel een eigen processorlijn die voor veel geld verkocht wordt die wel goed zijn in floating point: itaniums.

Echter vergelijk het volgende: opteron 2.4Ghz = 4.8 gflops (theoretisch). Itanium 1.3Ghz = 5.2 gflops (theoretisch). Het theoretisch maximum op de opteron is veel simpeler te halen op de opteron als op de Itanium, daar de itanium vreselijk weinig L1 cache heeft (net als P4) en een vreemdsoortige bundel processor is. Dus de itanium haalt deze floating point pieken eigenlijk alleen als hij als DSP processor ingezet wordt.

Dat wordt met name gedaan voor het doorrekenen van kernexplosies bijvoorbeeld en soortgelijke rekenkunde, wat werkelijk bijna alle systeemtijd vreet van de allergrootste supercomputers op deze aardbol.

Nu is floating point dus niet zo vreselijk belangrijk voor de gemiddelde gebruiker. Echter de P4 is ontzettend zwak daar. Dan druk ik het zacht uit.

Op papier lijkt het nog wat, maar als je daadwerkelijk erop gaat rekenen, dan lopen die itanium en die opteron de p4 er makkelijk enige factoren eruit.

Laat staan de floating point koning op dit moment en dat is de net gereleasde power5 processor van IBM.

Kortom de grootste zwakte van de P4 is dat de processor een vreselijke achilleshiel heeft en totaal geen toekomst.

De volledig geflopte Prescott is het beste bewijs hiervoor. Zelfs een 3.6Ghz Nocona wordt bij nauwkeurig testen volledig aan gort geslagen door een 2.2 opteron die je al in de winkel kunt halen, terwijl 2.4Ghz er ook al is als je goed zoekt.

Intel heeft dus een serieus probleem en de pentium-m, tegenwoordig meen ik zitten we al met de 'banias' core te stoeien, ziet er als cpu veel serieuzer uit als de P4.

Nu zal intel het nog voor elkaar moeten krijgen om die ook even hoog te clocken als AMD met evenveel caches.

Vooralsnog zit intel met een levensgroot probleem, namelijk geen goed PC alternatief voor de P4. Dat is denk ik de enige reden dat die 3.6Ghz nocona nog uitgekomen is.

Het is ronduit zwak dat de pentium-m pas eind 2005 omgeschreven is naar x86-64. De opteron is dat al jaren en AMD gaf al heel snel aan er geen probleem van te maken als intel x86-64 zou ondersteunen willen (normaliter moet een bedrijf enorm daarvoor betalen, maar intel had natuurlijk wat te ruilen met amd in dat opzicht, daar intel talloze patenten heeft).

Dit geeft dus AMD nog een jaar extra van volledige x86-64 dominantie.
a) alle fabrikanten, ook intel, hebben enorme problemen gehad met nieuwe proces technologieen. Ze doen geen van allen een boekje hierover open, maar het is duidelijk dat het lastig wordt om processors te laten doorclocken op dezelfde manier als dat dit in het verleden gebeurde.
Dit geldt natuurlijk voor zowel Prescott, als voor Banias. Beide zullen andere manieren dan opschalen moeten hebben om preformance te kunnen winnen
b) HT/SMT op de P4 was een grote mislukking. De effectieve prestatiewinst is er gewoon niet bij de gemiddelde multithreaded/multiprocessing software. Slechts wat theoretische applicaties laten prestatiewinst zien en 1 of 2 database benchmarks.

We praten dan in die paar gevallen dat het wel loont om 10% ongeveer effectief prestatie winst.

Dit waar dual core heel dicht bij de 2.0 prestatiewinst zal laten zien. Dus 100%. Factor 10 effectiever dan P4.
Hyperthreading kost ook maar 5% extra ruimte, dus intel haalt met 5% extra ruimte, 10% extra winst, dit is effectiever dan dat dualcore winst boekt. Daarnaast sluiten beide technieken elkaar niet uit.
d) de P4 is een 32 bits processor met weinig registers (wel veel renaming voor de SMT/HT) en superkleine L1 cache. Dat klokt natuurlijk veel makkelijker hoog als een grotere L1 cache.
x86-64 vereist echter meer registers en 64 bits instructies zijn groter als 32 bits, Kortom een ander soort design is nodig voor de toekomst om beter te schalen.
De instructies, en de adressen in x86-64 zijn echter niet 64 bits. Daarnaast maakt het dit voor het klokken van de processor niet zo veel uit. Het lage aantal registers is gewoon een eigenschap van x86, die bij x86-64 (ook in intels versie dus) wordt aangepast.
g) de P4 is een processor met een aantal enorme zwaktes. Intel heeft die goed weten te cloaken door veel geld in compiler en support teams te stoppen.
Wat is er mis met een goede compiler?
Natuurlijk heeft intel een eigen processorlijn die voor veel geld verkocht wordt die wel goed zijn in floating point: itaniums.

Echter vergelijk het volgende: opteron 2.4Ghz = 4.8 gflops (theoretisch). Itanium 1.3Ghz = 5.2 gflops (theoretisch). Het theoretisch maximum op de opteron is veel simpeler te halen op de opteron als op de Itanium, daar de itanium vreselijk weinig L1 cache heeft (net als P4) en een vreemdsoortige bundel processor is. Dus de itanium haalt deze floating point pieken eigenlijk alleen als hij als DSP processor ingezet wordt.
De Itanium heeft echter wel een L2 cache op halve snelheid van de Opterons L1 cache, maar met 2x zo brede bus. Daarnaast een L3 cache die bijna net zo snel is als de L2 cache van de Opteron.
De volledig geflopte Prescott is het beste bewijs hiervoor. Zelfs een 3.6Ghz Nocona wordt bij nauwkeurig testen volledig aan gort geslagen door een 2.2 opteron die je al in de winkel kunt halen, terwijl 2.4Ghz er ook al is als je goed zoekt.
Intel kan prima meekomen, in sommige applicaties winnen ze zelfs, terwijl ze in andere iets achter lopen. Niets om je zorgen over te maken
Nu zal intel het nog voor elkaar moeten krijgen om die ook even hoog te clocken als AMD met evenveel caches.
Het klokken is dus niet belangrijk. Een langzaam geklokte processor is niet persee langzamer. Intel zal van de lijn die ze doorzetten inderdaad de preformance moeten verhogen, hoe ze dit doen, mogen ze zelf weten.
Het is ronduit zwak dat de pentium-m pas eind 2005 omgeschreven is naar x86-64.
ER is voor 99.9% van de notebook toepassingen geen enkele winst te behalen aan 64bit oplossingen. wel kosten ze extra silicium, en dus extra stroom. Vandaar dat intel er voor kiest dit nog niet te doen.
Hyperthreading kost ook maar 5% extra ruimte, dus intel haalt met 5% extra ruimte, 10% extra winst, dit is effectiever dan dat dualcore winst boekt. Daarnaast sluiten beide technieken elkaar niet uit.
5% zou ik zelfs nog erg veel vinden, denk dat het meer in de richting van 1% zit. Het is dus inderdaad nogal onzinnig om het een "grote mislukking" te noemen. Voor geringe kosten krijg je én regelmatig een snelheidswinst, én een manier om de hele industrie klaar te maken voor echte dual-core processors.
Het lage aantal registers is gewoon een eigenschap van x86, die bij x86-64 (ook in intels versie dus) wordt aangepast.
Inderdaad, Intel ondersteunt net zo goed zestien GPR's als AMD. Intern zijn er dat 128 (of 256 zelfs in 32-bit mode). Die paar extra registers die voor de buitenwereld zichtbaar moeten zijn draaien de performance dus niet de nek om, dat zal eerder gezocht moeten worden in de ALU's en AGU.
Wat is er mis met een goede compiler?
Dat niet iedereen hem gebruikt, en de processor dus zwaktes kan vertonen in generiek gecompileerde code. Dat is tegenwoordig echter niet zo'n argument meer, aangezien P4-optimized code vaak ook een winst geeft op de A64, en de P4-architectuur alweer bijna vier jaar in gebruik is en alle software die enigzins van betekenis is ondertussen wel een keer opnieuw door de compiler getrokken is.
ER is voor 99.9% van de notebook toepassingen geen enkele winst te behalen aan 64bit oplossingen. wel kosten ze extra silicium, en dus extra stroom. Vandaar dat intel er voor kiest dit nog niet te doen.
Alleen met de extra registers valt al ongeveer 10% prestatiewinst te halen (tegenover 5% die-space), dus dat is waarschijnlijk het punt niet. Het punt is dat Dothan nooit bedoeld is om 64-bits te worden. Het ontwerpen van een processor duurt zo'n vijf jaar, en het besluit om er een 64-bitter van te maken moet al vrij vroeg in dat proces genomen worden, want er is geen enkele manier waarop dat er in één of twee jaar tijd nog even bijgefrot kan worden.

[offtopic] Wie dat soort strategische dingen interessant vind kan ik ook dit artikel aanraden over het annuleren van Tejas. Volgens één van de weinige betrouwbare mensen die voor The Inquirer schrijft is die chip puur omwille van de marketingafdeling gecancelled. Hij was namelijk niet op tijd af om uiteindelijk als 65nm-versie de eerste 65nm-fabrieken te vullen, waardoor men eerst 90nm Prescott, dan 90nm Tejas, dan 65nm Prescott en dan weer 65nm Tejas zou moeten gaan verkopen. Als dat waar is dan is men nu helemaal niet bezig om Dothan naar de desktop te krijgen, maar is men nog vrolijk allerlei Netburstjes aan het bouwen voor de komende twee jaar. Volgende week zal er meer informatie vrijkomen over Intels 65nm-procédé, ben erg benieuwd of dat een einde kan maken aan de Prescott-ellende :).
Hyperthreading kost ook maar 5% extra ruimte, dus intel haalt met 5% extra ruimte, 10% extra winst, dit is effectiever dan dat dualcore winst boekt. Daarnaast sluiten beide technieken elkaar niet uit.
Dat klopt niet helemaal. De besturingslogica van HyperThreading neemt 5% extra ruimte in beslag. Dat betekent echter niet dat je zomaar kunt stellen dat HyperThreading 5% extra ruimte in beslag neemt. De architectuur van de Pentium 4 zelf bestaat uit een stuk meer parallele executions units dan bij een Pentium 3 (Pentium M) of een AMD-processor (Athlon, XP, 64, FX, Sempron, Opteron). Of dit is gedaan met het oog op HT is moeilijk om te zeggen. Wat wel een feit is, is dat de Pentium 4 niet efficient gebruik maakt van deze units. Er staan er namelijk altijd wel een aantal niks te doen. HyperThreading zorgt er voor dat de units die niks doen wel iets te doen hebben. HyperThreading is niks anders dan een tweede pipelinecontroller die een tweede thread kan uitvoeren op de EU's die niet door de normale pipelinecontroller, die ervoor zorgt dat de eerste thread kan worden uitgevoerd, wordt uitgevoerd. De techniek hierachter is eigenlijk helemaal niet zo moeilijk en kan in princiepe op elke processor met meerdere parallele EU's worden toegepast, mits deze genoeg EU's in parallel hebben staan.
damn man spui jij daar ff een hoop kennis :o

maar eigenlijk boor jij dus de P4 gewoon simpel de aarde in? Terwijl ie heus wel meekan met de athlon (64); lees er wat benchmarks op na, en je merkt dat ze wel deglijk allebei hun sterke punten hebben.

Dat een p4 niet meekan met een opteron of een itanium is toch ergens wel logisch? Die processoren zijn echt ontwikkeld als zijnde een server-processor? En vergeet je de Xeon die eigenlijk dichter aanleunt bij de P4. De vergelijking maken tss een p4 en een itanium is eigenlijk (bijna letterlijk) hetzelfe als een Audi a5 of whatever vergelijken met een formule-1 wagen: ja die formule 1 is snelelr, maar dan kan je niet eens de openbare weg mee op |:(
en dat intel nog niet klaar is met ontwikkelen van eender wat, ja das waar als ze nu al klaar waren met de ultieme processor tja...

imho ontbreekt er een en ander om je verhaal helemaal serieus te nemen ;)
lees er wat benchmarks op na, en je merkt dat ze wel deglijk allebei hun sterke punten hebben.
de p4's sterken punten van vroegen zijn of weg of gelijkgetrokken door de athlon64 of er ernstig door verzwakt.

verder zal het extreem moeilijk worden om het achterliggende idee van de p4 (netburst) voort te zetten omdat het silicium begint te protesteren. het zal steeds moeilijker worden om daar meer mhz uit te persen in een commercieel verantwoorde manier.
dus hoewel ze nu nog mee kunnen komen zal dat in de toekomst steeds moelijker worden omdat ze gewoon de mhz-en er niet meer uit kunnen persen.
In plaats daarvan kunnen ze naar mijn idee beter door borduren op de Northwood en vervolgens deze uit rusten met 1MB cache.
Onbedoeld heb je zelf al aangegeven wat het probleem is. De Northwood core is inmiddels zover opgeschaald dat alle rek eruit is. Doorborduren op Northwood is daardoor niet meer mogelijk. De cache vergroten kan eenmalig nog wat prestatiewinst leveren, maar geen tientallen procenten. Door een nieuwe core te gebruiken lukt dat wel.
maar moesten ze de northwood gewoon op 90 nm gebakken hebben
wat zou er dan gebeurt zijn }>
zo te zien gaat amd er toch vlugger zijn met zijn dual core procs
en dat is een zeer treffend marketingargument
dat mag ook wel want ze zijn er al minstens 3 jaar mee bezig terwijl intel er nog geen jaar mee bezig is
daarom is de eerste implimentatie van intels dual core ook duidelijk een haast klus die qua prestaties op een enkle manier zal verschillen van een dual socket platform.
AMD had intel flink laten schrikken toen ze bekend maakte hoever ze al waren met hun dual core ontwerpen.
Intel is een mega groot bedrijf en ik verwacht bij zo'n gigant dat ze wat verder kijken dan hun neus lang is. Ze hebben waarschijnlijk al lang naar die ontwerpen gekeken en zijn er al mee aan de gang geweest. Dat de plannen nu aangepast worden wil niet zeggen dat wat AMD in drie jaar doet, Intel maar even in een jaar tijd klaarspeelt. (dat verwacht ik tenminste)
wat voor prestatiewinst moet ik me hierbij voorstellen?
en wat betreft energieverbruik?
Prestatiewinst is afhankelijk van de mate waarin software multithreaded is. Je hebt vooral voordeel bij het multitasken. Sommige processen zoals 3d renderen kunnen een prestatieverhoging krijgen van rond de 80%. Het energieverbruik zal ongeveer 2x zo hoog zijn als een single core cpu, omdat het daadwerkelijk 2 processoren zijn.
Prestatiewinst is afhankelijk van de mate waarin software multithreaded is. Je hebt vooral voordeel bij het multitasken.
Is het niet zo dat de 2 cores zich "presenteren" als 1 core, zodat je software niet multithread-moelijkgedoe-enzo hoeft te zijn ?

Zoiets heb ik pas gelezen ergens; er komen cpu's met 2 cores die als 1 core voor het OS zijn, de cpu verdeelt zelf de threads over de 2 cores, en er komen dual cores waarbij het OS daadwerlijk 2 cpu's ziet en het OS dus de threads verdeelt over de cores.
Is het niet zo dat de 2 cores zich "presenteren" als 1 core, zodat je software niet multithread-moelijkgedoe-enzo hoeft te zijn ?
Jij heb het waarschijnlijk over de Paxville en de Dempsey. Dit zijn inderdaad dual-core processoren waarbij de Dempsey een arbiter gebruikt. Deze arbiter is verantwoordelijk voor de gelijkmatig verspreiding van de instructies vanuit de bus over de twee cores, zodat de twee cores niet onderling hoeven te vechten om instructies. De Paxville heeft dit speciale onderdeel nog niet, waarschijnlijk omdat het design van de Dempsey niet op tijd af zal zijn om de strijd aan te gaan met AMD's dual-core processor (Toledo).

AMD gebruikt in de K8 architectuur eenzelfde techniek als Intel in de Dempsey. De System Request Queue (SRQ) vormt in dit geval de bemiddelaar. In het geval van een single-core K8 vervalt de functie van die onderdeel. Als men echter een tweede core wil toevoegen, dan is dat geen probleem omdat alle benodigde componenten al aanwezig zijn om dit waar te maken.

cc bcc schreef:
Het energieverbruik zal ongeveer 2x zo hoog zijn als een single core cpu, omdat het daadwerkelijk 2 processoren zijn.
Dat is niet perse het geval. De yields van een bepaalde core verbeteren als een functie van tijd. Zo is AMD in staat om 30 Watt Opterons (Opteron EE) te bakken, terwijl Opterons op eenzelfde frequentie tijdens de introductie van de K8 serie 85 Watt verbruikten. Yields verbeteren dus, en dat kan men gebruiken om het energieverbruik te verlagen, of de frequentie te verhogen.

Het is dus heel goed mogelijk dat de cores, waarop Intel haar dual-core design zal baseren, tegen die tijd al met goede yields de productielijn afrollen, en zodoende veel minder energie verbruiken. De Smithfield (dual-core) zou een TDP van 125 Watt hebben, wat "slechts" 20 Watt meer is dan de heetste Prescott.

Daarnaast hoeven de twee cores in een dual-core processor lang niet zo hoog geklokt te zijn als de core in een single-core processor. In het geval van de Intel's vroege dual-core Paxville zal dit tot op een zekere hoogte wel het geval zijn, aangezien het design niet efficient is. Echter, de Dempsey zal hier een aanzienlijk verbetering brengen waardoor de twee cores samen bijna tweemaal de prestatie zullen leveren van een single-core (waarbij de frequentie van de core in de single-core processor gelijk is aan de frequentie van één core van de dual-core processor).
nee het zullen ook voor het OS als 2 cores zijn
alleen wel 2 cores die heel snel data kunnen uitwisselen.
een dual core zou dus (in theorie) sneller moeten zijn als een dual socket platform.
Prestatiewinst is afhankelijk van de mate waarin software multithreaded is
Je vergeet alleen wel even dat tegenwoordig een aantal compilers (waaronder de Intel C++ compiler) in staat zijn stukken code over je processoren te verdelen. Het enige dat je daarvoor nodig hebt is Netjes Geschreven Code.

Dat laatste kan ik je niet 1-2-3 uitleggen, maar het komt er op neer dat je tegenwoordig heel fatsoenlijk een rekenintensieve applicatie over je "processoren" kan distribueren.
Doet me denken aan Apple.
Toen zij aankondigde alle processors (iig in een bepaalde productlijn, ik weet de details niet meer) dual core te maken, las ik kritiek dat ze wel moesten omdat hun processoren zo traag waren. In ieder geval heeft hun ontwikkeltraject dan een voorsprong, net zoals bijvoorbeeld op het gebid van 64 bits processoren.
Hannes, voor het Apple platforum zijn het enerzijds IBM en anderszijds Freescale / Motorola die de chips maken. Beiden hebben al publiekelijk bekend gemaakt ver gevorderd te zijn met de ontwikkeling van dual-core processors.

Motorola wil in oktober deze gaan tonen op een of andere conference (nieuwsartikel ergens hier op t.net).

Van IBM weet ik het niet, hij ging enkel 970MP heten dacht ik
@ freeco en de rest die geïnteresseerd is, lees dit artikel over de positieve en negatieve invloeden van dual core cpu's:

http://www.theinquirer.net/?article=13344
Ja, met als enige nadeel dat het artikel daar niet over gaat. Het artikel gaat eigenlijk over de verschillen tussen Hyperthreading en dualcore, en de voordelen en nadelen van ieder van deze technieken tov ELKAAR. Desalniettemin wel interessant.
het gaat over het verschil tussen HT en AMD's dualcore implemetatie en later over de 2 verschillende dual core technieken van intel.

en als ik dit artical mag geloven zou ik de eerste generateis dual cores van intel maar fff links laten liggen.
Hmmm ik mis de smithfield, deze zou toch (ook) in 2005 gereleased worden?

Jammer dat ze uit (moeten) stellen, zal zeker slecht zijn voor hun markt aandeel :/
Die staat er anders duidelijk bij hoor, Q4 2005
Is die opvolger van de Pentium M nu een Yohan of een Yonah?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True