Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties
Bron: Chip Architect, submitter: ac41964

Toen Intel op zijn laatste developer forum details vrijgaf over de Prescott-core stonden veel sites - waaronder Tweakers.net - klaar om de door Intel vrijgegeven informatie door te geven aan hun bezoekers. Hans de Vries van Chip Architect - die al vele jaren scherpe inzichten publiceert met betrekking tot nog niet verschenen processors - heeft echter wat langer nagedacht over wat er allemaal is verteld, en heeft samen met de plaatjes van de core en wat technische documenten een aantal dingen ontdekt die Intel tot nu toe heeft verzwegen. Toen Intel de Pentium 4 ontwierp is meteen vanaf het eerste begin rekening gehouden met allerlei toekomstige uitbreidingen. Een deel daarvan is inmiddels ook uitgevoerd. Sommige features bleken al in de core te zitten maar waren uitgeschakeld. Met andere dingen was slechts rekening gehouden, maar konden daarom wel makkelijk toegevoegd worden zodra de markt er om vroeg.

Intel Hyperthreading (klein) Het is inmiddels duidelijk dat in de later dit jaar te verschijnen Prescott-versie van Pentium 4 weer een aantal verbeteringen worden doorgevoerd, maar de grote vraag is dus natuurlijk wat er nog meer in die core zit waar we nog niets over gehoord hebben. Een goed voorbeeld hiervan zijn de 64-bit extenties, die volgens meerdere betrouwbare bronnen zonder enige twijfel aanwezig zijn, maar om strategische redenen voorlopig uitgeschakeld zullen blijven. Volgens Hans de Vries zijn er echter meer dingen die officieel (nog) niet bekend zijn, waarmee Intel de Pentium 4 bij de release van Prescott of later een performanceboost kan geven.

Ten eerste wordt aan de hand van de foto van de core in combinatie met een document over de nieuwe instructies geconcludeerd dat het trace cache is vergroot. In plaats van 12.288 instructies kan het in de 0,09-micron core 16.384 instructies bevatten. Op zich is dat al leuk, maar uit dat gegeven kan weer verder beredeneerd worden dat Prescott vier instructies tegelijk kan lezen en wegschrijven. De huidige generatie doet er drie tegelijk, wat in theorie zou betekenen dat de IPC met 33% wordt verhoogd. In de praktijk zal dit om verschillende redenen niet gehaald worden, en niet in de laatste plaats omdat een gemiddelde thread maar 1,5 instructie per klok uitvoert. In combinatie met HyperThreading zou het echter wel degelijk een leuk effect kunnen hebben.

Prescott verbeterd design

Een andere opzienbarende vonst is de aanwezigheid van een complete tweede Rapid Execution Engine en 16KB extra L1 data-cache. De Rapid Execution Engine is het gedeelte van de core dat op dubbele kloksnelheid draait, en waarin het grootste deel van de integer-bewerkingen plaatsvindt. Het is echter onduidelijk wat hiervan de bedoeling is. Extra bronnen om instructies mee uit te voeren zijn op zich natuurlijk een goed iets, maar de chip moet dan wel in staat zijn om voldoende instructies aan te leveren. Een mogelijke verklaring is dat het een manier is om de yields van de chip te verhogen. Aangezien dat specifieke deel van de core uiteindelijk 8 tot 10GHz moet gaan halen, zal dat stuk buitengewoon gevoelig zijn voor productiefouten. Door het redundante ontwerp wordt de kans groter dat tenminste n van de twee goed werkt.

Nog iets interessants is de ontdekking van wat mogelijk een L3-cache bus is. Het eerste 0,09 micron-product dat Intel demonstreerde was een 6,25MB SRAM-cel. In het artikel wordt het aan de hand van plaatjes en wat andere aanwijzigen geloofwaardig gemaakt dat deze chip als verlengstuk van Prescott of zijn opvolger kan dienen. Het toevoegen van fullspeed L3-cache is altijd al de bedoeling geweest van de Pentium 4-architectuur, en in deze nieuwe generatie zou het dus wel eens zo ver kunnen zijn. Het feit dat er overgestapt wordt naar Socket 775 versterkt dit gevoel nog eens.

Intel Prescott presentatie

Als laatste wordt een schatting gegeven van het oppervlakte van de core: 87 vierkante millimeter met 1MB L2-cache. Dit is ongeveer het dubbele van een ClawHammer met 256KB cache, maar slechts de helft van de grootte van een Opteron met 1MB. Lees het complete artikel hier.

Lees meer over

Gerelateerde content

Alle gerelateerde content (28)
Moderatie-faq Wijzig weergave

Reacties (26)

die 64bit extensies die disabled zijn, zijn dat dan 64bit ala itanium, of kunnen die dan native 32bit doen ook?

---
(belooft wel mooi te worden blijkbaar, the future is nice... :) als je zo eens kan lezen wat ze allemaal rekening mee houde, best impressive)
Denk even na. De core bestaat uit 32 bits instructie's, waarom zou de 64 bit extensie dan 32 bit moeten kunnen doen ? Daarvoor zorgt de core, het is geen 64 proc.
Een belangrijkere vraag is of dat deze extenties compatible zijn met die van AMD?
Ik neem aan dat dat wel zo is. Intel kan het nooit voor elkaar krijgen dat ze software voor een 2e 64-bit platvorm in weinig tijd gemaakt krijgen. Kortom, als ze besluiten om als laatste redding de 64-bit extenties in te schakelen dan zal deze op reeds ontwikkelde software meoten kunnen draaien. Naast de HAMMER is er geen enkel anders 32-64-bit x86 processor.
Hooguit dat Intel er OOK alvast instrucies instopt die de definitieve overgang naar IA-64 (Itanium) makkelijker maakt.
Welnee, dacht je echt dat Intel de instructies van AMD gaat overnemen?
Waarschijnlijk zijn ze al jaren bezig met 64-bits extenties, dus hebben ze tijd genoeg gehad, en hebben ze het alleen om strategische redenen nooit naar buiten gebracht.
Ik betwijfel dat dus. AMD zal vast wel wat patenten hebben lopen, waar ze van gebruik kunnen maken. En op dit ogenblik is het handig voor AMD om die patenten te gelde te maken, omdat ze er alleen maar van kunnen profiteren. Microsoft komt in de loop van het jaar met een 64-bit editie van hun OS en zullen nooit rond dezelfde tijd ondersteuning voor een (mogelijk vergelijkbare maar) verschillende instructieset klaarhebben.
Tenzij Intel en MS een deal hebben waarbij MS hun 64bits Windows 'Yamhill-ready' heeft gemaakt.
Ik vind het alleen niet zo mooi ALS intel technologie paraat heeft, technologie verwerkt, maar deze puur om marketing technische redenen "uitzet" Zo zijn er als ik het goed heb al veel P4's die hyper threading on board hebben, waar het domweg uitgeschakeld is. Wie betaalt er voor het feit dat het al wel onboard is? En ik heb het idee dat er meer van dit soort gevallen zijn.
De reden is niet zo moeilijk. Voor hypertreading, 64 bit enz, heb je ook een compatible mobo en/of software nodig. Als die er niet zijn dan kun je ze beter uitzetten om problemen te voorkomen.
Wat voor ons tweakers misschien leuk was geweest is dat als Intel de keuze had gegeven dmv bijv jumpers bepaalde instructies uit- en aan te kunnen zetten. Een bedrijf die voor absolute stabiliteit gaat zou kunnen kiezen voor default waarden en een tweaker zet meteen de HTT support en tweaked de L3 cache net zo lang tot het nog stabiel loopt.

Ik vrees dan aan de andere kant, en dan kan ik de keuze van Intel ook begrijpen dat mensen dan aan Intel gaan twijfelen betreft de stabiliteit. Dit zie je helaas ook bij AMD terug. Veel mensen die ik ken zeggen gewoon dat AMD instabiel is, maar dat weten jullie ook dat dat onzin is, dit is gekomen doordat er veel overklokkers waren die te ver gingen en die andere mensen zien zo'n systeem regelmatig crashen.

Intel heeft qua stabiliteit een naam hoog te houden en dat doen ze in die geval door iets in te leveren in performance/overclockability(scrabble).

Dat is mijn visie hierop maar misschien dat iemand anders hier nog aan wil toevoegen...?
Denk dat voor een deel die bewering nog klopt ook over het instabiel zijn van AMD...
Het is nog niet zo heel lang terug dat we zowat alleen maar morden met VIA chipsets konden kopen voor AMD cpu's.....iedereen hier weet dat daar nogal eens problemen mee waren....
Tiz dus wel niet de fout van AMD, maar het waren wel systemen met een AMD erin, dus die reaktie van mensen kan ik me wel voorstellen....
wel gierige marketing hoor.. die chips gewoon bakken met al die sjit erin maar dan uitschakelen om het weer in fases aan te zetten... om zo meer chipies te verkopen.. beeeetje jammer...

Dit soort dingen houden naar mijn mening de grotere technologische sprongen tegen.. .. marketing & winstbejag
Ik ben het dus niet met je akkoord ...

Ik denk namelijk dat dit nog andere redenen heeft dan marketing.

Wie weet, zijn de gelockte instructiesets (of zulks) wel nog niet stabiel of performant genoeg (vooral het laatste denk ik).
Waarom steken ze deze boel dan al in hun chips? Wel, op die manier hebben ze al ervaring met massaproductie van deze nieuwe technologien, en besparen ze ook op lange termijn veel geld doordat men niet direct een volledig nieuwe productie moet opzetten.

Dat het in eerste instantie nog niet optimaal werkt, geeft niet, want de nieuwe boel staat toch op non-actief :Z.
Ondertussen hebben ze genoeg tijd om de boel te optimaliseren en te activeren in moeilijke tijden ...

Ondanks ik mij (relatief) neutraal opstel in de AMD-Intel clash, vind ik toch dat Intel op dit gebied (productiemethoden) superieur is aan AMD.

Makkelijk te verklaren natuurlijk; met al Intel's fabs en cash-reserves kunnen ze al eens experimenteren.

Dus indirect is dit wel een daad uit winstbejag, maar dat vind ik maar normaal :)

[edit] -1 Troll? Ok ... dat snap ik nu eens niet :?
Ik denk ook dat dit Intel een stukje vrijheid geeft met het optimaliseren van een goede chipset voor deze presscot
Sommige mensen hier voelen zich bekocht omdat er in hun dure processortje dingen zitten die niet aanstaan. Nou en. Als intel al dit soort technieken in een keer aan gaat zetten had de P4 bij de introductie meer dan 2000 euro gekost. Ze doen dit geleidelijk omdat ze dan ook de ontwikkelings kosten geleidelijk kunnen terug verdienen.

Ik vind het heel normaal dat de grote bedrijven winst maken. De twee belanrijkste doelstelinnen voor elk bedrijf zijn: Continuiteit en winst. Waarbij continuiteit voor een groot deel afhangkelijk is van de winst. Het is dus niet anders dan begrijpelijk dan dat producten steeds meer verbeterd worden.

Voorbeeldje:
Stel Philips gaat gloeilampen maken die nooit meer kapot gaan. Iedereen in de wereld vervangt zijn lampen door die van Philips er vervolgens worden er nooit meer lampen verkocht. Dan gaat toch hun hele lampen afdeling naar de knoppen?
Je kan je nooit bekocht voelen. Je weet wat je kocht en voor hoeveel. En als dat goed was heb je de aankoop gedaan. Nu blijkt er wat extra's in te zitten, wat niet werkt. Dan veranderd er toch niets?

Wanneer ik me wel bekocht voel is dat ik een MB koop met oog op een nieuwe processor in de toekomst en dat daar dus niets van komt, want dan wordt de processorvoet weer aangepast, en dan worden de snellere versies weer alleen met 800 Mhz FSB uitgebracht enzo.

En verder kom je het principe altijd al overal tegen: van IBM die via een schakeling een rem zet op de prestaties, machines die gewoon met twee processoren worden uitgeleverd, maar waarvoor je gaat betalen wanneer je die gaat gebruiken, auto's waarvan alleen het chipje van het motormanagement verschilt, maar waarvoor je wel 2000,- extra betaald, etcetc.
ik vind de redenering een beetje onzinnig, misschien ben ik wel te naief of zo maar zomaar opzettelijk onbruikbare functionaliteit inbakken? dat geeft toch geen zin? er is niemand die het test of zo :?
Dat er bepaalde kleinigheden in of uitgeschakeld kunnen worden (al dan niet met grote gevolgen) kan ik ergens inkomen. Maar volledige structuren voorzien en die dan disablen vindt ik toch behoorlijk onzinnig
Ik kan me voorstellen dat Intel ze niet uitschakelt, maar gewoon niet standaard inschakelt.

Zo kunnen ze in de gaten houden hoe het zit met de yields, kijken of de onderdelen functioneren (want zelf zullen ze ongetwijfeld die onderdelen wel kunnen aanspreken) en ze pas inschakelen op het moment dat ze zelf tevreden zijn over het resultaat.

Scheelt het maken van aparte chips om ze vervolgens 'los' te testen. En ze weten meteen hoe de onderdelen zich gedragen in een 'live' proc.

Ik gok maar wat, kan er naast zitten uiteraard, maar het lijkt me eigenlijk vrij logisch.
Al met al weergoeie stappen voor Intel, Maar waar ik van baal is dat instructies of gedeeltes niet meteen worden ingeschakeld als ze toch al op de core zitten.

[/concurentiegeleutermodus] Amd moet toch echt serieus wat doen, en met de athlon64 gaan ze dat niet redden, aangezien ik overal hoor dat het 32 bit gedeelte net zo snel, klein beetje sneller, zou gaan als de huidige core barton.
Mits ze de core niet enorm gaan opschalen (gat van 1 ghz) zijn ze over een(of 2) jr van de markt verdwenen. Zeker in het begin als vrijwel nog geen software beschikbaar zal zijn voor XP64.

(edit) net te laat(edit)
Even nog een vraagje over de basis van dit verhaal hoor, is het nu een mogelijkheid om dit in te schakelen?? via updates ofzo?, ik bedoel, ik heb zo'n cpu maar hoe wanneer en wat kan ik aanzetten.??
je kunt lekker wachten tot intel het inschakelt bij de productie en dan kan je een nieuwe cpu kopen
fijn he
Aangezien dat specifieke deel van de core uiteindelijk 8 tot 10GHz moet gaan halen, zal dat stuk buitengewoon gevoelig zijn voor productiefouten. Door het redundante ontwerp wordt de kans groter dat tenminste n van de twee goed werkt.
Dit gaat lang niet altijd op, je hebt nl verschillende fouten door: productiespreiding tussen de plakken en binnenplakspreiding.

Bij spreiding tussen de plakken zul je zien dat beide (redundante) 'delen' goed werken op de ene plak en op een ander werken ze geen van beide. Bij binnenplakspreiding heb je over de plak gebieden waarin de betreffende delen wel werken en gebieden waarin ze dus niet werken. Als de beide (redundante) delen dicht bij elkaar liggen, is de kans alsnog groot dat ze beide wel of niet werken.

Maw je hebt relatief weinig aan deze redundantie, maar het kost wel erg veel silicium (dus duur). Mijns inziens is het de bedoeling van iNtel om beide delen te gaan gebruiken als de yield (voor de betreffende delen) op een aanvaardbaar nivo zit en zijn ze dus eerst nog bezig om produktieplakken te gebruiken om de yield nog verder te verhogen.

Dit is een veelgebruikte tactiek: eerst een klein (relatief) onbelangrijk gedeelte gebruiken om ervaring op te doen in de volgende technologiestap om vervolgens het hele produkt in die technologie te doen.
Die Prescott-processor wordt later toch ookuitgebreid met die PCI-opvolger
3GIO of iets dergelijks..

wel lekker omdat de processors steeds vlugger worden.. heb je later ook geen gezeur met je bandbreedte...
:+
Volgens Hans de Vries zijn er echter meer dingen die officieel (nog) niet bekend zijn, waarmee Intel de Pentium 4 bij de release van Prescott of later een performanceboost kan geven.
Hoe willen ze dat dan doen, de P4 een performance boost geven ??

Geld dit dan alleen voor P4's die de fabriek nog uit moeten rollen, of ook voor bestaande (moet toch haast wel :? ).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True