Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties
Bron: X-Bit Labs

De mannen van X-Bit Labs hebben wat details van de onlangs op de IDF (Intel Developer Forum ) gepresenteerde Prescott-core bekendgemaakt. De codenaam Prescott dient niet verward te worden met de Willamette Socket 478 core, waarvoor dezelfde codenaam werd gebruikt. De Prescott zal als opvolger van de P4 Northwood gebaseerd zijn op een 0,09 micron procédé en zal rond de tweede helft van 2003 verschijnen. Intel zal echter al aan het eind van dit jaar de eerste voorbeelden van de Prescott-core met een verwachte kloksnelheid van 5 tot 6GHz aan haar partners beschikbaar stellen:

Intel Pentium 4 logo (klein) Prescott launch is scheduled for H2'03. However, by the end of this year Intel is going to start shipping the first samples of the Pentium 4 processor built on the new core to its closest partners. Pentium 4 family is expected to reach 5-6GHz core clock due to the fine 0.09micron technology used. In fact, Intel is going to use Prescott core not only in desktop processors, but also in mobile and server CPUs. The Prescott modification developed for the server market is also known as Nocona. [...] To support Pentium 4 (Prescott) CPUs Intel is planning to launch a corresponding chipset for it aka Springdale in 2003.

De Prescott-core zal net als de Northwood over Netburst-technologie beschikken, maar dan een verbeterde versie. Verder zal de Prescott beschikken over HyperThreading-technologie, een technologie waarmee de CPU zich als een dualprocessor gedraagt en die momenteel alleen terug te vinden is in servers met een processor gebaseerd op de Prestonia-core. Naast een verhoogde quad pumped Bus, werkend op 533MHz en later op 667MHz, zal de Prescott waarschijnlijk ook over Yamhill-technologie beschikken. Met Yamhill-technologie zal de Prescott in staat zijn 64 bit instructies uit te voeren. Intel zal echter de keus voor het al dan niet toevoegen van de Yamhill technologie af laten hangen van het succes van AMD's Hammer-processor.

Ondanks het feit dat Intel tot nu toe vrijwel alle nieuwe processorcores van een nieuwe naam heeft voorzien, is het onduidelijk of de Prescott de naam 'Pentium 5' zal krijgen. CaLiMo, bedankt voor de info.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (28)

Ondanks het feit dat Intel tot nu toe alle nieuwe processorcores van een nieuwe naam heeft voorzien, is het onduidelijk of de Prescott de naam 'Pentium 5' zal krijgen.
Dat is helemaal niet het geval, namelijk:
Katmai -> PIII
Coppermine -> PIII
Tualatin -> PIII
Willamette -> P4
Northwood -> P4
celeron laat ik even achter wegen
Ehhh....

Dan gaan we een Pentium (= dat is toch een woord voor het getal 5?) 5 op 5 GHz krijgen...

Wat was 'the number of the beast' ook alweer? ;)

Ik hoop dat ze in de oudheid niet een getal verkeerd overgeschreven hebben bij het kopieren van de 'oerbijbel'. :P
Waarom denk je dat intel opeens een 667Mhz processor had ;) Terwijl daarvoor elke keer alles netjes op x66 eindigde.
ik denk dat men doelt op het feit van de 64bit extentie die er misschien bijkomt, dan zou een pentium 5 niet zo raar zijn
Pentium 5... P5 dus... Is die niet al een tijdje passe? Dat was toch de gewone pentium? :+ :P
mischien hebben de 'oude' namen wel afgedaan. tegenwoordig moet alles aangeven dat het 64 bits is. Dus zal het wel iets worden als P64.
de volgende wordt dat vast de p64b enz...

men heeft al een keertje de namen van de Pentiums gewijzigd. Eerst had je de Pentium. Toen de Pentium PRO en dan pas de pentiumII. Die had dus eigenlijk de Pentium III moeten heten.
Dat blijkt dat INTEL veel vertrouwen heeft in deze cpu als ze de extra waarden laten afhangen van de concurent. Met andere woorden als de HAMMER van AMD niet voldoende presteert zal deze optie niet worden toegevoegd.
Nee, dat betekent dat Intel haar risico's zoveel mogelijk wil beperken, wat heel slim is en wat getuigt van gezonde bedrijfsvoering. Als Intel zoveel vertrouwen had in het succes van de Hammer, zouden ze het zonder meer inbakken. Nu laten ze het afhangen van het succes van de Hammer.
Als Intel zoveel vertrouwen had in het succes van de Hammer, zouden ze het zonder meer inbakken. Nu laten ze het afhangen van het succes van de Hammer.
Dat denk ik niet... Intel hoopt gewoon dat het flopt wat AMD is aan het doen - het is en blijft een concurrent... Ze spelen het gewoon veilig - maar eer ze een feature die door de concurrenten is ontwikkeld en tot een success is gebracht gaan gebruiken? Hiervoor zullen er wel een paar aan de top hun trots effe moeten wegslikken denk ik...
Wat ze met die ontwikkelingen willen zeggen is dat ze er inderdaad graten in zien in die ontwikkeling - wat perfect logisch is - het verleden heeft getoond dat zomaar van de ene architectuur naar de andere (16bit naar 32 - zie ppro verhaaltje) niet echt goed afloopt - en nu staan/stonden ze op het punt diezelfde fout weer te maken.
Als x86-64bits slaagt dan moet intel inderdaad een alternatief bieden. De Itanium lijn loopt niet zo lekker qua verkoop. Wel geinig, straks draaien we allemaal Windows XP op een Hammer. Willen we dan boven de 4 Gieg RAM uit komen, dan moeten we een soort super-Himem.sys gaan gebruiken... :)
De iTanium/McKinley is bedoeld voor de High-end server markt bijvoorbeeld 'n enterprise server 'n data center.

iNtel wil nog niet aan 64bits voor de Desktop markt.

AMD wel de Claw-Hammer is 64bits en ook nog voor de Desktop markt

Blijk baar wil intel dit 32bits houden voorlopig, maar mocht AMD met de Desktop Hammer succesvol zijn dan moeten ze daar natuurlijk op inspringen.

AMD wil dus op de Desktop Markt 64bits CPU introduceren.

Dat heeft eigenlijk niet veel met iTanium te maken want die speeld in een hele andere Leage staat er dus los van ook de Sucses van IA64 staat hier eigenlijk redelijk los van.

Het gaat erom of de ClawHammer 'n Sucses wordt in de High-end desktop markt. De tegenhangers van intel zijn nu nog gepland als pure 32bitters en zullen dan om competatief te blijven ook 64bits Hybrides moeten zijn anders snoep AMD weer 'n Markt deel weg waar intel niet in vertegenwoordigd zou zijn met 'n vergelijkbare produkt.

Mocht het AMD niet lukken houd intel vast aan 32bitters voor de desktopmarkt.
IA64 High-end servers only.
Blijk baar wil intel dit 32bits houden voorlopig, maar mocht AMD met de Desktop Hammer succesvol zijn dan moeten ze daar natuurlijk op inspringen.
Intel wil wel, maar kan dat niet met de IA-64 archtectuur, aangezien die veel nadelen heeft voor gebruik in de "normale" pc's die we thuis hebben staan.

Zo is de techniek te duur, is er te weinig native IA-64 software en Intel moet nog een hoop ervaring opdoen met de IA-64 architectuur en dan vooral het EPIC gebeuren.

IA-64 werkt zo anders (o.a. een veel belangrijkere compiler, parallele processing etc), dat die nog lang niet klaar is voor de pc's thuis.

Intel heeft net zijn tweede CPU af die gebruik maakt van IA-64, namelijk de McKinley en dat is eigelijk de eerste echt verkoopbare IA-64 CPU. De Itanium was niets meer en minder dan een goed, zeer goed eerste probeersel. Nu kan Intel dus ervaring opdoen, zal er meer software beschikbaar komen waardoor het over een paar jaar klaar is voor de thuismarkt. Niet eerder.

Om toch AMD bij te kunnen houden als die veel succes krijgen met de Hammer, hebben ze dus straks een CPU die als het nodig is ook 64-bit kan praten, maar dan niet de voordelen heeft van de IA-64 architectuur.
is hyperthreading een transparante techniek, of moeten applicaties dat specifiek aanspreken ??
Als je wat beter had gekeken in alle uitleg previews op verschillende sites had je al kunnen zien dat Windows bijvoorbeeld gewoonweg 2 CPU's ziet, zonder dat er ook nog iets geinstalleerd is. :P

Wat dus al inhoud dat het gewoon een dual systeem voor je OS is. Welke dan alle taken netjes zou moeten verdelen, zonder specifieke zut.

Het enige wat er gedaan moet worden is dat applicaties beter Multithreaded geschreven moeten worden om juist gebruik te maken van deze extra cpu.
... Intel zal echter al aan het eind van dit jaar de eerste voorbeelden van de Prescott-core met een verwachte kloksnelheid van 5 tot 6 GHz aan haar partners beschikbaar stellen: ...
Zie ik hier een preview (sneak peak) aankomen op t.net ;) ? Het zou wel tof zijn als we hier weer een primeurtje kunnen vangen met deze cpu.
Ik vraag me af hoeveel moederborden je wel niet nodig hebt om van de eerste versie van de PIV naar de laatste versie van de PIV te komen...
(Gepost door knakworst Zaterdag 19 Januari 2002 - 01:00 Score: 4 (Informatief) :)

Hier een leuk verhaaltje van Herbert Blankensteijn:

De laatste tijd hoor ik vaak dat de Wet van Moore op zijn laatste benen loopt. Voor wie deze natuurwet niet kent: deze Wet is genoemd naar Gordon Moore, een van de oprichters van Intel, en zegt dat het aantal transistors op een processorchip elke achttien maanden met een factor twee toeneemt.

De Wet van Moore - kortweg WvM - is een wet van niks. Hij is niet gebaseerd op fatsoenlijk onderzoek. Er zit geen theorie achter. Hij verklaart niets, hij beschrijft alleen. En hij voorspelt altijd hetzelfde: over anderhalf jaar tweemaal zoveel. Je kunt er niets anders mee.

De huidige discussies gaan over de vraag of de WvM geldt, en of hij kan blijven gelden. Alsof dat ertoe doet. Moore zelf heeft zijn wet nog eens gecorrigeerd: van een verdubbeling elk jaar naar één elke achttien maanden. Dat is futiel, gezien het kwalitatieve karakter van de wet. De Wet zegt dat we morgen meer zullen kunnen dan vandaag, en dat die toename in onze micro-elektronische vermogens vrij hard gaat.

De vraag of de WvM blijft gelden, gaat over productietechnologie. Het zal een jaar of vijftien geleden zijn - de WvM was twintig jaar oud - dat ik voor het eerst vernam dat het praktische plafond voor de transistordichtheid in zicht kwam. Het theoretische plafond is duidelijk: draden dunner dan één atoom zijn uitgesloten, en op een onderlinge afstand van een paar atoomdiameters krijg je kwantummechanische lekkage tussen de ene draad en de andere. In de praktijk zal het eerder misgaan, bijvoorbeeld doordat zulke fijne structuren niet kunnen worden geëtst.

Gordon Moore zag het bij structuren van 250 nanometer ophouden; dat punt was in 1997 bereikt. Inmiddels kan Intel transistors maken van zeventig nanometer, en is de WvM tot minstens 2005 gered. En dan wordt er wel iets nieuws bedacht. Waarom zou je moeten etsen? De fundamentele limiet van één atoomdiameter wordt pas over twintig jaar bereikt.

Als een vakblad of een wetenschapskatern zegt dat de dagen van de WvM zijn geteld, bedoelen ze dat het afgelopen is met de toename van de snelheid van computers, tenzij we iets slims bedenken. Dat is nonsens. Wat de WvM zegt over aantallen schakelaartjes op een stuk aardewerk is niet interessant. Het gaat erom wat we ermee doen. Er bestond al een WvM vóór 1959, toen het eerste geïntegreerde circuit met een tiental transistors werd gemaakt. Eeuwen geleden is de mens begonnen machinaal te rekenen.

De gegeneraliseerde Wet van Moore is een Wet van Méér: sinds de uitvinding van het telraam zijn de ontwikkelingen onstuitbaar. Als de chips van Intel niet sneller kunnen, stoppen we er méér in een computer. Of we gaan rekenen met kwanta. Of we halen eerst de fouten uit de bestaande programma's en apparatuur. Of we gaan eindelijk weer eens slim programmeren. Want het leeuwendeel van de winst die de Wet van Moore oplevert, is door de makers van software verspild.

Uit: Intermediair, 8 maart 2001
Het verhaaltje van Herbert klinkt heel leuk, maar het is eigenlijk gewoon een ongestructureerd verhaal. De Wet van Moore is een voorspelling en gaat over de toename in transistors op processoren. Dat het er niet toe doet of de wet nog geldt is irrelevante informatie. De wet is er en zolang de wet geldt, blijft ie er.

Of het theoretisch mogelijk is en hoever Intel met de ontwikkeling van transistorplaatsing is, is eveneens volkomen irrelevant.

Ik ben het eens met dat er nog een aantal ogen en haken aanzitten en dat een theoretische verklaring niet mag ontbreken, maar Herbert laat zich teveel leiden door het spreiden van ongefundeerde kritiek.
Want het leeuwendeel van de winst die de Wet van Moore oplevert, is door de makers van software verspild.
Die persoon heeft zeker nog nooit een enorm groot project moeten zien te realiseren binnen een bepaald budget en tijd. ;)
mmmm... zo te zien wordt Intel toch een beetje kriegel van die x86-64 aka Hammer van AMD :)

ik ben benieuwd wat deze generatie CPU's met zich mee zal brengen. Wat ik eigelijk het liefste zou zien is dat tweakers op een vrij goedkope manier aan dure cpu's zouden kunnen komen. 64-bit is niet iets wat we kunnen betalen denk ik :(
Toen de eerste 32 bits kwamen was dat ook niet te betalen, dat maakte ook niet uit, er was toch geen desktop software voor.

Daarna werd het betaalbaarder, kwam er de eerste echte software voor, maar draaiend op een gedeeltelijjk 16 bits os.

Hierna zijn ze spotgoedkoop geworden, is alles 32 bits en kom je geen 16 bits meer tegen (bijna dan).

Over een paar jaar heb je ook lekker een 64 bits systeempje staan in de keuken en de slaapkamer.
Ehhmm... 5 a 6 GHZ?? Dan kan ook een zekere "wet" van een of ander figuurtje over processorsnelheden op de schop, want dan hebben we een verdrievoudigng in een jaar (ongeveer)
De wet van Moore, en die ging, voor de zoveelste keer, over verdubbeling van het aantal transistors in 18 maanden, niet van de kloksnelheid.
Over de wet van Moore: die zegt iets over de snelheid van de pc en dat is echt niet hetzelfde als het aantal megaherzen van de processor zoals je waarschijnlijk wel weet |:(
Uiteraard zegt de wet van Moore niets over het aantal MHz of GHz. Het is alleen wel zo dat we niet alleen grotere transistor ratio's per inch hebben en dan vervolgens nog blijven steken op 33MHz. Die zaken groeien redelijk vlot mee. Je hebt alleen een bepaald minimum en maximum (zonder al dat over clock gedoe) in het aantal MHz die per generatie wordt behaald en uiteraard overlappen die dingen elkaar nog wel eens. Minimum nieuwe generatie versus maximum oude generatie.
Maar het aantal Hz is wel degelijk verdubbeld en verdubbeld etc.
In bijna 12 jaar tijd (8 x 18 maanden) zijn we van (386 of 486) 16MHz gegaan naar (P4) 2200MHz. Dat ligt in de zelfde lijn als de theorie van Moore (die volgens het mooie verhaal hier onder stand zou houden tot 2005).
Dus 8 keer een verdubbeling van 16MHz levert op? 4096MHz (voor eind 2002) en in begin 2003 worden die 5GH verwacht, dus. Volgens mij klopt de theorie wel degelijk.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True