Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties

De eerste Intel-processors gebaseerd op de nieuwe Nehalem-architectuur zullen volgend jaar ge´ntroduceerd worden. De modellen met een ge´ntegreerde videocore zullen een jaartje later, in 2009, verschijnen.

De eerste Nehalem-processor, met de codenaam Bloomfield, wordt verwacht in het vierde kwartaal van 2008 en zal gemaakt worden met het 45nm-procedÚ. De cpu zal beschikken over vier cores die via QuickPath-links met elkaar communiceren. Aanwezig is 8MB L2-cachegeheugen en een triplechannel ddr3-geheugencontroller. De cpu zal gecombineerd worden met de Tylersburg-northbridge die zorg draagt voor de pci express 2.0-bus en de ICH10-southbridge.

Intel-logo nieuwe stijlIn de eerste helft van 2009 komt de Lynnfield-cpu op de markt die net als Bloomfield uitgerust is met vier cores, maar daarnaast ook beschikt over een ge´ntegreerde pci express-interface. De cpu wordt gecombineerd met ÚÚn i/o-chip, de Ibexpeak, die via de dmi-bus aan de processor wordt gehangen. Lynnfield krijgt een dualchannel geheugencontroller en een voetje met 1160 pinnen, minder dan de 1366 pinnen van Bloomfield. De op dezelfde architectuur gebaseerde Clarksfield moet de mobiele markt bedienen en krijgt een socket met 989 pinnen.

In de eerste helft van 2009 komt ook de Havendale ten tonele, die niet alleen een ge´ntegreerde pci express-interface heeft, maar ook een ge´ntegreerde gpu. Havendale is een dualcoreprocessor met 4MB L2-cachegeheugen en een dualchannel ddr3-controller. De chip heeft hetzelfde voetje als de Lynnfield en maakt ook gebruik van de Ibexpeak-chip voor de i/o. De mobiele variant hiervan gaat door het leven onder de codenaam Auburndale.

In de tweede helft van 2009 zal de volgende generatie processors verschijnen die gebakken zijn met een 32nm- in plaats van 45nm-procedÚ. De codenaam van deze familie is Westmere. Verwacht wordt dat ook AMD in 2009 de eerste processors zal leveren met ge´ntegreerde graphics, maar in tegenstelling tot Intel zal AMD de Fusion-cpu's initieel alleen richten op notebookmarkt.

Overzicht verschillende Nehalem-processors in 2008/2009
Moderatie-faq Wijzig weergave

Reacties (55)

Leuk,Leuk.. Maar ik zie er niet zoveel in.
Hoe zit het met het stroom vebruik? en de prestatie's van zo'n chip? Warmte?
En wat heeft het voor nut, waarom niet gewoon net zoals vanouds.. een onboard chip op het mobo.
En wat heeft het voor nut, waarom niet gewoon net zoals vanouds.. een onboard chip op het mobo.
Een GPU is nogal veel met geheugen bezig, maar een ge´ntegreerde chip heeft zelf niets en haakt dus in op het centrale RAM. Wanneer nu de geheugencontroller verplaatst wordt van de chipset naar de processor is het handig om ook de ge´ntegreerde GPU mee te verhuizen. Ook voor de zuinigheid heeft het voordelen: chipsets worden vaak in oudere fabrieken gebouwd, dus door de GPU te integreren in de processor kan die ook ineens gebruikmaken van de laatste transistortechniek (al begrijp ik dat de eerste generatie nog een multi-chip oplossing zal zijn).

[Reactie gewijzigd door Wouter Tinus op 26 november 2007 20:14]

De namen zullen wel gewoon random selected worden, de CPU's met Hebreeuwse codenames zijn in IsraŰl ontwikkeld ( Yonah bijv ).

Ik vraag me af hoelang het duurt voordat S775 eruit gaat, en wat voor FSB die nieuwe CPU's dan krijgen.
De FSB gaat eruit zoals je die nu kent en wordt vervangen door CSI, Intels tegenhanger van hypertransport. Daarmee hoopt/verwacht Intel gelijk zijn slechte schaalbaarheid met 4 cpu's en meer op te lossen.
<offtopic>
Hoe komen ze toch steeds aan die namen? Het zijn allemaal plaatsnamen, maar wel uit verschillende staten..
</offtopic>

Wel super om te zien dat de Intel jongens toch echt superhard blijven gaan met ontwikkelen. Meer en meer lijkt het er op dat AMD gedoemd is tot proberen bij te blijven.
Euhm,

even vermelden dat AMD eerst met deze gedachte gekomen is, door ATI op te komen. Intel blijft AMD nadoen. AMD kondigt ge´ntegreerde graphics aan en Intel volgt met een aankondiging.
Euhm,

Even vermelden dat je er helemaal langs zit. Intel was in 1998 al bezig met een CPU + integrated graphics, genaamd Tinma, deze zou in 2000 op de markt moeten komen. Zie ook; nieuws: Intel Timna dood verklaard en http://www.cpu-world.com/CPUs/Timna/ Dus zo revolutionair was AMD niet.
Volgens mij is het zelfs Cyrix die dit concept als eerste heeft ontwikkeld en ook daadwerkelijk op de markt heeft gebracht. Cyrix kwam eind jaren 90 met de MediaGX processor op de proppen wat dus min of meer een CPU en GPU in een was. Nadat Cyrix er in zijn toenmalige vorm mee ophield en AMD met het MediaGX ontwerp aan de haal ging, VIA nam immers de kort daarvoor door Cyrix overgenomen Centaur divisie over, bracht AMD de Geode op de markt. Jawel, een CPU+GPU combinatie, wat dus in feite een exacte kopie was van het Cyrix ontwerp. De huidige AMD Geode lx 800 is nog steeds volledig gebaseerd op het Cyrix ontwerp en derhalve is AMD dus eerder met deze combo cpu op de markt dan Intel. Prestaties buiten beschouwing gelaten natuurlijk. :)
Interessant stukje geschiedenis :). Zo zie je maar weer dat de meeste (goede) ideeŰn eigenlijk al heel oud zijn, dus dat het weinig zin heeft om te bakkeleien over wie het eerste was op basis van een paar recente aankondigingen.
Als je denkt dat Intel en AMD iedere gedachte die ze hebben over producten een paar jaar in de toekomst direct publiek maken heb je het goed mis. Verwar de eerste (gelekte) Powerpoint-slide dus niet met de datum waarop iemand het idee kreeg of het op de roadmap werd gezet. Intel is al veel langer met graphics bezig dan AMD, dus de kans zit er ook dik in dat ze eerder met dit idee gespeeld hebben. Sterker nog, ze hebben lang geleden al een keer een processor met ge´ntegreerde graphics ontwikkeld (Timna). Die is alleen nooit op de markt gekomen omdat RDRAM te duur was.

[Reactie gewijzigd door Wouter Tinus op 26 november 2007 20:35]

Wel handig, heb je nog maar 1 koeler nodig en al je sloten vrij voor een basis PC :)
Euhm, dat is met on-board graphics toch ook ;)


Voordelen zijn o.a. wel dat het waarschijnlijk een stukje sneller is, iets minder stroom gebruikt in z'n geheel (zuinigere chipset), beter met het RAM zal kunnen communiceren, en de graphics wellicht minder van je system trekken als je ook nog disks aanspreekt enzo. Soms krijgen chipsets het dan toch behoorlijk benauwd...

[Reactie gewijzigd door bnbaz op 26 november 2007 18:48]

moet je straks misschien wel GDDR in het mobo moeten steken...
(netjes naast de DDR...)

Waarom kan GDDR eigenlijk niet op een mobo voor de CPU?
GDDR leent zich niet voor de diverse taken van de CPU maar is heel krachtig voor grafische zaken. Als je de kloksnelheden van GDDR3 tegenover DDR2 zet, zet het je wel aan het denken ja. Maar of je excelbestandje liever over GDDR gepompt wordt dan over DDR is de vraag. Voor technische details hebben we altijd wiki nog :*)
Edit: Als ik wiki mag geloven verschillen GDDR3 en DDR2 technische gezien nauwelijk behalve dat GDDR3 minder power nodig heeft om hoger te clocken. Pas vanaf de JEDEC DDR3 spec komen er fundamentele verschillen!

[Reactie gewijzigd door TeXiCiTy op 26 november 2007 19:22]

GDDR3 (en GDDR4) is vele malen sneller nog dan DDR2, vanwege de extreem lage latency en brede datapaden. Alleen al door die bredere datapaden passen GDDR-chips niet op een DDR2-reepje. En dan nog kan ik me zo voorstellen dat GDDR-geheugen meer gemaakt is voor het opslaan van GPU-gerelateerde zaken zoals (vooral) textures.
GDDR4 lijkt op DDR3 maar heeft een nog hogere latency, latency is echter minder belangrijk in grafische toepassingen.

GDDR3 is DDR2 aangepast voor grafische doeleinden, sneller, en wat aanpassingen in de electrische interface (open drain, on die termination, etc) waardoor het totaal niet geschikt is voor main memory.

[Reactie gewijzigd door knirfie244 op 27 november 2007 11:09]

Tijd voor GDDR geheugen ook op de Processor te plakken???
Meer omdat GDDR duur is denk ik
GDDR heeft latency en de mogelijkheid om het op (verwisselbare) reepjes te gebruiken opgeofferd in ruil voor bandbreedte, bandbreedte en nog eens bandbreedte. Ideaal voor een videokaart, een stuk minder handig voor desktops.
Tja, dat wordt dan 2GB GDDR3 op het moederbord bakken en klaar is onze Vista-ready internet/office pc.

Dat deed Compaq een tijd geleden ook al in hun basis modellen. Puur omdat het grootste deel van de klanten hun pc doodleuk niet upgraden, maar gewoon bij het grof vuil zetten als hij te traag wordt. En dan een nieuwe kopen. Waarom zou je dan al die (dure) upgrade mogelijkheden (qua behuizing en qua connectoren) in een pc bouwen?
Zo'n 10 minuuten na het uitpakken van die Compaq dus...

Maar effe serieus. Het veranderen van een standaard vind ik elke keer weer storend. Als je dan iets "normaal" wilt veranderen, kan het weer niet en is er nŔt weer effe wat anders dan bij de standaard PC. Maargoed, ik zal er wel de enigste in zijn die zo denkt...
Maar goed ff een VGA upgrade zit er dan niet in, moet je gelijk je CPU ook vervangen zeker :?
Het lijkt me dat je deze ge´ntegreerde GPU functie gewoon kan uitschakelen en dan een losse videokaart erin kan steken. Naar mijn weten wordt het gewoon net zoals nu de ge´ntegreerde GPU's zijn, alleen is deze in je CPU.
Het lijkt me alleen dat de CPU hier een stuk duurder door wordt. Ik heb liever geen CPU met ingebouwde GPU
Het gaat hier om dualcores die tegen die tijd meer gericht zijn voor de budget markt. Waarschijnlijk is de combinatie moederbord met igp en een cpu duurder dan een cpu met igp en een moederbord. Verder werden er ook al voordelen genoemd zoals dat er minder informatie over de chipset gepompt moet worden (wat de hedendaagse FSB nog wel eens lastig vind maar tegen die tijd ook minder een issue moet zijn, maar het kan dan waarschijnlijk ook sneller bij het geheugen omdat het misschien direct kan communiceren via de geheugencontroller in de cpu).
Zoals sniperfox het al zei: onboard vga word dan vervangen door de CGPU (hoe moet je dit ding anders noemen)de poort zal dan wel aanwezig zijn op het moederbord maar zoals nu hopelijk uitschakelbaar zijn.
Het lijkt mij dat een CPU+GPU combinatie ineen zo op elkaar is ingesteld dat het upgraden van de GPU geen zin heeft (de CPU zou relatief te traag zijn.)
De uiteindelijke ontwikkelingen zullen ervoor zorgen dat we in de toekomst 1 chip hebben die hoogwaardige graphics en snelle 'gewone' berekeningen kan uitvoeren in combinatie met een enkel type geheugen. De PC zal zeer en zeer compact worden waardoor clustering extreem eenvoudigis zonder al te veer ruimteverlies.
Maar er zullen genoeg zaken in de toekomst worden verzonnen die het groot maken. ;)
Ik ben benieuwd of dit ook te combineren valt met een 'losse' grafische kaart, waarbij b.v. natuurkundige berekeningen van games, via de (i)GPU kunnen worden uitgevoerd..

Of is dit een wellicht wat minder doordachte gedachte?
Zie ik het verkeerd dat zo'n computer dan geen grafische kaart meer nodig heeft? Hopelijk zijn de ge´ntegreerde graphics wel deftig, dan heeft zo'n chip kans op slagen. Ik neem aan dat het niet mogelijk is er een videokaart bij te prikken?
Dat is nog wel gewoon mogelijk. En je kunt ook nog processors kopen zonder GPU; degenen met zijn meer voor budgetsystemen bedoeld.
Ik voorzie dat in de toekomst elk mainboard voorzien zal zijn van een onboard GPU in de CPU. De kosten (ruimte op de die) worden steeds kleiner en de noodzaak steeds groter. Elk mainboard heeft dan de beschikking over basis VGA mogelijkheden (ja die zullen erg snel zijn in vergelijking met nu, maar nog steeds entry level naar de dan geldende maatstaven).

Deze onboard GPU zal een belangrijke rol spelen in het energie zuinige platform. Zowel AMD als Nvidia zijn nu bezig met technieken die ze Hybrid SLI / Crossfire noemen en iedereen denk dan aan extra performance. Maar deze technieken kunnen ook de 3D kaart uitschakelen als deze niet gebruikt wordt (in "2d" windows mode) waardoor er enorm veel stroom bespaard wordt. Als er dan een spel gespeeld wordt en dan wordt de discreet graphic card gewoon weer ingeschakeld.
Nog leuker wordt het wanner je bij je spel dan de extra GPU op je processor in kan zetten voor de physics.
Die arme programmeurs hebben het nu al moeilijk met meerde cores mogen ze straks ook nog apart gaan programmeren voor een gpu in de cpu (want dat kan met een aantal applicaties als het goed is enorme snelheidswinst opleveren).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True