Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties
Bron: Tom's Hardware, submitter: FFWD

In de nieuwste versie van zijn roadmap - die door Tom's Hardware is bemachtigd - heeft Intel voor het eerst concrete plannen opgenomen om processors met vier en zelfs acht cores te gaan maken voor desktopsystemen. Deze zullen gebaseerd zijn op de nieuwe architectuur die het bedrijf heeft ontworpen voor zijn toekomstige x86-processors. De filosofie achter deze nieuwe familie cores is voor een groot deel gebaseerd op die van de mobiele Pentium M; behalve betere prestaties moet namelijk ook de efficiëntie (rekenkracht per watt) drastisch verbeterd worden ten opzichte van de huidige Pentium 4. De nieuwe architectuur ziet voor het eerst het levenslicht in het derde kwartaal van 2006, en zal dan in eerste instantie in drie verschillende smaken beschikbaar komen: Merom voor notebooks, Conroe voor desktops en Woodcrest voor servers. Alle drie zijn 65nm dualcores met 4MB gedeeld L2. Later komen ook goedkopere versies van uit: Allendale wordt een dualcore met 2MB cache en Millville een singlecore met 'slechts' 1MB L2 aan boord.

Tot nu toe geen verrassingen, maar behalve goedkopere versies is er nu ook een duurdere op de roadmap verschenen. Deze combineert twee Allendales tot één processor met vier cores en 4MB L2-cache. Deze 'Kentsfield' zal ergens gedurende de eerste helft van 2007 worden uitgebracht, samen met een serverversie ervan die 'Clovertown' is gedoopt. Het ontwerp van deze twee eerste quadcores is naar verluidt al afgerond, en als het bedrijf er nu nog geen samples van heeft dan zijn die wel binnen enkele maanden te verwachten. Behalve quadcore uit twee losse dualcores werkt het bedrijf ook aan een serverproduct met vier cores op één chip, samen met maximaal 16MB aan gedeeld cache. In het artikel wordt deze 'Whitefield' genoemd, maar eind oktober is de introductie van CSI (het nieuwe gedeelde platform met de Itanium) uitgesteld, waarna de codenaam is veranderd naar 'Tigerton'. Hoe dan ook zou dit product laat in 2007 of begin 2008 op de markt komen.

Intel Conroe (500px)

Tot dusver hebben we alleen nog maar 65nm-chips besproken, maar men is bij Intel ook al druk bezig met de 45nm-generatie, die als alles goed gaat eind 2007 zijn debuut maakt. De basis van de familie vormt nog steeds een dualcore ontwerp, de mobiele 'Penryn'. Wat deze voor verbeteringen biedt boven Merom is nog volstrekt onduidelijk, maar in ieder geval zal er 50% meer cache aanwezig zijn: In plaats van de 2MB- en 4MB-versies komen er dus 3MB- en 6MB-versies van de 45nm-generatie. De desktopversie van Penryn heet afhankelijk van de grootte van het cache 'Wolfdale' of 'Ridgefield'. Er komt ook een quadcore voor desktops op 45nm, die uit één fysieke chip bestaat en 'Bloomfield' is gedoopt. Verder staan er voor 2008+ ook desktopchips met acht cores op de planning, die bestaan uit twee van deze quadcores. De 'Yorkfield' en 'Harpertown' zullen acht cores en 12MB cache bieden voor thuisgebruikers, en hoogstwaarschijnlijk zal er ook wel een serverversie van verschijnen.

Hoewel deze regen van codenamen nog erg ver weg is (en er dus vanalles kan veranderen) wordt uit de geschetste koers in ieder geval duidelijk waar Intel de komende jaren heen wil. Het bedrijf zal zijn enorme productiecapaciteit benutten om een definief einde te maken aan het tijdperk waarin processors maar één core hebben. Hoewel het al duidelijk was dat dual volgend jaar een hele belangrijke rol zou gaan spelen, geeft het vooruitzicht op quadcore en octacore voor consumenten aan dat dit eigenlijk pas een kleine eerste stap is in de richting van de multicore toekomst waar de laatste tijd zoveel over gepraat wordt.

Lees meer over

Gerelateerde content

Alle gerelateerde content (44)
Moderatie-faq Wijzig weergave

Reacties (90)

Zoalng Intel niet ook met een geheugencontroller op de die (core) komt, zet ik mijn geld op AMD.
Intel zal wel zijn redenen hebben om een on-die geheugencontroller niet te implementeren, aangezien ze er in het verleden al mee geëxperimenteerd hebben.

Zo was er de Intel Timna, een P3 (667 MHz geloof ik) met on-die MC bedoeld als laptopprocessor, maar werd net voor z'n marktintroductie door Intel geanuleerd. Uiteindelijk evolueerde het Timna project in Banias, m.a.w. de Pentium-M zoals we die vandaag de dag kennen, maar zonder on-die MC.

De preliminaire benchmarks van Yonah wijzen er trouwens op dat Intel's architectuur beduidend minder behoefte heeft aan een on-die MC dan AMD.
Maar dat was een mobiele dual core en die werd afgezet tegen desktop AMD dual cores. Vergelijk eens opnieuw zodra de Turion er in x2 variant uit is! Dan heb je weer een betere vergelijking!
Waarom zou het voor Intel alleen maar nadelen hebben?
Een lagere latency is (bijna) altijd beter.
zolang intel vast zit aan die FSB zullen ze zonder on-board geheugen controler altijd een bandbreedte tekort houden.
Zitten blijkbaar een aantal AMD fans te modden ofzo?:S Zo raar vond ik mijn reactie niet lijkt me!
Heel leuk allemaal, maar voor de normale desktop gebruiker heeft dit helaas nog 0,0% zin.
Het wordt tijd dat de software bouwers hier eens op in gaan haken en hun programma's multi threaded gaan maken. Of wat dacht je van het 64 bit verhaal, daar gebeurt helaas ook maar bar weinig mee :'(
Het wordt tijd dat de software bouwers hier eens op in gaan haken en hun programma's multi threaded gaan maken.
De applicaties waarbij de performance belangrijk is zullen hier wel op inspringen. Voor de andere apps is het niet zo boeiend, je textverwerker hoeft echt niet multithreaded. Wat wel scheelt is dat als je textverwerker op CPU0 draait deze weinig last heeft van b.v. je spreadsheet op CPU1.

Daarnaast heb je nog het probleem dat lang niet alles te paralleliseren valt, en dat goed multithreaded programmeren niet heel eenvoudig is.
edit: @Olaf van der Spek

Ok 0,0% was overdreven, maar met de huidige software is er echt bijna geen voordeel voor de desktopgebruiker als hij 3 of 4 cores heeft in plaats van 2.
Jammer want ik denk dat best veel taken in de huidige software multi threaded gemaakt zouden worden, en dat zonder al teveel moeite.
Jammer want ik denk dat best veel taken in de huidige software multi threaded gemaakt zouden worden, en dat zonder al teveel moeite.
Ik betwijfel dat het zo makkelijk is. (want dan had iedereen het al gedaan zo onderhand).

Kijk, Linux en FreeBSD kunnen het, die hebben daar namelijk altijd al rekening mee gehouden, en kunnen dat soort uitbreidingen op hun featuresets vrij snel en eenvoudig doorvoeren, zonder daarmee een stabiel product te breken. (hoewel dat laatste meer waar is voor de BSD's dan voor Linux).

Voor een bedrijf als Microsoft, met haar gesloten model (ook voor de interne ontwikkelaars - alles is in compartimenten ondergebracht) gaat dat echter een stuk moeilijker, en is het ook, door de gigantische complexiteit van bijvoorbeeld Windows tov van bijvoorbeeld de Unix varianten moeilijker om dit stabiel te doen.

Dit is geen flame richting welk van de kampen dan ook, maar het is algemeen bekend dat wijzigingen bij Microsoft erg belemmerd w(e|o)rden... onlangs heeft MS nog aangekondigd dat dit drastisch moet veranderen, maar of dat daadwerkelijk gaat gebeuren... only time will tell.

De 'open' ontwikkelaars hebben het in dat opzicht, denk ik, makkelijker... omdat daar iedereen met elkaar in gesprek kan zijn, en vaak genoeg ook is... de BSD en Linux keukens werken al regelmatig genoeg samen bij gezamelijke struikelblokken, omdat ze allebij werken aan het belangerijkste doel: het moet beter kunnen dan het nu is. Bij microsoft spelen toch iets meer andere factoren mee, waar je eigelijk alleen als commercieel bedrijf mee te maken krijgt.
Heel leuk allemaal, maar voor de normale desktop gebruiker heeft dit helaas nog 0,0% zin.
Dat is niet waar. Het komt momenteel al erg vaak voor dat twee of meer threads van een of meerdere processen 'ready to run' zijn. Dat je geen 50 of 100% winst hebt, ala, maar 0% is simpelweg niet waar.

En de hardware komt (bijna) altijd eerst (kip, ei, etc).
Altijd weer dezelfde reactie. Dit is iets voor de toekomst, de software schaalt heus wel mee.
64 bit is al weer anderhalf jaar prima te gebruiken op je PC, sommige mensen blijven echter maar hangen bij dat spul van Microsoft.
Mensen wordt wakker, er zijn OSsen die niet continu een jaar naijlen op de technische vooruitgang.
nee. Maar een 64bit os installeren (linux bv.) en dan geen software hebben die de moeite waard is (adobe,macromedia, discreet,...) We zijn afhankelijk van MS, willen of niet! En als je 64bit wilt gaan kan je naar OSx maar dan ben je weer afhankelijk van onze Steve!
Er is zat software die de moeite waard is. je moet alleen je blik wat verleggen en niet steeds terugvallen op wat je al kent. Er zijn zat alternatieven voor de bekende software. Voor de meeste mensen zijn die toereikend voor professionals misschien nog niet maar we zijn op de goede weg.

Adobe (ook eigenaar van Macromedia) heeft trouwens al te kennen gegeven meer geld te investeren in Linux portering.

Je bent alleen afhankelijk van MS als je je zo opstelt.
Het werk van menig designer bestaat louter uit photoshop en illustrator...
"Even" overstappen op iets wat je niet kent is een heel stuk makkelijker gezegd dan gedaan...
Aha, op dit nieuw zat ik als Maccer al een beetje te wachten. OSX (en waarschijnlijk linux/unix) kan al heel aardig met meerdere processors/cores overweg. Dus hoe meer, hoe beter. Na de Quad G5 een octo Gi6?

Overigens is osx nog steeds niet volledig 64-bits (voornamelijk geheugenadressering), maar dat schijnt niet gigantisch veel vernselling op te leveren. Ik weet niet hoe dit met de 64 bits-versie van Windows zit (en hoe multitasking deze en Vista is).

In de Keynote van Apple met de aankondiging van intelprocessors gaf Jobs al aan dat het ging om de 'performance per watt'. De nieuwe hype na de Megaherts-mythe en 64-bit?
Meer cores per cpu is niet per definitie beter, ik merk nu al duidelijk bij bepaalde geheugen-intensieve applicaties dat de twee cores van een AMD-X2 elkaar behoorlijk in de wielen kunnen rijden.
Met nog meer cores zal dit alleen maar nog duidelijker te merken zijn, tenzij de geheugenbussen ook goed mee gaan schalen.
hier zie je dan ook eigenlijk meer de kracht van intel tov amd dat ze eerder kunnen omschakelen naar een kleiner procedee as in 45nm wat ze een tijdelijke voorsprong op het aantal watt zal opleveren. hopelijk weten ze dit dan ook verder uit te bouwen en zullen toekomstige processors ook daadwerkelijk zuiniger zijn. al kunnen we er dan ook wel vanuit gaan dat intel geleerd heeft van de Pentium IV. wat ik me eerder afvraag is hoe developers hiermee omgaan. op het moment is er maar weinig gewone software uit wat hiermee kan omgaan, gaat hier inde toekomst dan iets aan gebeuren? en zal intel hiervoor speciale compilers leveren die het schrijven makkelijker maakt?
ze eerder kunnen omschakelen naar een kleiner procedee as in 45nm wat ze een tijdelijke voorsprong op het aantal watt zal opleveren.
Naar 90 nm kon Intel ook eerder overschakelen maar dat is een kleine ramp geworden (Prescott).
Het Prescott-ontwerp is niet bepaald een succesverhaal geweest om diverse redenen, maar daar kun je moeilijk de 90nm-technologie de schuld van geven.
Dat klopt volgens mij niet. Het probleem wat Intel had/heeft met haar 90nm techniek is dat de lekstroom nogal hoog is. En daardoor vraten; en inmiddels wat minder vreten; die Prescott cpu's zoveel vermogen.

En ik geef je ook wel gelijk dat dat deels aan het ontwerp van de cpu ligt en doordat Intel een lage ipc met hoge clock gebruikt, maar het verschil met de 130nm is toch wel aardig groot. Wat ze inmiddels gelukkig wel een beetje onder de knie hebben.

Het komt er in feite op neer dat Intel's 90nm productieproces niet echt optimaal is voor het Prescott ontwerp.

offtopic:
Zou weleens willen weten hoe zo'n verschil het zou uitmaken als je de slimme trucjes van Intel en AMD samen in één proces zou stoppen en er dan zowel Toledo's als Prescotts mee zou maken.
Dat klopt volgens mij niet. Het probleem wat Intel had/heeft met haar 90nm techniek is dat de lekstroom nogal hoog is. En daardoor vraten; en inmiddels wat minder vreten; die Prescott cpu's zoveel vermogen.
Het probleem wat je beschrijft heeft helemaal niets specifiek met Intel te maken; alle bedrijven hebben daar op 90nm last van, maar niemand anders heeft geprobeerd om er 5GHz mee te halen. De ontwerpers van Prescott hebben de problematiek dus zwaar onderschat. Moet je daaruit dan concluderen dat Intels 90nm een "ramp" is zoals Olaf stelt, of dat Prescott een ramp is? Mij lijkt het duidelijk als je kijkt naar de goede resultaten die andere designs (Dothan, Montecito, Xscale) halen dankzijn de overstap van 130nm naar 90nm.
het hele design van de pentium 4 was erop ingesteld vrijkomende extra Ghz te gebruiken (extreem lange pipeline "superpipeline", kleine bewerkinkjes per pipeline stage maar wel supersnel). er kwam bij de transitie naar 90nm echter minder ruimte voor Ghz vrij als dat intel verwachtte. het was een trendbreuk; bij eerdere process shrinks was frekwentie opschalen nooit een punt geweest.

de netburst core is dus eigenlijk nooit optimaal gebruikt kunnen worden door dat uitblijven van een wezenlijke Ghz jump bij de die shrink naar 90nm.

alle processor fabrikanten liepen tegen dit probleem aan; het is een fundamentele eigenschap van de transistoren (leakage). vergelijk hiertoe ook de AMD fx-60. dit is de opvolger van de fx 57 (2.8 Ghz). de fx-60 is dual core op 2.6 Ghz. AMD lijkt nu dus ook tegen de Ghz grens op 90nm zijn aangelopen (2.8 Ghz); performance verbetering moet in een extra core gezocht worden ipv meer Ghz. ditto voor de ibm ppc970; die heeft nooit de beloofde 3 Ghz kunnen bereik en is dual core blijven steken op 2.5 Ghz.

er zijn wel lapmiddeltjes (SOI) maar het opschalen van Ghz als performance verbetering lukt niet echt meer. daarom is men het nu in de ruimte gaan zoeken ipv tijd door extra cores in te bakken en grotere caches. zo wordt het extra "canvas"/transistoroppervlak van de kleinere process technologie toch nog ingezet ter verbetering van de computing performance.

al zal het nog een hele kunst zijn voor programmeurs om het parallel programmeren paradigma volledig te kunnen benutten. het is geen "free lunch" zoals de good old days van single core Ghz opschalen helaas.
Dat klopt volgens mij niet. Het probleem wat Intel had/heeft met haar 90nm techniek is dat de lekstroom nogal hoog is. En daardoor vraten; en inmiddels wat minder vreten; die Prescott cpu's zoveel vermogen.
Nee dat deden ze omdat de stroom die de transistoren nodig hebben om te schakelen te groot was, had dus niks met lekstroom te maken.
En als je naar de Pentium M kijkt (Ok, die is er speciaal voor ontworpen maar toch) zie dat het 90nm proces van intel niet slecht is, ontwerp van de prescott was gewoon bagger.
AMD lijkt nu dus ook tegen de Ghz grens op 90nm zijn aangelopen (2.8 Ghz);
Neem van mij maar aan dat ze de grens nog niet hebben bereikt hoor, AMD heeft er simpelweg voor gekozen om niet een nog snellere single core chip op de markt te brengen. De meeste games die nu ontwikkeld worden kunnen overweg met meerdere cores. De CPU is natuurlijk bij games niet eens de beperkende factor.
De meeste FX57 komen zelfs makkelijk over de 3,0 Ghz met aircooling.
Ja leuk en aardig, AMD beheerd voorlopig de Dual Core nog het best.
Tuurlijk is het belanrijk om te blijvent vooruit te streven en te denken.
Maar Intel moet ook niet zijn ogen sluiten voor momentele problemen in hun lijn.
zoals, teveel Hitte/Stroom verbruik of Altijd maar weer dat dure Geheugen i.p.v interne mem controller enz....
of Waarom geen Hypertrading simulatie op de Dual Core
zodat apps de 2e Core ook aan spreken als ze nog niet Dual Core gescheven zijn ?
Om maar wat voorbeelden te noemen.

Intel is ver... heel ver.... maar denkt altijd aan meer sneller moderner. Maar Vindt dat AMD veel efficenter is
Aan hun producken kan je in verhouding meer zien dat je er nu wat aan hebt en gelijk optimaal kan gebruiken.
Intel heeft veel al het probleem, dat het nog van te komen Software afhankelijk is voordat het rendement opgaat leveren. en tegen die tijd is de techniek dan al weer achterhaald. Ja Intel mag dit dan wel allemaal al kunnen.
denk dat AMD voorlopig er idd in kan blijven mee gaan.
door steeds efficente techniek te blijven bieden boven domme en dure power specs.
Intel lijkt meer dan AMD te innoveren in productietechniek. Ook lijkt het dat de Pentium M qua IPC vergelijkbaar is met de Athlon64. En dus ook de dual core Yonah versie. AMD heeft dus misschien een voorsprong qua ontwerp op de P4 maar Intel heeft dus wel degelijk producten in huis die even efficient zijn als de Athlon64 serie. Tot slot is Intel AMD ruimschoots de baas qua absolute snelheid. Dus op wel gebied is AMD leidend?

Wel is het de vraag hoe goed Intel erin slaagt deze voordelen te combineren in de Conroe. Als ze daar succesvol in zijn heeft AMD echt een heel groot probleem aangezien in de roadmaps van AMD nog geen ingrijpende verbeteringen aan de K8 core zijn opgenomen. Met een beetje pech is dan AMD niet sneller, gebruikt het meer stroom en is een AMD chip duurder om te produceren. Lijkt mij niet een situatie waar AMD in wil terechtkomen dus ik ben zeer benieuwd op welke manier AMD tegenstand aan de Conroe gaat bieden.

Nog 150 nachtjes slapen. Dan weten we het.
Volgens mij ben jij een beetje te veel in de straat van Intel aan het praten. Als je het artikel hebt gelezen over AMD's productietechniek dan weet je dat zij veel innovatiever zijn in hun productietechniek daar zij op (bijna) ieder moment hun huidige productie kunnen aanpassen om als het nodig is de uitval zo veel mogelijk te beperken. Als dit geen innovatieviteit is???

Als je innovativiteit moet afmeten aan de grootte van het proces dan ben je volgens mij verkeerd bezig! Steeds kleiner schalen van de processor is op zich niet verkeerd maar kan ook verkeerd uitpakken, zoals Intel dus ook heeft gemerkt!

Verder is het zo dat het ontwerp van de AMD dual cores van de grond af is gedaan en dus ook een daadwerkelijke dual core is terwijl het product wat die naam had van Intel niks anders was dan een plaatje met daarop twee cores die ieder geheel autonoom waren en dus niet de efficientie hadden van de AMD x2's.

Ook is het zo dat AMD met de 64 bit structuur ver voor lag op Intel die daar eigenlijk nog steeds geen echt goed antwoord op hebben.

Deze twee bij elkaar opgeteld geeft toch wel aan dat AMD innovativiteit zeker niet kan worden ontzegd!

Dat er in de AMD roadmap geen ingrijpende verbeteringen aan de K8 zijn opgenomen wil niet zeggen dat ze niet innovatief bezig zijn. Misschien zijn ze wel bezig aan een opvolger (K9?) dus vinden ze dat ze eigenlijk het maximale al uit de K8 halen wat er nu mogelijk is!

Verder is het zo dat er door diverse mensen wordt gezegd dat dit een uitdaging voor AMD wordt of dat AMD hiermee achterop moet gaan lopen! Helaas/gelukkig zal dit wel mee vallen daar AMD al enige weken geleden plannen bekend had gemaakt voor zowel een quadcore als een octacore wat dus eigenlijk betekent dat Intel nu gewoon weer achter AMD aanloopt!

Over innovativiteit gesproken??????
De productiecapaciteit van Intel blijft levensgevaarlijk voor AMD (vanwege mogelijke prijsdumping). Maar toch grappig om te zien dat ze weer (nog steeds) voor een speelgoedchippie gaan. Als AMD een quadcore zou maken (en dat gaan ze doen) dan wordt het geen dual-dual core maar echt een quad. Bij AMD64 maakt het niet uit hoeveel cores er op de crossbar aangesloten worden (bedenk je dat dit al meer dan 5 jaar geleden bedacht is!!). M.a.w. het is een unified/generiek ontwerp, i.t.t. tot wat we de komende 2 jaar dus blijkbaar bij Intel zullen zien.
Nee, de prijsdump zal niet komen vanwege de grote markt aandeel van z'n 90%.
Wel kan Intel op deze manier AMD afmaken door een paar kwartalen onder de kostprijs te verkopen, waardoor AMD groot verlies lijdt en uiteindelijk niet meer kan volhouden.
Dit kan echter niet voorkomen door verschillende beschermings wetten.
Sinds Intel toch bijna de hele markt in handen heeft. Hoeft zij van niemand wat aan te trekken.
Speciale compilers zijn er al jaren: de Intel Compiler. En zover ik weer worden die ook best goed gebruikt. Het mooie is dat die de programma's niet alleen voor Intel processoren sneller maakt, maar ook voor AMD processoren. Dus ja die compilers zijn er gewoon al en zullen ook wel blijven komen.

En de enige rigoreuze veranderingen die developers moeten maken zijn hun programma's meer multithreaded maken. Dat is iets waar men niet zo veel op focust tegenwoordig en dat gaat mijn inziens nog een heleboel leuke bugs opleveren in de toekomst }>.
ik krijg een 'terminator' kippevel laagje op m'n arm.

Daar vonden ze ook een revolutionair nieuw chip systeem, wat veel krachtiger was.
Nu is het dual core. Straks dus quad en octocore
en dan.
Kennen jullie de 286, 386, 486 etc nog! 4 mhz, 8 mhz 16 etc.

Wat hebben we over 5 tot 10 jaar? 3,2 Megacore?
Multi-core processors met programmeerbare instructiesets, waarbij een applicatie z'n eigen gespecialiseerde instructies kan invoeren voor complexe handelingen. Zoiets? ;)
Was dat niet de Cell processor?
Is het erg om snellere CPU's te krijgen? Ik vind juist dat de laatste tijd de vooruitgang bij CPU's erg langzaam gaat (mijn A64-3000+ heb ik een half jaar geleden gekocht en die kost nu nog bijna hetzelfde).
Dat de prijzen niet zakken heeft niets met vooruitgang te maken, maar met een stabiele markt. De nieuwe topmodellen nemen niet de plaats in van hun voorganger, maar worden er ook echt boven geplaatst, kwa power en kwa geld. En bijna niemand heeft nog meer rekenpower nodig dan er nu al voor handen is. Dus de markt lijkt tijdelijk even pas op de plaats te maken.

Al met al ben je één van de weinigen die er van baalt dat zijn CPU nu een half jaar later nog steeds waard is wat ie toen ook was ;) Meestal balen ze ervan dat hun toen nog duur betaalde CPU een half jaar na dato voor 40-50% minder van de hand gaat .................
DarthPlastic droomt van de beschikking over een 6.6 GigaCore Intel processor met 80 gig 'cache'! :z :)
Is dit nu een slechte ontwikkeling voor Amd ?
Of gaat Amd mee in deze strijd ?
AMD heeft zijn K8 reeks vanaf dag 1 ontwikkeld met de multi core gedachten. Dus nee, dit is niet per definitie slecht voor AMD. Sterker nog, Intel volgt hun en een keer niet anders om.

Of dit uiteindelijk beter uit pakt voor Intel of AMD -- Time will tell.
Zeggen dat Intel AMD volgt is een beetje populistisch. Als je een beetje om je heen kijkt zie je duidelijk dat de hele industie naar multicore gaat, en dat veel bedrijven er ook al veel eerder dan AMD mee bezig waren.
dus populistische misschien maar daarom nog niet minder waar.
Net zo waar als zeggen dat het AMD is die IBM/HP/Sun/Compaq/etc. volgt, of dat Intel een van die anderen volgt. Maar nee, door het specifiek op Intel vs. AMD te gooien zijn er makkelijk punten te scoren hier.
maar AMD was er al veel erder mee bezig als intel duidelijk.
zoals al gezegt de k8 was meteen al ontworpen met multi core in mind.
dat kan je van de prescott niet zeggen.

dus populistische misschien maar daarom nog niet minder waar.
Specifiek gooien op AMD vs Intel komt omdat zij degenen zijn die de x86 architectuur aanhouden en niet andere architecturen zoals de SPARC of de CELL. Dus is dit de enige vergelijking die je kunt maken.

Ik geef toe dat ook VIA bezig is met de x86 architerctuur maar in alle eerlijheid: kan je die momenteel al vergelijken met Intel of AMD???
We hebben het hier toch over het x86 platform? Als je alle technieken in de industrie er bij moet halen dan zijn de processoren van Intel en AMD zwaar achterhaald
Ze zijn nu bezig met het maken van meerdere cores, ik vraag me nu enkel af wanneer ze ook processoren gaan maken die cores hebben welke zich op een specifieke taak gaan richten. Ik denk dat dat ook erg veel prestatiewinst met zich mee kan brengen,
Wat ik niet snap is waarom ze het niet mogelijk maken om bijvoorbeeld een hulpchip ontwikkelen, eentje op 500mhz bijv die winamp of iets dergelijks regelt. Terwijl de grote processor lekker hard aan het werk is met iets zwaars... Dan nog physics kaart voor die natuurkundige berekeningen en een supervideokaart. Volgens mij is specialiseren van onderdelen beter dan het nog meer brute kracht geven. efficientie lijkt mij veel belangrijker, want daar schort momenteel nog wel wat aan.
Je beschrijft hoe een amiga 20 jaar geleden werd opgebouwd.
Opvallend vind ik dat nog niemand de vraag heeft gesteld :

Wat gaan we hier thuis op de desktop mee doen?
Internetten? Een mp3tje luisteren en wat Photoshoppen ? Op een 8-core ? Wel gezellig hoor al die cores en leuk dat die plannen er al zijn, er zal vast wel een nut gevonden worden..maar ik zie voor thuis even het nut nog niet in van 8 cores, maar dat kan ook wel eens aan mij liggen :7
maar het totaal opgenomen vermogen worde met elke core wel hoger natuurlijk
ligt aan het verbruik per core natuurlijk. Als de energiebesparingsontwikkelingen verder gaan en we uiteindelijk met 8 cores gaan werken die ongeveer gelijk presteren aan, ik noem maar wat, een AMD 3500+ die een Wattje of 15 of 20 ofzo gebruikt..hoef het totale verbruik van zo'n Multi-core unit niet explosief te stijgen.
Ik hoop dat het die kant op gaat, mag iemand me alleen het doel van de 4/8-core voor de thuisgebruiker nog even uitleggen :)

(Anders dan 3DMark '07 benchen :Z)
De snelheids verwerking van een progamma is iets waar we allen nog maar op vooruit kunnen gaan de aankomende jaren. Door deze snelheid zullen er ook softwarematig paketten gemaakt kunnen worden wat voorheen niet kon.

Zo word je dus, als pc gebruiker, thuis of op het werk, produktiever in de zin van, je kan meer in minder tijd.
Neem dat even in het verlengde dan zullen er straks ook supercomputers gebouwd kunnen worden die ruimte onderzoek straks overbodig maken, waarvoor de Space Shuttle vandaag de dag er voor op uit gaat, doordat ze het nu op aarde dan kunnen simuleren.

Overigens vind ik het nog steeds scheef om steeds maar kleine stapjes te zetten als mens, zo ook nu in dit geval met wat Intel laat zien. Als je weet dat een 8 core CPU al haalbaar is, sla dat melken dan eens over met steeds maar weer kleine tussenstapjes, 2 core, 4 core etc. Ik denk dat de noodzaak voor de mensheid juist steeds meer komt te liggen op snelheid, anders houden we het niet lang meer vol op dit planeetje met zijn alle samen.

Olie is over 50 jaar op, water verdwijnt ( zoet water ), woestijnen worden groter en nieuwe komen erbij. Niet dat een CPU nu daar direkt een positieve bijdrage daaraan kan leveren, maar wel indirekt, door nog sneller dit soort zaken te berekenen op korte termijn. Daardoor krijgen we eerder inzichten en kunnen er eerder aan oplossingen gewerkt worden ;)

Edit = typo's
Als je weet dat een 8 core CPU al haalbaar is, sla dat melken dan eens over met steeds maar weer kleine tussenstapjes
ehh kosten? als je nu een 8core koopt ben je een hoop centjes kwijt... als ze iets al konden maken en in productie konden nemen doen ze dat ook wel hoor!
door nog sneller dit soort zaken te berekenen op korte termijn. Daardoor krijgen we eerder inzichten en kunnen er eerder aan oplossingen gewerkt worden
Ik begrijp dat je je druk maakt :) maar overdrijf je niet een beetje? En we hebben NU toch al inzicht op het feit dat mileuvervuiling niet goed is voor in de toekomst. Maar toch gaan we door omdat mensen geld willen verdienen en schijt hebben aan de toekomst.
Quake 5 of Doom 4 Bench draaien :? :Y)
Dit betekent natuurlijk ook enorme investeringen voor de software makers. Ze moeten nu al hun software gaan ombouwen naar multi-core. En er moet een systeem gevonden worden om er voor te zorgen dat de software spontaan elke nieuwe beschikbare core kan gebruiken want ik denk niet dat ze het zien zitten om telkens opnieuw te gaan schrijven met de komst van quad en octacores. Ik ben echt nieuwsgierig naar de prestatiewinsten van multi-core processors in combinatie met software die perfect voor deze processors geschreven is!

Het beloven spannende tijden te worden :P
Ik denk dat je daar niet zo bang voor hoeft te zijn! Ook de softwareontwikkelaars zullen wel inzien dat de dual core niet het einde maar juist het begin van opschalen was! Als ze dus hier slim op inspelen zullen ze hun volgende software, indien nodig, zodanig maken dat deze gebruik maakt van het aantal cores dat een effectieve verbetering van het programma betekent dus single core als voor bv een tekstverwerker maar BV twee cores voor videobewerking en 4 cores voor de nieuwste games!
10 jaar geleden was al bekend dat het optuigen van een grote allesomvattende single core een doodlopend pad was.
Op een gegeven moment kan je daar niet mee doorschalen.
Ze hebben nog geluk gehad dat ze het kleiner worden van onderdelen mee hadden anders hadden ze al veel eerder op multicores over moeten stappen.
Nadeel hiervan is wel dat lang niet alle software hier nog goed mee om kan gaan. En binnen twee jaar is dat ook nog lang niet voor elkaar.

Wat me zelf wel handig lijkt is dat je straks kan beginnen met een single-core CPU en doorsparen voor een dual, quad, octa etc. (als ze niet mettertijd weer een socket gaan veranderen).
Ja alleen op een gegeven moment wordt het zo duur om multi-cores te produceren, dat het weer intressanter wordt om de singlecore verder te ontwikkelen.

Het is een afweging die je maakt, korte termijn multi-core produceren (met een lagere faalkans), of een revolutionaire singlecore (met een lagere slaagkans).

Op dit moment zet intel dus in op zekerheid en duikt de multi-cores in...
Meer hitte productie, hoger energie verbruik, en dan mogen ze nog de mobile (zuinige) processors gebruiken, maar het lijkt in mijn ogen een stap de verkeerde richting op.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True