Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 156 reacties
Bron: C|Net

Nu AMD zich met een pasverworven aandeel van een kwart van de x86-markt eindelijk een beetje in de kijker van de gemiddelde consument begint te spelen, lijkt verdere groei en mogelijk ook het vasthouden van dat marktaandeel serieus te worden bedreigd. Niet alleen heeft chipgigant Intel, na een aantal jaren door AMD te zijn afgetroefd, met de Core 2 Duo-serie een flinke kluif aan het AMD-R&D-centrum gegeven om voorbij te streven. Ook komt het succes van een stijgende vraag, hoewel je daar als bedrijf altijd naar streeft, eigenlijk iets te vroeg: de chipfabrikant is nog bezig met de migratie naar het efficientere 65nm-productieprocédé dat een hoger aantal chipjes per wafer oplevert. Intel heeft die transitie reeds een jaar geleden met de Core 2 Duo-productie ingezet, waarmee het niet alleen een sprong qua yields heeft gemaakt, maar ook op het vlak van aantallen chips die überhaupt gebakken worden. Dat is daarnaast te danken aan de stap naar 300mm-wafers die Intel al gemaakt heeft maar waar AMD nog mee bezig is.

AMD opent Fab 36: presentatie 300mm-wafers 'AMD heeft in principe een goed probleem, omdat het betekent dat veel mensen hun chips willen hebben, maar ze hebben meer fabrieken nodig', zegt Dean McCarron van Mercury Research. Hij wijst er verder op dat AMD's 90nm-dualcore Opteron en Athlon 64-processors met hun die-oppervlak van 199 vierkante millimeter wat aan de hoge kant zitten, wat pas als de overstap naar 65nm-technologie is afgerond, op een meer 'comfortabele' maat uitkomt waar meer chips per wafer uit te trekken zijn. AMD-topman Bob Rivet meldde vorige week bij de presentatie van de derdekwartaalcijfers dat er pas in het vierde kwartaal voordeel door het gebruik van 65nm-productie in de financiële boeken bij te schrijven zal zijn. Intel maakte eerder deze maand bekend reeds meer dan de helft van zijn productie op 65nm te doen; AMD verwacht over een jaar negentig procent van de fabricage te hebben omgezet.

Intel zal vooralsnog quadcores bakken door twee dualcores aaneen te knopen, in wat het multichip-moduletechnologie (MCM) noemt - hoewel AMD met zijn komende 'Quadfather' dual-socket-systeem in eerste instantie een vergelijkbare weg kiest. Met MCM kunnen quadcores sneller op de markt worden gebracht, en Intels schijnbare voorkeur voor deze techniek lijkt te betekenen dat het ook in die markt een voorsprong kan nemen. MCM zorgt er tevens voor dat, indien een dualcore er wegens een defect uitgegooid moet worden, niet de hele productielijn geschaad wordt. AMD integreert de quadcores die het vanaf halverwege volgend jaar uit wil brengen op een enkele chip, en krijgt in zo'n geval dus met grotere productieschade te maken. Het bedrijf rekent er echter op dat zijn ontwerp uiteindelijk voordeel op zal leveren omdat data tussen de cores kan worden uitgewisseld op snelheden gelijk aan de kloksnelheid van de chip; bij Intel's MCM-ontwerp moeten gegevens soms buitenom en kan de uitwisseling dus trager uitvallen dan de kloksnelheid.

Intel vs AMD space invaders-fpa Intel heeft aangegeven in de toekomst, afhankelijk van de vraag, zowel MCM-ontwerpen als geïntegreerde multicores uit te gaan brengen - het is evenwel onduidelijk wanneer het met chips van de laatstgenoemde variant komt. De vragen of AMD's (vermoedelijke) eerdere gebruik van een geïntegreerd ontwerp ook daadwerkelijk voordeel op zal leveren en of het bedrijf de productievraag bij zal kunnen benen, zullen pas volgend jaar beantwoord kunnen worden. Dan komt ook reeds de 45nm-productie in zicht, die Intel aan het einde van dat jaar start en die AMD om de achterstand beperkt te houden omstreeks de jaarwisseling 2007/2008 heeft gepland.

Lees meer over

Gerelateerde content

Alle gerelateerde content (29)
Moderatie-faq Wijzig weergave

Reacties (156)

Wat ik me eigenlijk al een tijdje afvraag: waarom zijn die wafers rond? Een chip is rechthoekig, en je verliest dus toch een heleboel plaats aan de randen?

Wat zie ik hier over het hoofd?
Qua materiaalgebruik klinkt het heel logisch om de wafer vierkant te maken. Maar misschien weegt dat voordeel niet op tegen het feit dat de lenzenkolom in een cirkelvormig beeld een bepaalde kwaliteit kan leveren. Dus als je optimaal gebruik wilt maken van je optiek ben je het beste af met een cirkelvormige wafer. Die optiek is extreem duur. Kies je voor een vierkante wafer dan heb je op dezelfde straat minder productie per uur. Zuiver silicium is ook bepaald niet goedkoop dus het zal een economsiche afweging zijn.
Voor zover ik weet:
Wordt een wafer niet in 1 keer belicht maar in stukken. Dus zeg maar 16 chips per keer.
De manier waarop wafers worden geproduceerd is door cilisium als staaf te laten 'groeien' en daar vervolgens plakjes vanaf te zagen. Dat groeien gebeurd in een ronde vorm. Eigenlijk net zoals dat een ijspegel altijd rond is. Om hieruit dan weer vierkante staven te zagen zou meer verlies aan materiaal betekenen dan ze gewoon rond te laten.
Verder zijn de trek en buig krachten in een vierkante wafer ongunstiger dan in een ronde. Tijdens het productie proces worden de wafers namelijk verwarmt en koelen ook weer af. Dit geeft spanningen in het materiaal die bij ronde wafers minder problemen geeft.
Een wafer is rond omdat het een plak silicum is.

Deze silicum wordt als een soort van grote rol gekweekt (vanaf de gronstoffen tot de super zuivere mix die er nodig is om een cpu te maken)

Volgens mij gebeurt het afzetten van deze stoffen in een draaiend proces (waardoor je dus een lange ronde staaf krijgt,

Van deze staaf snijden ze plakken (net als worst), en dat zijn de wafers.

De 30mm wafers zijn alleen maar efficienter omdat je dan minder last van de randen hebt, en dus meer nuttig oppervlak hebt dan bij de kleinere wafers.
De reden dat n wafer rond is zit hem inderdaad in het productieproces, maar niet zoals jij beweert.
Een wafer moet namelijk extreem vlak zijn en de enige manier waarop dit (op dit moment) haalbaar is door op een roterende schijf het silicium in het midden aan te brengen waarna het door de rotatiekrachten verspreid wordt over de wafer.

en 300 mm wafers zijn inderdaad efficienter omdat er relatief minder materiaal verspild wordt aan de randen, maar tevens doordat de wafers dan tijdens het maken van de chip minder vaak vervangen hoeven te worden en dus veel sneller geproduceerd kunnen worden.

Edit @ Father_Ted599

oepsiepoepsie, zit inderdaad verkeerd. Voor het toepassen van lithografie op wafers wordt de basislaag, welke door lithografie bewerkt gaat worden, aangebracht zoals ik beschreef, niet de wafer zelf. Maar hiervoor moet die dus ook rond zijn :)
is door op een roterende schijf het silicium in het midden aan te brengen waarna het door de rotatiekrachten verspreid wordt over de wafer
Kan je hiervan een referentie geven? Nog nooit van gehoord.
Wafers worden bij mijn weten gemaakt zoals hierboven beschreven: men start van een mono-kristallijn kristal en laat dit via rotatie in een gesmolten Si bad aangroeien tot een worst.
Dit komt door de manier waarop ze siliciumkernen maken.

Kort door de bocht: Het silciumkristal waar ze de wafers van maken maken ze dmv een ronddraaiende beweging.

En dat ronddraaiende, daar zit het hem in.

Damn, ik had een mooi filmpje....
Hier misschien heb je hier iets aan: http://www.processpecialties.com/siliconp.htm
Pizza wordt ook rond gebakken en niet vierkant. :+
Dus jij hebt een processorpuntje als CPU? :Y)
Is eigelijk ook zonde, gezien het feit dat de doos van de pizzaboer vaak vierkant is :9
In Italië maken ze best vaak vierkante pizza's en eten ze die dingen als tussendoortjes(een vierkant stukje pizza), dus dat gaat niet helemaal op :)
Als ze de monokristallen van sacharose zouden groeien dan zouden ze vierkante wafers hebben, maar daar kun je nou niet echt cpus van maken ;)

maw: de grondstof bepaalt de vorm van het kristal.
Ik zie het probleem niet zo heel erg. AMD is nu weer even als vanouds de underdog wat topprestatie betreft en loopt dus het gevaar nu iNtel met prijzen voor de nieuwste CPU's gaat stunten dat er grote voorraden van hun CPU's ontstaan die ze aan de straatstenen niet kwijtkunnen.

Juist nu Dell fanatiek AMD's is gaan leveren uit het niets en ook Sun de produktie wat opkrikt is er voor AMD een zeer gunstige situatie ontstaan namelijk absolute zekerheid dat ze hun chips meteen voor de maximale prijs kwijt kunnen en ondertussen rustig kunnen doortimmeren aan hun nieuwe fabrieken.

Zolang AMD maar wat moois in peto heeft voor de toekomst die weer de concurrentie met de top van iNtel keihard aankan (wat ik niet betwijfel) zitten ze voorlopig wel goed volgens mij.

[edit] @n4m3l355: Het huidige tekort wat door de nieuwe OEM klant ontstaan is is ongetwijfeld ingecalculeerd en zal er heus niet toe leiden dat ze hun huidige contracten met OEM's niet kunnen nakomen.
Geen probleem? Als er een contract is voor een x aantal procs bij een OEM en je voldoet niet aan de voorwaarden krijg jij als leverancier een boete of word je weer afgesneden. Dit staat Dell op termijn ook te wachten indien ze hier niet iets op vinden. Sterker nog het is niets nieuws vroeger tijdens de AthlonXP die ook wel leuk was hadden ze dezeflde problemen en zijn ze mede daardoor hun positie bij de OEMs kwijt geraakt, nu krijgen ze een voet binnendeur en worden ze door eigen toedoen net zo hard weer eruit gegooid als ze niet opletten. Dus dit is zeker een probleem mocht amd ooit van hun onderdog positie af willen.
ik zou geen vergelijk meer maken met AMD ten tijde van hun XP. toen hadden ze 1 fabriek op 200mm die ze dus steeds moesten upgraden naar een kleiner procede. nu hebben ze een extra fab36 bij die deels op 65 en deels op 90nm met 300mm waffer werkt. fab36 heeft een grotere produktie cap. als deze volledig online is (midden 2007). Chatered wordt gebruikt als buffer... nu hebben ze 90nm meer nodig en fab36 gaat over naar 65 dus chatered helpt met oude produktie, hetzelfde doen ze binnenkort als ze van fab 30 nr38 maken dat is gepland voor voltooing in 2008, daar komen ze dan ook met 300mm waffer. Chatered zelf is ook bezig met een andere fab klaar te stomen voor 65nm, dan kunnen ze ook van die bestellen. als fab36 full 65nm is zal chatered 90nm leveren + 65nm starten, fab30 gaat dan plat voor upgrade. zo kan AMD met minimale kosten hun structuur omzetten. Intel doet het anders en maakt steeds nieuwe fabs de oude gebruiken ze dan voor chipsets etc....
Er is nog een tweede probleem, waarvan de impact nog groter kan zijn.

AMD investeerd gigantisch in nieuwe productietechnieken, maar als het tegen zit dan valt het beschikbaar komen exact op het moment dat de vraag inzakt. De kans is redelijk groot dat AMD even een pas op plaats moet maken door de goede C2D van Intel.
Geen probleem zal iedereen zeggen, enige jammere is dat de productiecapaciteit op dat moment te groot is, met alle negatieve gevolgen van dien. Een fabriek die op 80% draait is duurder dan eentje die op 90-100% draait.

Door dadelijk eerst een tekort te hebben, wat ook negatief werkt op de vraag in combinatie met het C2D effect kan Amd ineens de rode cijfers inschieten als de extra capaciteit beschikbaar komt.
Weer een hele boel overroepen komentaar, oud nieuws in een nieuw kleedje, Q4 is gestart, 65nm produktie is volop bezig, binnen dit en enkele weken stroomt alle mid stream uit 65nm. nu is AMD heel wat produktie kwijt door de ongeloofelijke vraag naar mobiele chips en OEM en ze moeten zich voorberieden aan een launch van een pak nieuwe procs (wat een doodsteek voor hen zou zijn als het een paperlaunch zou zijn). Om een groter marktaandeel te hebben moeten ze wel OEM erbijnemen, het mag dan nu wel effe krap zijn, das maar heel kort. En hoe meer ze zelf produceren met fab36 + 300mm hoe meer ze mogen uitbesteden (domme Intel regel, protectionisme)

C2D effect, iedereen gelooft hier in sprookjes al reageer je er 100 keer op dat dit is gewoon wishfull thinking en bekrompen gedachte. Q4 desktop van Intel is 75% netburst die ze moeten dumpen in prijs om aan de straatstenen (dankzij de naam) kwijt te kunnen. Het is niet voor niets dat Intel naar 45nm gaat, ze moeten wel door hun design (noem het goed of slecht, eigen keuze) is hun cache en daarmee hun core dus heel groot, nu AMD op 65nm over gaat zijn de procs maar bijna half zo groot als die van C2D. Dus ze moeten wel naar kleiner, en rarara om 2007 iets te kunnen doen, wat doen ze? mega cache vergroten etc...

En negatief na moeilijke levering...zo werkt een thuisgebruiker misschein wel, maar een OEM niet. Als je kijkt naar 2007 zijn alle grote OEM al constructies aan het maken voor de nieuwe AMD core en dit niet in hun huidige gama maar een extra reeks zowel desktop als server.
Q4 desktop van Intel is 75% netburst die ze moeten dumpen in prijs om aan de straatstenen (dankzij de naam) kwijt te kunnen.
Is dat wel zo? Toen de Core2 Duo er nog niet was, verkocht de Pentium nog prima, ondanks dat de Athlon64 een betere prijs/prestatieverhouding had. De naam Pentium doet een hoop goed. Ik denk dat dat nog steeds zo is... De meeste mensen weten nog niet eens wat een Core2 is, denk ik, maar Pentium is bij iedereen bekend. Ik denk dus dat Pentiums voorlopig nog wel goed blijven verkopen in budgetsystemen.
Ik denk ook niet dat het voor Intel zo'n heel groot probleem is... De Core2 staat de komende maanden garant voor grote verkoopcijfers. Ze komen wel over die Pentiums heen.
Het is niet voor niets dat Intel naar 45nm gaat, ze moeten wel door hun design (noem het goed of slecht, eigen keuze) is hun cache en daarmee hun core dus heel groot.
Zal wel meevallen, zo enorm groot is de C2D niet. 291M transistors, 143mm^2 op 65 nm.
Een Athlon64 X2 met 2x1mb cache is ook al 233M transistors... Als je het verrekent met de cachegrootte, valt het voor de C2D nog gunstig uit. Een X2 met 2x512kb cache is 154M, dus grof gezegd ben je 233-154 = 79M transistors kwijt aan 1 MB cache extra. Een Athlon64 X2 met 4 mb cache zou dus ongeveer 391M transistors hebben, dat is nog groter dan een Pentium D (wat natuurlijk deels ligt aan de memory controller, maar daar heeft AMD nu eenmaal voor gekozen).
Dat hun CPUs nu maar half zo veel transistors hebben is wel leuk, maar komt vooral omdat ze maar 1/4 van de cache van een C2D hebben, en dat mede daardoor de IPC ook lager uitvalt. Bij gelijke cache is de C2D overduidelijk de winnaar. Geen sprookje dus, je hebt gewoon je rekenwerk niet gedaan.
Conclusie is dus ook dat Intel AMD op 45 nm alleen nog maar meer pijn gaat doen. Ze kunnen hun CPUs dan nog kleiner en zuiniger maken, en misschien nog meer cores op een die kwijt. Of ze kunnen L3-cache ook op desktop-processors gaan invoeren, of iets in die geest. Ze hebben in ieder geval een aardige marge aan transistors die ze fijn kunnen gebruiken om de prestaties nog verder op te krikken.
En negatief na moeilijke levering...zo werkt een thuisgebruiker misschein wel, maar een OEM niet.
Ik denk dat het voor een OEM *juist* geldt. Als die OEM ervanuit gaat dat hij een bepaald aantal CPUs krijgt voor een bepaalde periode, en dus zoveel systemen verkoopt, dan heeft hij zelf ook een leveringsprobleem als hij de CPUs niet krijgt. Dat moet hij dan ook weer verantwoorden naar de klant... en wat dan weer een probleem voor AMD kan zijn is dat de klant dan niet wil wachten op AMD-CPUs, maar overgaat op Intel-systemen die wel leverbaar zijn, en dit misschien onthoudt voor de volgende keer, en dan meteen Intel-systemen koopt, vanwege de betere levering.
Wat me opvalt is dat sommige lezers de yields van en overstap naar C2D door Intel zo pessimistisch mogelijk proberen af te schilderen (terwijl in werkelijkheid Intel al langer ervaring heeft met 65nm [P4 en nieuwste revisies ervan] en de C2D voor servers, desktops en laptops ondertussen de snelste 'ramp-up' in de geschiedenis van Intel doorloopt en quadcores ook al van de band rollen), maar de overstap van AMD naar een voor dat bedrijf nieuw productieprocedé en het opstarten 2H volgend jaar van de nieuwe chipgeneraties juist erg optimistisch benaderen en zorgeloos lijken t.a.v. yields en leveringsproblemen. Is dat niet minstens een béétje tegenstrijdig redeneren of wishfull thinking?
maar de overstap van AMD naar een voor dat bedrijf nieuw productieprocedé en het opstarten 2H volgend jaar van de nieuwe chipgeneraties juist erg optimistisch benaderen en zorgeloos lijken t.a.v. yields en leveringsproblemen.
Ja, dat terwijl AMD zelf heeft aangekondigd om de komende maanden hun top-CPUs gewoon op 90 nm te blijven bakken (ook de Quadfather dus), omdat ze de yields nog niet op orde kunnen krijgen op 65 nm.
Sowieso verandert er dus niets bovenin het marksegment, wat AMD betreft. En AMD gaat daar meer en meer afhankelijk van worden omdat Intel met hun quadcode en steeds snellere Core2 Duo de grenzen van wat high-end is steeds verlegt.

Als de K8L niet het gat met de Core2 kan dichten, dan ziet het er de komende jaren zeer slecht uit voor AMD, de K8L is echt hun enige kans om weer aansluiting te krijgen op korte termijn.
Ik hoop voor AMD dat het lukt, maar ik geloof er eerlijk gezegd niet zo erg in. Ik verwacht dat de tweede generatie Core2 tegen die tijd weer een gevoelige tik uitdeelt, en 45 nm doet de rest.
En binnenkort kan AMD dit met slechts 10 M transistors, aangezien z-ram slechts 1 transistor per geheugencel vraagt. Intel zal 45 nm inderdaad nodig hebben om met dergelijke technologie te kunnen concurreren.
Wanneer is 'binnenkort'? Ik heb nog nergens iets concreets gelezen over wanneer z-ram in productie gaat. Dat betekent ongetwijfeld dat dat nog niet op 65 nm gebeurt. Wat dus waarschijnlijk inhoudt dat AMD straks nog zonder z-ram tegenover 45 nm chips van Intel komt te staan, die ook nog eens minder transistors nodig hebben voor betere prestaties. Veel succes, AMD!

Het is voor Intel overigens nooit zo'n groot probleem om te concurreren met processors met meer transistors. Ze hebben zich met de Pentium 4 ook aardig kunnen redden tegenover de Athlons, vanwege hun voorsprong op het gebied van productie. Een transistor kost altijd minder bij Intel, dus als ze straks wat meer nodig hebben vanwege z-ram, zal dat niet zo'n probleem zijn.
Zo heel veel gaat het nou ook weer niet schelen. Het is ook nog maar de vraag of die Athlon-processors zo veel profijt gaan hebben van meer cache. De L2-cache is niet shared, dus is niet echt efficient bij multithreading, en sowieso heeft het een hogere latency dan bij Intel.
Bij de Core2 Duo zie je ook al niet echt veel verschil meer tussen 2 mb en 4 mb L2-cache. Een overgeklokte E6300 kan goed meekomen met z'n 4 mb-broertjes, als de FSB en kloksnelheid gelijkgetrokken zijn.
http://www.amd-bilder.de/

Kijk bij de wafers, laatst toegevoegde wafer. Wanneer z-ram effectief in commerciële processoren zal gebruikt worden weet ik niet. Ik vermoed dat de Barcelona (of één van de revisies ervan) met de primeur zal komen.
Is dat wel zo? Toen de Core2 Duo er nog niet was, verkocht de Pentium nog prima, ondanks dat de Athlon64 een betere prijs/prestatieverhouding had
veruit het overgrote deel daarvan kwam van OEM verkopen, waar AMD nu dus ook een hele flinke voet in de deur heeft waar dar voorheen niet zo was (AMD was voor de meeste oems duidelijk een bijzaak).
op de retail markt zag je het aandeel intel cpu's wel gestaag dalen vanaf de introductie van de k8 tot ver onder de 50% (voor introductie k8 was het over de 75%)
veruit het overgrote deel daarvan kwam van OEM verkopen, waar AMD nu ook een hele dikke voet in de deur heeft waar dar voorheen niet zo was.
op de retail markt zag je het aandeel intel cpu's wel gestaag dalen vanaf de introductie van de k8 tot ver onder de 50% (voor introductie k8 was het over de 75%)
Maar Intel gaat steeds minder Pentiums en Celerons produceren, dus hoeven ze ook steeds minder te verkopen. Intussen komen er steeds meer Core2 processors voor in de plaats, en die drukken de AMDs weer weg. Hoe je het ook wendt of keert, Intel heeft een probleem dat zichzelf oplost, en op zijn beurt de problemen bij AMD groter maakt.
AMD heeft nu nog een kans, omdat de Core2 nog niet op volle productie is, maar ze kunnen geen processors leveren. Straks mogen ze de kruimels oprapen die Intel laat liggen, zoals het voor de K8 altijd geweest is (K7 had dan wel aardige prijs/prestatie, maar werd nauwelijks door OEMs gebruikt vanwege slechte chipsets en hitteproblemen, dat wil je als OEM niet ondersteunen).

Ik wil nog wel eens cijfers zien... Intel was dan wel van plan om maar 25% van hun productie voor Core2 te gebruiken, maar misschien was dat wel wat conservatief, en gaan ze het uitfaseren van de Pentiums en Celerons wel versnellen nu blijkt dat de vraag naar Core2 zo groot is.
Ik ben benieuwd hoe het nou eigenlijk zit... Hoeveel Pentiums en Celerons worden er daadwerkelijk nog gemaakt... hoeveel kost Intel dat nou (R&D is intussen al lang en breed binnen, gaat puur on kosten van productie), hebben ze nog onverkochte voorraden, en kunnen ze sneller op Core2 overschakelen dan gepland?
eind dit jaar zouden ze pas op 25% core2 zitten.
en een fabriek switchen naar iets anders dat doe je niet zo maar even. teminste intel niet, daar zijn hun fabrieken gewoon niet op ingericht (AMD is een heel stuk flexibler in dat opzicht, uit noodzaak, want ze hadden maar 1 fabriek)
kan zijn dat intel in 2007 sneller helemaal op core2 over gaan, maar voor die tijd zie ik intel nog niet veel veranderen. (en dan zitten nogsteeds met een enorme voorraad netburst die ze ook nog kwijt moeten)

en tegen die tijd heeft AMD 65nm + 300mm op gang en 6 maanden laten komt de k8L er al aan, die naar alle waarschijnlijkheid clock voor clock weer dicht bij de core2 komt te liggen.
als alles een beetje mee zit voor AMD dan kunnen ze met goedkope chips gemaakt op 65nm uit 300mm wafers weer het bovenste deel van het midden segment terug veroveren met verbeterde bang for buck door nog een prijs verlaging door te voeren.
hun leiding in het budget en lage midden klassen sigment houden ze zowizo, omdat intel geen bugdet core2's heeft(en dat kunnen ze nog niet doen vanwegen die netbursts in de pakhuizen).
en het laptop en server sigment blijven voorloopig gewoon goed gaan.
die 9 maanden vanaf nu (ongeveer) tot de K8L er is zijn voor AMD dus makelijk te overleven dus zonder veel markt verlies.
alleen het high end sigment zijn ze dus even echt kwijt, maar dat is een sigment wat je ook heel makelijk weer terug veroverd, gewoon door de snelste te hebben.
en een fabriek switchen naar iets anders dat doe je niet zo maar even. teminste intel niet, daar zijn hun fabrieken gewoon niet op ingericht (AMD is een heel stuk flexibler in dat opzicht, uit noodzaak, want ze hadden maar 1 fabriek)
Waarom niet? Pentiums worden al een tijd op hetzelfde 65 nm-proces gemaakt als de Core2 Duo. Verder is het allebei een LGA-775 pakketje.
Ik zie het probleem niet zo. Nieuw maskertje instellen en je bent er al bijna.
hun leiding in het budget en lage midden klassen sigment houden ze zowizo
Misschien moet je het nieuwsbericht even lezen: ze komen productiecapaciteit tekort, waardoor ze hun marktaandeel niet vast kunnen houden. Dat marktaandeel is sowieso grotendeels budget/lage middenklasse, omdat de high-end markt veel kleiner is.
Hier op tweakers.net merken mensen de gevolgen al. Grote OEMs als Dell en HP worden voorgetrokken, waardoor bij kleinere fabrikanten en in de losse verkoop al bijna geen Athlons meer te krijgen zijn.
(en dat kunnen ze nog niet doen vanwegen die netbursts in de pakhuizen).
Heb je daar cijfers en bronnen voor? Dit wordt wel vaak geroepen hier op tweakers, maar ik heb nergens een nieuwsbericht gezien erover, laat staan harde cijfers, dus waar hebben we het precies over?
Dell verkoopt nog volop Pentium en Celeron-systemen, dus dat ruimt al lekker op.
alleen het high end sigment zijn ze dus even echt kwijt, maar dat is een sigment wat je ook heel makelijk weer terug veroverd, gewoon door de snelste te hebben.
Ja, heel makkelijk om 'even' de snelste processor te bouwen... :)
Je vertrouwen in AMD maakt echt m'n hele dag goed :)
Waarom niet? Pentiums worden al een tijd op hetzelfde 65 nm-proces gemaakt als de Core2 Duo. Verder is het allebei een LGA-775 pakketje.
Ik zie het probleem niet zo. Nieuw maskertje instellen en je bent er al bijna.
o ja natuuuuuuuuurlijk de yields worden dan vanzelf goed.
daar hoeft je verder helemaaaaaal geen tijd in te stoppen.
Wat me opvalt is dat sommige lezers de yields van en overstap naar C2D door Intel zo pessimistisch mogelijk proberen af te schilderen
niemand heeft het gehad over de yeilds van de core2.
maar intel heeft zelf aangegeven dat niet meer van de 25% van hun cpu productie core2 zal zijn tot aan het einde van 2006.
Ja, dat terwijl AMD zelf heeft aangekondigd om de komende maanden hun top-CPUs gewoon op 90 nm te blijven bakken (ook de Quadfather dus), omdat ze de yields nog niet op orde kunnen krijgen op 65 nm.
het eerste deel van wat je zegt is waar het 2de (over de yields) is dat niet persee.
ditzelfde heeft AMD gedaan bij eigenlijk elke die-shrink die AMD heeft uitegevoerd.
zo lopen ze en geen risicos met de yield van de high end modelen, en kunnen ze meer budget en mid range producren waar de die shrik het meeste extra geld op leverd.
AMD zou dus precies het zelfde doen hoe goed of slecht de yields ook zijn. en aangezien AMD niks zegt over de yields behalve dat ze "on track" zijn kunnen wij daar ook niks over zeggen.
Ik hoop voor AMD dat het lukt, maar ik geloof er eerlijk gezegd niet zo erg in. Ik verwacht dat de tweede generatie Core2 tegen die tijd weer een gevoelige tik uitdeelt, en 45 nm doet de rest.
die 2de generatie core2 is niet veel meer als een die shrik en een cache vergroting.
die shrik is leuk, maar die extra cache heeft met een ontwerp als de core2 gewoon lang niet zo veel effect als het had met de netburst. ik verwacht daar dus geen wonderen van.
o ja natuuuuuuuuurlijk de yields worden dan vanzelf goed.
daar hoeft je verder helemaaaaaal geen tijd in te stoppen.
Dat heeft er helemaal niets mee te maken. Intel heeft gewoon al een x-aantal fabrieken ingericht voor 65 nm, met vergelijkbare apparatuur. Als ze het proces in 1 fabriek tweaken voor betere yields, kunnen ze dat vrijwel zonder aanpassingen overnemen voor de andere.
Als de Pentium niet goed meer verkoopt, zijn de yields ook niet interessant. Kun je beter Core2 gaan maken met wat mindere yields, en ook daadwerkelijk verkopen.
Maar aangezien de C2D een stuk kleiner is, en minder heet wordt, zullen de yields vast beter zijn, het is eenmaal een stuk minder kritisch.
AMD zou dus precies het zelfde doen hoe goed of slecht de yields ook zijn. en aangezien AMD niks zegt over de yields behalve dat ze "on track" zijn kunnen wij daar ook niks over zeggen.
Dit is onzin. Als de yields goed zijn, betekent dat dat AMD over kan van het dure 90 nm proces naar het goedkopere 65 nm proces. Dit willen ze dus zo snel mogelijk. Sowieso omdat AMD steeds verder afzakt, en met de 90 nm modellen nu al eigenlijk in de mid-range van de Core2 valt, terwijl de prijzen nog high-end zijn.
Dat kunnen ze niet eeuwig volhouden, ze *moeten* naar 65 nm met hun snelste modellen.
die 2de generatie core2 is niet veel meer als een die shrik en een cache vergroting.
En lager verbruik, en een quadcore op enkele die... Waarschijnlijk ook hogere kloksnelheid, en misschien zelfs een octacore.
Verwacht je daar ook geen wonderen van? Ik ook niet echt, maar ik verwacht wel dat K8L achter de feiten aan blijft lopen. Dat is 'wonder' genoeg.
Dit is onzin. Als de yields goed zijn, betekent dat dat AMD over kan van het dure 90 nm proces naar het goedkopere 65 nm proces. Dit willen ze dus zo snel mogelijk.
nee dat is onzin.
AMD heeft nu 2 fabrieken. eentje 90nm/200mm
en eentje 65nm/300mm.
die eerste fabriek kan gewoon lekker door produceren daar hoeft AMD helemaal niks aan te veranderen, want dat veranderen kost ze veel geld.
de 2de fabriek is nu in volle productie en AMD wacht even af om te kijken of alles volgens plan verloopt, en maakt daar budget en midrange modellen, gewoon omdat die het makelijkst zijn, je daar minder risico mee loopt en omdat mocht het wat tegen zitten ze niet komen te zitten met een tekort aan high end 65nm modelen waar wel veel vraag naar zou kunnen zijn.
als de yields hoog genoeg blijken te zijn gaan ze ook high end 65nm modelen producren, en dan gaan ze die hele eerste fabriek opnieuwe ombouwen voor de productie van 300mm wafers
die ombouwing is zo ingrijpend dat AMD die hele fabriek gaat omdopen naar fab 38, voor dat ze daar aan beginnen willen ze gewoon zeker weten dat alles in orden is met fab36.

dus ipv de 1ste fabriek stil te leggen, of hem voor veel geld om te bouwen wat over 6 maanden weggegooid geld is omdat ze de hele fabriek gaan verbouwen laten ze fab1 gewoon door draaien. dat is veruit de goedkoopste oplossing.

er is dus voor AMD geen enkele reden waarom ze nu persee al naar 65nm zouden moeten met al hun chips.
daarbij, nu aan fab30 morren met een omschakkeling naar 65nm zou funest kunnen zijn voor productie, een risico dat ze ZEKER NU gewoon niet kunnen lopen.

natuurlijk moeten ze ook over op 65nm met de tijd maar dat hoeft niet nu persee stantapede. 3 of 6 maanden later is ook prima als ze zeker zijn dat fab36 goed draaid.
en op de 90nm onderdelen maken ze nog gewoon winst.

en zoals gezegt, AMD doet precies het zelfde bij ELKE die shrik die ze tot nu toe hebben uitgevoerd.
het zegt dus helemaal totaal absolut nog helemaal niks over de yeilds van 65nm bij AMD.
En lager verbruik, en een quadcore op enkele die... Waarschijnlijk ook hogere kloksnelheid, en misschien zelfs een octacore.
Verwacht je daar ook geen wonderen van? Ik ook niet echt, maar ik verwacht wel dat K8L achter de feiten aan blijft lopen. Dat is 'wonder' genoeg.
lager verbruik : check (65nm) (AMD's verbruik doet nu ook niet onder voor dat van intel trouwens en dat met het 90nm vs 65nm, iniedergeval niet bij de mid range of budget)
single die quad core : check (k8L)
hogere kloksnelheid : check (65nm + k8L) (hoeveel is afwachten natuurlijk)
en de dual-quadcore in 1 socket.
8 cores op een FSB van 1333mhz waar zowel geheugen access over moet als de communicatie tussen beide quad cores.
ik denk niet dat ik heel erg onder de indruk zal zijn van de prestaties van die octocores.
die eerste fabriek kan gewoon lekker door produceren daar hoeft AMD helemaal niks aan te veranderen, want dat veranderen kost ze veel geld.
Niet veranderen betekent dat ze blijven concurreren met een CPU van 700e tegen een CPU van 300e, dat kost ze ook veel geld. Hoe quadfather en Core2 Quad zich qua prijs gaan verhouden, wil ik niet eens weten... Moet AMD ongelofelijk veel pijn gaan doen.
dus ipv de 1ste fabriek stil te leggen, of hem voor veel geld om te bouwen wat over 6 maanden weggegooid geld is omdat ze de hele fabriek gaan verbouwen laten ze fab1 gewoon door draaien. dat is veruit de goedkoopste oplossing.
Ik zeg niet dat ze een fabriek stil moeten leggen, ik zeg dat ze zo snel mogelijk om moeten, vanuit economisch oogpunt. Ik weet ook wel dat ze vanwege allerlei belemmeringen nog niet om kunnen, maar ze zullen wel moeten.
er is dus voor AMD geen enkele reden waarom ze nu persee al naar 65nm zouden moeten met al hun chips.
Die is er wel, hun CPUs zijn te duur en te traag, ze kunnen alleen niet.
Een andere reden is dat ze te weinig productiecapaciteit hebben (zie dit nieuwsartikel)... met 65 nm en 300 mm wafers kunnen ze meer produceren met dezelfde grondstoffen. Nog een reden om zsm over te gaan.
en zoals gezegt, AMD doet precies het zelfde bij ELKE die shrik die ze tot nu toe hebben uitgevoerd.
het zegt dus helemaal totaal absolut nog helemaal niks over de yeilds van 65nm bij AMD.
Ja, Intel doet ook hetzelfde, het verschil is alleen dat Intel dat al ruim een jaar geleden heeft gedaan.
lager verbruik : check (65nm) (AMD's verbruik doet nu ook niet onder voor dat van intel trouwens en dat met het 90nm vs 65nm, iniedergeval niet bij de mid range of budget)
Bij AMD is het verbruik nog maar afwachten op 65 nm, het zou net als bij Intel tegen kunnen vallen in het begin.
Intel daarentegen heeft zeer positieve berichten de wereld in gebracht over hun 45 nm-proces.
hogere kloksnelheid : check (65nm + k8L) (hoeveel is afwachten natuurlijk)
Ik denk van niet. Pipeline is bij mijn weten niet verlengd, dus dat probleem blijft.
en de dual-quadcore in 1 socket.
8 cores op een FSB van 1333mhz waar zowel geheugen access over moet als de communicatie tussen beide quad cores.
ik denk niet dat ik heel erg onder de indruk zal zijn van de prestaties van die octocores.
Ik denk dat de octacore de vloer gaat aanvegen met alles dat AMD heet.
Wedden om een high-end CPU?
Als ik gelijk krijg, koop jij voor mij een Intel octacore. Als jij gelijk krijgt, koop ik voor jou een AMD quadcore.
jesus jij hebt best wel oogkleppen op he.
jij ziet geloof ik echt alleen de high end tweaker markt of niet.
er is meer onder de zon en daar gaat VEEL meer geld in om als in de high end markt, dat zijn de budget en de mainstream markt.
daar zijn AMD's CPU's nog traag nog duur en verbruiken nog minder ook dan intels.

die paar quadfathers die nog met 90nm worden gemaakt zijn echt niet zo duur voor AMD. en omdat 65nm er is kosten ze niet ineens meer ofzo hoor (en dat lijk jij wel te denken).
zoals ik al gezegt hebt 90nm leverd AMD nosteeds geld op.
met 65 nm en 300 mm wafers kunnen ze meer produceren met dezelfde grondstoffen. Nog een reden om zsm over te gaan
en weer oog kleppen. ze ZIJN OVER. ze produceren al 2+ maanden 65nm cpus op 300mm waffers
volgende maand komen de 65nm in de winkels te liggen.
met die nieuwe fabriek hebben ze in een klap hun productie capacitijd ver viervoudiged (300mm levernd meer als 2 keer zo veel chips op en 65nm lever ook bijna 2 keer zoveel chips op).
zelfs als de yields tegen vallen zal dat nogsteeds ruim voldoende zijn.
alleen dus nog niet die high end modelen waar jij totaal op gefixeerd bent.
Ja, Intel doet ook hetzelfde, het verschil is alleen dat Intel dat al ruim een jaar geleden heeft gedaan.
ok al lang uitgelegt waarom dat zo is, achter lopen is een strategische zet van AMD omdat ze zo het goedkoopste uit zijn in de verhouding ontwikkel kosten/productie kosten besparing.
maar zowel op kosten/opbrengts verhouding als op het verbruik weten ze intel denondanks meestal voor te blijven dan wel gelijk te lopen.
Bij AMD is het verbruik nog maar afwachten op 65 nm, het zou net als bij Intel tegen kunnen vallen in het begin.
Intel daarentegen heeft zeer positieve berichten de wereld in gebracht over hun 45 nm-proces.
AMD's 65nm lijkt totaal niet op intels 65nm.
intel heeft weinig toegevoegt met de verandering naar 65nm AMD daarintegen wel, met onderandere verbeterde strained silisium on insulator technieken die tot 25% hogere kloksnelheden mogenlijk zou moeten maken boven op de extra snelheid die al mogenlijk zou zijn door de overstap naar 65nm alleen.
Ik denk van niet. Pipeline is bij mijn weten niet verlengd, dus dat probleem blijft.
pipeline lengte is LANG niet de enige factor in het ontwerp die de kloksnelheid bepaald. een groot deel van de maxium kloksnelheid word bepaald door de afstanden die de data moet afleggen binnen de chip bijvoorbeeld. dat efficenter doen zou bijvoorbeeld al extra kloksnelheid kunnen opleveren.
ook door het stratische plaatsen van transistoren die hoger kunnen klokken (maar in ruil daarvoor meer verbuiken) kan je de kloksnlheid verhogen.
zo zijn er nog tich andere factoren die meespelen.
Ik denk dat de octacore de vloer gaat aanvegen met alles dat AMD heet.
Wedden om een high-end CPU?
Als ik gelijk krijg, koop jij voor mij een Intel octacore. Als jij gelijk krijgt, koop ik voor jou een AMD quadcore.
ik denk dat als je hem echt 8 thread te verwerken geeft hij helemaal fast loopt vanwegen een enorm bandbreedte tekort.
tuurlijk hij kan in een aantal dingen wel sneller zijn, maar voornamelijk in synthesiche benchmarks.
vind maar eens een realworld applicatie die niet bandbreedte hongerig is die een octocore volledig aan het werk kan houden.
een quad core aan het werk houden zal al lastig genoeg zijn thuis, laat staan een octocore.
dat veranderd niet binnen een jaar.

je realizeerd je dat je met een octo core met een 1333mhz FSB per core maar 166mhz aan bandbreedte overhoudt per core? dat is weer terug naar de bandbreedte uit de tijd van de pentium3. maar nu moet er niet alleen geheugen data overheen maar ook nog eens de die naar die communicatie.
zowel op papier als in de real world, zal hij gewoon nog niet de helft van zijn potentiele snelheid kunnen gebruiken.
als je me niet geloofd, zie intels 4-way server preformance met dual cores op mobo's zonder dubbel uitgevoerde FSB. want dat is zo ongeveer wat je dan zult krijgen.
Ter ondersteuning aan Countess: De AMD productietechniek zorgt al voor zo hoog mogelijke yields daar zij de chips tijdens het etsen kunnen aanpassen mocht er iets mis gaan!
Dit betekent dat de Yields altijd hoger zullen zijn dan de yields van Intel!
Ze beginnen gewoon met hogere modellen te produceren en als hier wat in "mis" gaat dan worden het dus lagere modellen die zonder problemen kunnen werken.
Als er wat misgaat in de productie van een wafer bij Intel kunnen ze die wafer meteen weer om laten smelten als grondstof voor een nieuwe wafer. Dit betekent dus ook meteen hogere kosten die AMD dus niet heeft.

Ziedaar de reden waarom AMD niet zo snel bang hoeft te zijn marktaandeel in te leveren!
jesus jij hebt best wel oogkleppen op he.
jij ziet geloof ik echt alleen de high end tweaker markt of niet.
er is meer onder de zon en daar gaat VEEL meer geld in om als in de high end markt, dat zijn de budget en de mainstream markt.
daar zijn AMD's CPU's nog traag nog duur en verbruiken nog minder ook dan intels.
Nee, JIJ hebt oogkleppen op.
De snelste Athlon is nu al zo'n 40% trager dan de snelste Core2 Duo. Waardoor het eigenlijk niet eens meer de moeite waard is om over high-end te spreken.
De snelste Athlon komt net mee met de Core2 Duo E6600 van 300e, en dat is dus niet high-end maar mid-end. Alleen de prijs van die Athlon is nog high-end, maar daar trapt de gemiddelde tweaker al lang niet meer in. Die weet al lang dat de Core2 Duo veel meer bang for the buck levert, en ook nog eens veel verder overklokt.
Volgende week introduceert Intel de quadcore, waardoor de Athlons helemaal gedegradeerd worden uit het high-end segment. En AMD heeft daar zeker een half jaar lang geen antwoord op, behalve een omgebouwde Opteron, die ze met verlies moeten verkopen om hun gezicht te redden, en dan nog veel duurder dan de Intel. Hoogstwaarschijnlijk ook nog steeds een stuk trager.
en weer oog kleppen. ze ZIJN OVER. ze produceren al 2+ maanden 65nm cpus op 300mm waffers
Ze zijn niet over, ze zijn aan het voorbereiden. Er is nog geen 65 nm CPU te krijgen, en 'high-end' zal zeker nog een half jaar op 90 nm gemaakt blijven worden.
met die nieuwe fabriek hebben ze in een klap hun productie capacitijd ver viervoudiged (300mm levernd meer als 2 keer zo veel chips op en 65nm lever ook bijna 2 keer zoveel chips op).
Vandaar zeker dit nieuwsbericht.
alleen dus nog niet die high end modelen waar jij totaal op gefixeerd bent.
Wat jij high-end noemt, is middenklasse. Jij steekt hier je kop in het zand.
ok al lang uitgelegt waarom dat zo is, achter lopen is een strategische zet van AMD omdat ze zo het goedkoopste uit zijn in de verhouding ontwikkel kosten/productie kosten besparing.
Ik begrijp wel waarom het is, maar jij begrijpt niet dat AMD die positie ontstegen was vanwege het succes van de Athlon, en dat ze nu deze positie weer compleet uit handen geven, en in de problemen gaan komen.
AMD's 65nm lijkt totaal niet op intels 65nm.
intel heeft weinig toegevoegt met de verandering naar 65nm AMD daarintegen wel, met onderandere verbeterde strained silisium on insulator technieken die tot 25% hogere kloksnelheden mogenlijk zou moeten maken boven op de extra snelheid die al mogenlijk zou zijn door de overstap naar 65nm alleen.
Eerst zien, dan geloven. Voorlopig heeft AMD alleen maar *langzamere* processors aangekondigd op 65 nm. De nieuwe 5600+/6000+ en FX-7x zijn gewoon nog op 90 nm, en slurpen energie alsof het de Pentium D zelf is: nieuws: AMD 4x4-platform gebaseerd op Socket 1207
pipeline lengte is LANG niet de enige factor in het ontwerp die de kloksnelheid bepaald. een groot deel van de maxium kloksnelheid word bepaald door de afstanden die de data moet afleggen binnen de chip bijvoorbeeld. dat efficenter doen zou bijvoorbeeld al extra kloksnelheid kunnen opleveren.
ook door het stratische plaatsen van transistoren die hoger kunnen klokken (maar in ruil daarvoor meer verbuiken) kan je de kloksnlheid verhogen.
zo zijn er nog tich andere factoren die meespelen.
Desondanks merken we daar de komende maanden nog niets van, als we de roadmaps moeten geloven. De snelste CPU blijft de FX-72 op 3.0 GHz, en dat is op 90 nm. De snelste 65 nm-CPU is slechts 2.6 GHz, terwijl er nu al 2.8 GHz te koop is op 90 nm.
Kortom, geen verhoging van kloksnelheid door 65 nm.
ik denk dat als je hem echt 8 thread te verwerken geeft hij helemaal fast loopt vanwegen een enorm bandbreedte tekort.
Dan begrijp je niet zo veel van software en multithreading. Ik denk dat hij met bv 3dsmax bijna 2x zo snel is als een quadcore, die op zijn beurt weer 2x zo snel is als een dualcore.
En nee, dat is geen synthetische benchmark, dat is een professionele realworld applicatie.
je realizeerd je dat je met een octo core met een 1333mhz FSB per core maar 166mhz aan bandbreedte overhoudt per core?
Zo werkt het niet. Je kijkt alleen naar het gemiddelde. Maar ik krijg een deja-vu want ik heb dit al in een eerdere thread uitvoerig geprobeerd uit te leggen. Je snapt het niet of wilt het niet snappen. Zoek anders maar terug in mijn posts, dan vind je het verhaal wel ergens.
Nee, JIJ hebt oogkleppen op.
De snelste Athlon is nu al zo'n 40% trager dan de snelste Core2 Duo. Waardoor het eigenlijk niet eens meer de moeite waard is om over high-end te spreken.
De snelste Athlon komt net mee met de Core2 Duo E6600 van 300e, en dat is dus niet high-end maar mid-end. Alleen de prijs van die Athlon is nog high-end, maar daar trapt de gemiddelde tweaker al lang niet meer in. Die weet al lang dat de Core2 Duo veel meer bang for the buck levert, en ook nog eens veel verder overklokt.
Volgende week introduceert Intel de quadcore, waardoor de Athlons helemaal gedegradeerd worden uit het high-end segment. En AMD heeft daar zeker een half jaar lang geen antwoord op, behalve een omgebouwde Opteron, die ze met verlies moeten verkopen om hun gezicht te redden, en dan nog veel duurder dan de Intel. Hoogstwaarschijnlijk ook nog steeds een stuk trager.
o god o god waar te beginnen.
WEER kijk je alleen naar de bovenkant van de markt.
bij ALLES onder de 200-230 euro doen de AMD's het gewoon goed. en waar gaat veruit het meeste geld in om?
juist alles onder de 200 euro.

de quadfather met verlies verkopen? bewijs? je lult uit je nek.
ze kunnen nu ook qua oppervalkte vergelijkbare 90nm chips verkopen voor ver onder de 200 euro. waarom zou er dan op de quadfathers verlies gemaakt worden?
weer lijk je te denken dat 90nm ineens duurder is geworden nu 65nm er is.
Ze zijn niet over, ze zijn aan het voorbereiden. Er is nog geen 65 nm CPU te krijgen, en 'high-end' zal zeker nog een half jaar op 90 nm gemaakt blijven worden.
NOGMAALS ze maken al 2 maanden 65nm CPUs voor de introductie volgende maand, ze moeten namelijk voorraad hebben.
ik heb al eerder gezegt dat volgende maand de leverings problemen verdwenen zullen zijn.

"According to Toralf Gueldner, director of production at AMD's Dresden fabs, the company has been able to produce 65 nm products since June. This has been followed by 'full flow' this month [September 2006]"
Vandaar zeker dit nieuwsbericht.
zie hierboven.
Wat jij high-end noemt, is middenklasse. Jij steekt hier je kop in het zand.
middenklassen noem ik 150 tot 300 euro. onder de 200-230 euro doet AMD het gewoon nog prima na de prijs verlagingen.
Ik begrijp wel waarom het is, maar jij begrijpt niet dat AMD die positie ontstegen was vanwege het succes van de Athlon, en dat ze nu deze positie weer compleet uit handen geven, en in de problemen gaan komen.
het succes van de athlon heeft helemaal geen invloed op het koste/baten plaatje van het productie process.
de hoeveelheid geproduceerde chips heeft dat wel.
en je ziet ook nu AMD een 2de fabriek heeft gebouwt zijn ze ook van plan hun achterstand op intel op het gebied van productie process te verkleinen naar 6 tot 9 maaden waar het hiervoor 1 tot 1.5 jaar was.
gewoon omdat het ze nu wel extra geld op leverd waar het daarvoor dat niet deed.
Eerst zien, dan geloven. Voorlopig heeft AMD alleen maar *langzamere* processors aangekondigd op 65 nm. De nieuwe 5600+/6000+ en FX-7x zijn gewoon nog op 90 nm, en slurpen energie alsof het de Pentium D zelf is:
en weer, kijk eens naar het midden segment waar AMD het op preformance per watt gebied helemaal niet slecht doet, ook niet tegenover de conroe's.
zeker niet als je het geheel systeem bekijkt en niet alleen de cpu.
Desondanks merken we daar de komende maanden nog niets van, als we de roadmaps moeten geloven. De snelste CPU blijft de FX-72 op 3.0 GHz, en dat is op 90 nm. De snelste 65 nm-CPU is slechts 2.6 GHz, terwijl er nu al 2.8 GHz te koop is op 90 nm.
Kortom, geen verhoging van kloksnelheid door 65 nm.
nee natuurlijk niet want de K8L komt pas over een maand of 9 uit. en waarom er nu nog geen higher end 65nm onderdelen komen hebben we het al over gehad.
en waarom dat geen ramp is voor AMD ook al.

waar we wel wat van gaan merken is het verlaagde
verbruik van 65nm met zich mee brengt trouwens en dat merken we volgende maand al.
Dan begrijp je niet zo veel van software en multithreading. Ik denk dat hij met bv 3dsmax bijna 2x zo snel is als een quadcore, die op zijn beurt weer 2x zo snel is als een dualcore.
En nee, dat is geen synthetische benchmark, dat is een professionele realworld applicatie.
en hoeveel mensen zitten thuis de hele dag 3dmax te renderen?
leuk voor in een workstation misshien maar waarom intel het introduceerd voor de thuis markt is me een compleet raadsel.
en in een workstation ben je waarschijnlijk beter af met een 2way systeem met 2 quad cores en een dubbel uitgevoerde FSB.
Zo werkt het niet. Je kijkt alleen naar het gemiddelde. Maar ik krijg een deja-vu want ik heb dit al in een eerdere thread uitvoerig geprobeerd uit te leggen. Je snapt het niet of wilt het niet snappen. Zoek anders maar terug in mijn posts, dan vind je het verhaal wel ergens.
ik weet wat je wilt zeggen en je hebt niet geheel ongelijk maar het is en blijft een feit dat deze dual-quad core gewoon een enorm te kort aan bandbreedte heeft.
o god o god waar te beginnen.
WEER kijk je alleen naar de bovenkant van de markt.
bij ALLES onder de 200-230 euro doen de AMD's het gewoon goed. en waar gaat veruit het meeste geld in om?
juist alles onder de 200 euro.
doe je ogen eens open zeg.
Onder de 200 euro is de onderkant van de markt. Ik kijk naar het middensegment, tot zo'n 500e. Daar is AMD al slecht vertegenwoordigd, en daarboven doen ze gewoon niet mee.
de quadfather met verlies verkopen? bewijs? je lult uit je nek.
ze kunnen nu ook qua oppervalkte vergelijkbare 90nm chips verkopen voor ver onder de 200 euro. waarom zou er dan op de quadfathers verlies gemaakt worden?
weer lijk je te denken dat 90nm ineens duurder is geworden nu 65nm er is.
Oppervlakte misschien wel, maar nu moeten die chips ook nog eens op 3 GHz gaan lopen, en de yield daarvan zal laag zijn. Zeker aangezien ze weer terug moeten naar de 2x1 mb modellen, die ze eerder verlaten hadden vanwege de slechte yields.
90 nm is niet duurder geworden, maar de prijs/prestatie-verhouding is door de introductie van de Core2 Duo wel totaal veranderd, waardoor de 90 nm chips relatief duur zijn geworden. AMD heeft de prijzen wel verlaagd, maar dat ging uiteraard flink ten koste van de winstmarge. Als ze echt nog zo veel winst maken op die CPUs, waarom trekken ze de prijzen dan niet gelijk? Het is gewoon lachwekkend dat een CPU van 700e moet concurreren met een CPU van 300e.
NOGMAALS ze maken al 2 maanden 65nm CPUs voor de introductie volgende maand, ze moeten namelijk voorraad hebben.
Dat zeg ik, ze zijn nog niet om, ze liggen nog niet in de winkels, en zitten nog niet in kant-en-klare PCs. Alles wat AMD verkoopt is 90 nm.
ik heb al eerder gezegt dat volgende maand de leverings problemen verdwenen zullen zijn.
Ja, die verdwijnen als sneeuw voor de zon!
middenklassen moen ik 150 tot 300 euro. onder de 200-230 euro doet AMD het gewoon nog prima na de prijs verlagingen.
Dus je geeft toe dat ook volgens jouw definitie AMD het in de hogere middenklasse (230-300e) niet zo goed doet.
en weer, kijk eens naar het midden segment waar AMD het op preformance per watt gebied helemaal niet slecht doet, ook niet tegenover de conroe's.
zeker niet als je het geheel systeem bekijkt en niet alleen de cpu.
Kijk jij eens een paar maanden vooruit, als Intel nog een paar stapjes snelheid erbij maakt, en de prijzen nog wat verlaagt. Dan heb je ineens een E6600 in het segment onder de 230e (hoeft maar zo'n 70e te zakken, da's niet veel)... Doet AMD het dan nog steeds goed? Lijkt me niet, want alleen de FX-62 kan hem aan (of straks misschien een 5400+ of hoger), en dat is een 90 nm chip van 700e. Die kan AMD onmogelijk voor rond de 230e gaan verkopen, en straks is dat het middensegment.
Al die leuke nieuwe 65 nm-chips zijn dan gewoon gedegradeerd tot low-budgetmeuk.
nee natuurlijk niet want de K8L komt pas over een maand of 9 uit. en waarom er nu nog geen higher end 65nm onderdelen komen hebben we het al over gehad.
en waarom dat geen ramp is voor AMD ook al.
Waarom het wel een ramp is voor AMD, bedoel je.
en hoeveel mensen zitten thuis de hele dag 3dmax te renderen?
leuk voor in een workstation misshien maar waarom intel het introduceerd voor de thuis markt is me een compleet raadsel.
Tsja, de Athlon FX was destijds ook onzin voor thuis, veel te duur en veel te snel. Maar toen hoorde ik je niet klagen. Dit is gewoon zoals altijd een CPU voor de 'hardware-enthusiast' zoals dat zo mooi heet in het Engels. Beetje de sportwagen onder de CPUs.
Het gaat erom dat Intel die CPU kan leveren, en nog tegen een redelijke prijs ook. Er komt een versie uit van rond de 800e, da's maar 100e duurder dan een FX-62 nu.
en in een workstation ben je waarschijnlijk beter af met een 2way systeem met 2 quad cores en een dubbel uitgevoerde FSB.
Dat kan ook, want de Xeon DP (Clovertown) wordt tegelijkertijd geintroduceerd met de Core2 Quad (Kentsfield).
Ik weet wat je wilt zeggen en je hebt niet geheel ongelijk maar het is en blijft een feit dat deze dual-quad core gewoon een enorm te kort aan bandbreedte heeft.
Nee, ik heb helemaal gelijk. Maar mensen als jij hebben ofwel te weinig kennis van zaken om het te snappen, of ze zijn te blind voor een bepaald merk om het te snappen.
Dit is echt de bandbreedte-mythe.
Kijk liever naar de Athlon64 met z'n ingebouwde memorycontroller. Hij wint iedere bandbreedte-benchmark met gemak van de snelste Core2 Duo, maar hij kan geen enkele andere benchmark winnen, dus hij kan de bandbreedte niet omzetten in prestaties. Lekker belangrijk dus, veel bandbreedte.
Het gaat er veel meer om wat je met je bandbreedte doet, en Intel heeft een hele efficiente shared cache in de CPU, en ook wat slimmigheidjes in de chipset, waardoor er heel goed met de beschikbare bandbreedte om wordt gegaan. En daarom maakt de Core2 Duo gehakt van de Athlon, ondanks lagere bandbreedte en hogere latency. De Core2 Quad zal het ook best goed doen met de 'beperkte' bandbreedte.
Ik maak me meer zorgen over het gebrek aan shared cache in de Athlon, waardoor de quadfather waarschijnlijk nog veel meer problemen gaat krijgen met communicatie van core tot core.
Verder maak ik me zorgen over het plaatsen van twee processors met een TDP van ieder 125w op een enkel moederbord (terwijl de Kentsfield en Clovertown een TDP van 80w meekrijgen!).
Ik maak me ook zorgen om de kosten van twee processors, het moederbord dat daarbij hoort, de koeling, de 4 geheugenmodules die ik MOET kopen, vanwege twee dualchannel controllers, en de voeding.
En dan maak ik me zorgen of dat hele gevaarte uiteindelijk nog de snelheid van een Core2 Quad kan bereiken... Gezien het verschil in aanschafprijs en stroomverbruik, zou het geen schande zijn als de quadfather sneller zou zijn... Maar andersom zou het de afgang van de eeuw zijn.
Onder de 200 euro is de onderkant van de markt. Ik kijk naar het middensegment, tot zo'n 500e. Daar is AMD al slecht vertegenwoordigd, en daarboven doen ze gewoon niet mee.
dan verschillen we hierover van mening.
maar gezien de verkoop cijfers van chips boven de 300 euro word er bij jouw maar heel weinig verkocht in het midden sigment.
Oppervlakte misschien wel, maar nu moeten die chips ook nog eens op 3 GHz gaan lopen, en de yield daarvan zal laag zijn. Zeker aangezien ze weer terug moeten naar de 2x1 mb modellen, die ze eerder verlaten hadden vanwege de slechte yields.
alles wat niet op 3ghz klok hoeft niet te worden weggegooid. een 1ghz chip of een 3ghz chip ze kosten allebij even veel om te maken, de 3ghz chip moet alleen wat duurder zijn omdat er minder van zijn (vraag aanbod verhaal).
en dat ze de 1mb desktop modelen hebben laten vallen had niks te maken met yields, maar alles met hoeveel chips er uit een 200mm waffer gehaald konden worden.
Dat zeg ik, ze zijn nog niet om, ze liggen nog niet in de winkels, en zitten nog niet in kant-en-klare PCs. Alles wat AMD verkoopt is 90 nm.
maar ze maken ze toch al, dan is de fabriek toch al omgezet. dan zijn ze toch om?
maar dit is verder een taal spelletje, en verder totaal niet belangrijk. de 65nm productie is al een tijdje op gang en daar gaat het om.
Dus je geeft toe dat ook volgens jouw definitie AMD het in de hogere middenklasse (230-300e) niet zo goed doet.
yup en ik heb nooit anders beweerd. voor AMD zal dat voorlopig voornamelijk een upgrade markt zijn.
Waarom het wel een ramp is voor AMD, bedoel je.
dat is jouw "high end only" vission. maar niet in de echte wereld waar het meeste geld word verdien in de budget en midden sigment, en zeker in de OEM markt is het dus geen ramp.
Nee, ik heb helemaal gelijk. Maar mensen als jij hebben ofwel te weinig kennis van zaken om het te snappen, of ze zijn te blind voor een bepaald merk om het te snappen.
Dit is echt de bandbreedte-mythe.
Kijk liever naar de Athlon64 met z'n ingebouwde memorycontroller. Hij wint iedere bandbreedte-benchmark met gemak van de snelste Core2 Duo
dat komt omdat de athlon64 ruim voldoende bandbreedte heeft. die heeft per core aan 400mhz ddr1 genoeg. met dual channel ddr2-800 heeft de X2 gewoon dubbel de hoeveelheid bandbreedte die hij nodig heeft.

preformance is dus niet bandbreedte nee, maar er is wel zo iets als een minimum hoeveelheid bandbreedte die je moet hebben om er voor te zorgen dat de cores hun werk kunnen doen. en ik heb sterk mijn twijfels of die dual-quads van intel dat minimum aan bandbreedte zullen hebben.
Ik maak me meer zorgen over het gebrek aan shared cache in de Athlon, waardoor de quadfather waarschijnlijk nog veel meer problemen gaat krijgen met communicatie van core tot core.
met 4 channel ddr2-800 geheugen aan bandbreedte en de 8GB/s HTT links voor cpu naar cpu communicatie is dat wel het laatste waar AMD zich zorgen om hoeft te maken.
en met de upgrade naar HTT3.0 word die bandbreedte nog eens radicaal verhoogt.
alles wat niet op 3ghz klok hoeft niet te worden weggegooid.
Zeg ik dat dan?
een 1ghz chip of een 3ghz chip ze kosten allebij even veel om te maken, de 3ghz chip moet alleen wat duurder zijn omdat er minder van zijn (vraag aanbod verhaal).
Nee maar joh!
Dat probeer ik je al de hele tijd aan je verstand te peuteren!
Er kunnen maar weinig 3 GHz chips gemaakt worden, dus zijn die duur!
En dat is dus een probleem. Ten eerste is het aanbod ervan laag, ten tweede is de prijs ervan hoog.
en dat ze de 1mb desktop modelen hebben laten vallen had niks te maken met yields, maar alles met hoeveel chips er uit een 200mm waffer gehaald konden worden.
De 'yield' heeft inderdaad te maken met hoeveel chips je uit een wafer (spel dat nou eens goed, anders maak je jezelf zo belachelijk) haalt. Met 2x1 mb konden ze het niet bolwerken, dus werd die geschrapt. Best een kunststukje nog he, zo'n Pentium met al die transistors en al die cache? Intel had dat toch beter voor elkaar, aan de productie lag het niet.
maar ze maken ze toch al, dan is de fabriek toch al omgezet. dan zijn ze toch om?
Nee, Intel maakt ook al 45 nm chips, maar zolang ze niet op de markt zijn, brengt dat geen geld in het laatje, en kan niemand profiteren van de voordelen ervan.
We moeten bij AMD nog maar afwachten in welke hoeveelheden alles straks op de markt komt, en hoe het uitpakt met snelheid en stroomverbruik.
dat is jouw "high end only" vission. maar niet in de echte wereld waar het meeste geld word verdien in de budget en midden sigment, en zeker in de OEM markt is het dus geen ramp.
Nee, dat is mijn vooruitziende blik. AMD moet nog een maand of 9 overbruggen totdat K8L komt. In de tussentijd zit Intel niet stil. Dus wat gaat er gebeuren?
dat komt omdat de athlon64 ruim voldoende bandbreedte heeft. die heeft per core aan 400mhz ddr1 genoeg. met dual channel ddr2-800 heeft de X2 gewoon dubbel de hoeveelheid bandbreedte die hij nodig heeft.
Dat is de omgekeerde wereld.
Ten eerste redeneer je verkeerd... Een CPU heeft geen bandbreedte nodig, een applicatie heeft bandbreedte nodig. Ten tweede heb je voor sommige applicaties nooit genoeg bandbreedte, zeker niet met DDR400.
De reden dat een X2 niet sneller is, is dat de rest van de CPU te traag is. Vooral de L2 is niet vooruit te branden in een Athlon. Je kunt er dus wel meer bandbreedte aan hangen, maar de CPU kan het niet meer verwerken.
De Core2 is voor een deel sneller omdat de cache gewoon veel beter werkt.
preformance is dus niet bandbreedte nee, maar er is wel zo iets als een minimum hoeveelheid bandbreedte die je moet hebben om er voor te zorgen dat de cores hun werk kunnen doen. en ik heb sterk mijn twijfels of die dual-quads van intel dat minimum aan bandbreedte zullen hebben.
Nogmaals, dat ligt aan de applicatie.
Intel heeft 3dsmax al gedemonstreerd op hun 4-way quadcore Xeon MP (die volgens jouw koude-grond kennis nog een veel groter tekort aan bandbreedte moet hebben), en die schaalde praktisch 100%, dus 16 keer zo snel als een singlecore.
Het minimum aan bandbreedte dat nodig is, is 0. Namelijk een applicatie waarbij alle cores hun code en data volledig in de cache kwijt kunnen, en waar er tussen de cores niet gecommuniceerd hoeft te worden. En daar hoef ik geen twijfels over te hebben, dat weet ik zeker, en ik kan een dergelijke applicatie produceren als bewijs.
3dsmax komt daar redelijk in de buurt... de bandbreedtebehoefte is niet 0, maar nog altijd klein genoeg om totaal geen probleem op te leveren voor dergelijke systemen.

Maar ik denk dat je er veel te weinig verstand van hebt om dat te kunnen begrijpen. Grappig om te zien dat je dat niet weerhoudt van het deelnemen aan een discussie. Ja, ik word een beetje moe van je stijfkoppige geleuter dat kant nog wal raakt. Ga jezelf eerst eens goed inlezen in de materie, voordat je de domme mythes van andere fanboys na gaat lopen blaten.
Nee maar joh!
Dat probeer ik je al de hele tijd aan je verstand te peuteren!
Er kunnen maar weinig 3 GHz chips gemaakt worden, dus zijn die duur!
En dat is dus een probleem. Ten eerste is het aanbod ervan laag, ten tweede is de prijs ervan hoog.
goh je bent er eindelijk achter dat we over de feiten al een tijdje eens waren.
maar leg mij nu eens uit waarom dat een probleem is volgens jouw?
de vraag naar 3ghz chips zal helemaal niet zo hoog zijn namelijk, dus hoeven ze er ook niet zo super veel te maken om de prijs redelijk te houden door aan de vraag te voldoen.

daarbij gaat er helemaal niet zo veel geld om in de high end markt. AMD kan zich makelijk veroorloven om daar even wa minder te presteren/verkopen. het is namelijk ook een markt die je vrij makelijk weer terug kunt winnen.
De 'yield' heeft inderdaad te maken met hoeveel chips je uit een wafer (spel dat nou eens goed, anders maak je jezelf zo belachelijk) haalt. Met 2x1 mb konden ze het niet bolwerken, dus werd die geschrapt. Best een kunststukje nog he, zo'n Pentium met al die transistors en al die cache? Intel had dat toch beter voor elkaar, aan de productie lag het niet.
dyslekties zijn maakt mij niet belachelijk. dat jij dat denkt maakt jouw wel belachelijk.

yield is het percentage van potentiele chips die ook daadwerkelijk gelukt zijn. grote chips verlaag de hoeveelheid potentiele chips, maar niet direct de yield
(al is het wel zo dat grote chips meestal ook een iets lager yield hebben, maar dat was dus niet de reden dat AMD stopte met de productie van chips met 1mb cache)
Nee, Intel maakt ook al 45 nm chips, maar zolang ze niet op de markt zijn, brengt dat geen geld in het laatje, en kan niemand profiteren van de voordelen ervan.
We moeten bij AMD nog maar afwachten in welke hoeveelheden alles straks op de markt komt, en hoe het uitpakt met snelheid en stroomverbruik.
intel maakt proef modelen op 45nm AMD maakt nu "full flow" een voorraad 65nm chips op die straks in de winkel liggen.
zelfs jij moet zien dat daar nog al een flink verschil in zit.

en in welke hoeveelheden het op de markt komt zal wat er ook gebeurt meer zijn als dat ze nu kunnen produceren. zolang hun yields hoger zijn als 25% van wat ze daarvoor hadden is hun productie hoger.

en stroom verbruik weten we ook al, alle 65nm cpus zullen een TDP van 65 AMD-watt hebben. het zelfde TDP als intel dus maar intel rekend met intel-watt.
Nee, dat is mijn vooruitziende blik. AMD moet nog een maand of 9 overbruggen totdat K8L komt. In de tussentijd zit Intel niet stil. Dus wat gaat er gebeuren?
niet zo super veel eigenlijk.
intel kan de prijs van de core2 nog niet verlagen want dan raken ze die enorme voorraad netburst helemaal niet meer kwijt, en ze moeten nog voor 100% overstappen op het produceren van core2 voor ze een budget conroe kunnen gaan maken.
Dat is de omgekeerde wereld.
Ten eerste redeneer je verkeerd... Een CPU heeft geen bandbreedte nodig, een applicatie heeft bandbreedte nodig. Ten tweede heb je voor sommige applicaties nooit genoeg bandbreedte, zeker niet met DDR400.
goed laat ik het anders zeggen. bij gemiddeld gebruik bij gemiddelde applicaties heb je een minimum aan bandbreedte nodig om optimaal te kunnen werken.
De reden dat een X2 niet sneller is, is dat de rest van de CPU te traag is. Vooral de L2 is niet vooruit te branden in een Athlon. Je kunt er dus wel meer bandbreedte aan hangen, maar de CPU kan het niet meer verwerken.
De Core2 is voor een deel sneller omdat de cache gewoon veel beter werkt.
AMD's en intels cache systemen werken compleet anders. de L2 cache van de core2 werkt idd sneller, maar dat moet ook wel, onderanderen omdat hij maar zo'n kleine L1 cache heeft.
bij intel komt data uit het geheugen ook binnen in de L2, bij AMD gaat hij rechstreeks het L1 in, en word de L2 meer als een parkeerplaats gebruikt en niet zo zeer als buffer zoals bij dat intels gebeurt (zowel bij netburst als bij core)
hierdoor hoeft de L2 van AMD ook niet zo snel te zijn.
de reden dat core2 nu snel is komt voornamelijk door wat intel smartcaching en smart memory acccess noemt. (naast de verbetinging aan de SSE units natuurlijk) en niet omdat hun L2 nu zo veel sneller is, want dat was hij in de tijd van de p4 ook al.

beide technieken gaat AMD ook toepassing in de k8L trouwens (hoe effecient ze daarin zijn is even afwachten natuurlijk)

je kan mijn kennis in twijfel trekken maar hier val je echt flink door de mand.
Nogmaals, dat ligt aan de applicatie.
Intel heeft 3dsmax al gedemonstreerd op hun 4-way quadcore Xeon MP (die volgens jouw koude-grond kennis nog een veel groter tekort aan bandbreedte moet hebben), en die schaalde praktisch 100%, dus 16 keer zo snel als een singlecore.
Het minimum aan bandbreedte dat nodig is, is 0. Namelijk een applicatie waarbij alle cores hun code en data volledig in de cache kwijt kunnen, en waar er tussen de cores niet gecommuniceerd hoeft te worden. En daar hoef ik geen twijfels over te hebben, dat weet ik zeker, en ik kan een dergelijke applicatie produceren als bewijs.
3dsmax komt daar redelijk in de buurt... de bandbreedtebehoefte is niet 0, maar nog altijd klein genoeg om totaal geen probleem op te leveren voor dergelijke systemen.
goed, duidelijk een verschil in benadering hier.
leuk, je hebt een applicatie gevonden met een zeer kleine behoefte aan bandbreedte. hoeveel % van de applicaties die je gebruikt zijn ook zo zuinig met bandbreedte? (niet voor niks dat intel juist die applicatie koos om hun systeem te demonstreren)
jij kijkt nu alleen nog maar naar 1 applicatie die toevallig laat zien wat jij bedoeld terwijl ik meer kijk naar wat er ook daarwerkelijk gebeurt als mensen zo'n ding thuis hebben.
zoals ik je al eerder vroeg hoeveel mensen zitten thuis de hele dag 3dmax te renderen?
mensen willen meer met hun pc als 3dmax, zeker als ze een octocore kopen.
en een groot percentage van de applicaties die mensen willen draaien zullen wel een grotere behoefte hebben aan geheugen bandbreedte hebben.

en even voor jouw persoonlijk, dat mensen ergens anders tegenaan kijken als jij dat doet duidt niet op een gebrek aan kennis, maar gewoon op een andere manier van kijken.
probeer volgende keer eerst dat verschil te zien voor je iemand gaat aanvallen op zijn kennis.

bijna alles waar we nu over argumenteren komt door een verschil in interpretatie en niet door een verschil in wat we zien als de feiten.
maar leg mij nu eens uit waarom dat een probleem is volgens jouw?
Zie hierboven, E6600 die onder de 230e duikt.
daarbij gaat er helemaal niet zo veel geld om in de high end markt. AMD kan zich makelijk veroorloven om daar even wa minder te presteren/verkopen.
Zie hierboven, wat voor AMD high-end is, is voor Intel middenmoot. AMD doet in de echte high-end sinds juli van dit jaar niet meer mee.
zelfs jij moet zien dat daar nog al een flink verschil in zit.
Ja, een maand of 6-8.
intel kan de prijs van de core2 nog niet verlagen want dan raken ze die enorme voorraad netburst helemaal niet meer kwijt, en ze moeten nog voor 100% overstappen op het produceren van core2 voor ze een budget conroe kunnen gaan maken.
Welke voorraad? Heb je bronnen? Zal wel niet, ik had het al eens gevraagd, en het werd genegeerd. Je vervalt in herhalingen.
Verder denk ik dat Intel best een stootje kan hebben, en die Netbursts gewoon kan dumpen als dat moet. Maar dat hoeft niet. Ze wachten inderdaad nog even, en als de Netbursts weg zijn, gaan ze AMD dooddrukken.
Nu laten ze AMD alleen nog maar een beetje spartelen in het mid- en lage segment.
goed laat ik het anders zeggen. bij gemiddeld gebruik bij gemiddelde applicaties heb je een minimum aan bandbreedte nodig om optimaal te kunnen werken.
Behalve dan dat het idee van een 'gemiddelde applicatie' nergens op slaat. Wat is een gemiddelde applicatie?
Volgens mij gebruiken veel mensen vooral browsers, email clients, office software etc. Allemaal spul wat geen bandbreedte nodig heeft, laat staan multicore.
Neemt niet weg dat er applicaties zijn die nooit genoeg hebben. Sowieso, hoe wil je verklaren dat de Athlon geen enkele benchmark kan winnen van een Core2 Duo, als hij 'genoeg bandbreedte' heeft, en bandbreedte volgens jou zo belangrijk is? Tussen al die benchmarks moet toch ook die 'gemiddelde applicatie' zitten?
de reden dat core2 nu snel is komt voornamelijk door wat intel smartcaching en smart memory acccess noemt. (naast de verbetinging aan de SSE units natuurlijk) en niet omdat hun L2 nu zo veel sneller is, want dat was hij in de tijd van de p4 ook al.
Hoho, maar ik beweerde nergens dat het in de tijd van de P4 niet zo was. Toen was de cache inderdaad ook al beter, wat bandbreedte aanging, en SSE2 was ook al supersnel. Vandaar dat de P4 het ook zo goed deed oa met audio/video encoding. Het probleem zat hem er meer in dat de P4 eigenlijk nergens anders goed in was.
Maar toen tekende het gebrek aan verwerkingssnelheid zich al aan bij de Athlon. De cache en SSE2-units moeten sneller.
hoeveel % van de applicaties die je gebruikt zijn ook zo zuinig met bandbreedte?
Tsja, ik schrijf m'n eigen applicaties, dus ik zorg altijd wel dat ik zo zuinig mogelijk ben, als het hard moet gaan op multicore. Ligt voor de hand natuurlijk.
(niet voor niks dat intel juist die applicatie koos om hun systeem te demonstreren)
Natuurlijk, als ik het kan bedenken, kunnen ze dat bij Intel ook. Neemt niet weg dat 3dsmax een populaire real-world applicatie is, en dat het Intel-systeem ook daadwerkelijk die prestaties op de mat legde. Wat dus al genoeg bewijs is dat het systeem niet altijd onder een gebrek aan bandbreedte gebukt hoeft te gaan, zoals jij beweert.
jij kijkt nu alleen nog maar naar 1 applicatie die toevallig laat zien wat jij bedoeld terwijl ik meer kijk naar wat er ook daarwerkelijk gebeurt als mensen zo'n ding thuis hebben.
Ik hoefde maar 1 stelling van jou te ontkrachten, en dus had ik aan 1 tegenvoorbeeld genoeg.
zoals ik je al eerder vroeg hoeveel mensen zitten thuis de hele dag 3dmax te renderen?
mensen willen meer met hun pc als 3dmax, zeker als ze een octocore kopen.
en een groot percentage van de applicaties die mensen willen draaien zullen wel een grotere behoefte hebben aan geheugen bandbreedte hebben.
Dat is helemaal niet aan de orde. Ten eerste omdat Intel voorlopig de enige zal zijn met een quadcore of octacore... ten tweede omdat AMD's quadcore ook gewoon een enkele memorycontroller meekrijgt, en daardoor dus feitelijk net zo veel of weinig bandbreedte heeft als de Intel. Of had je daar nog niet aan gedacht?
en even voor jouw persoonlijk, dat mensen ergens anders tegenaan kijken als jij dat doet duidt niet op een gebrek aan kennis, maar gewoon op een andere manier van kijken.
probeer volgende keer eerst dat verschil te zien voor je iemand gaat aanvallen op zijn kennis.
Kom op zeg, de foute aannames die je maakt, en het gebrek aan technische onderbouwing maakt het gebrek aan kennis wel overduidelijk. Ik kijk er anders tegenaan omdat ik de zaken begrijp, en jarenlange ervaring heb met het optimaliseren van software voor allerlei architecturen. Jij hoogstwaarschijnlijk niet, dus je hebt een nogal oppervlakkige en beperkte visie op het geheel.

Mocht ik het fout hebben, en kun je ook daadwerkelijk zelf multithreaded code schrijven, dan wil ik graag van jou wat voorbeeldjes zien van code die slecht zou lopen op een Intel Quadcore, dan zal ik laten zien hoe je dat kunt optimaliseren. Kun je nog wat van leren, en zal je vast een andere kijk op het verhaal geven.
goed e6600 duikt onder de 230.
alles onder waar hij dan uit komt is nogsteeds AMD domain. valt nog genoeg geld te verdienen.
maar voordat dat gebeurt zijn wel al even verder, is 65nm al goed aangeslagen en kan AMD de prijzen verder verlagen en misschien zelfs wel de kloksnelheid wat verhogen.
en dan een paar maanden later is de K8L er en ziet de situatie er weer heel anders uit.
Welke voorraad? Heb je bronnen? Zal wel niet, ik had het al eens gevraagd, en het werd genegeerd. Je vervalt in herhalingen.
http://news.com.com/Intel.../2100-1006_3-6065925.html
"and now is dealing with "several million" processors worth of excess inventory."

als je het eerder gevraagt hebt dan spijt het me, overheen gelezen.
ja dit is van april dit jaar, maar intels situatie kan er niet beter op zijn geworden de laatste maanden want ze bleven netburst maken maar verkochten er steeds minder, en met de komst van de core2 al helemaal.
Ja, een maand of 6-8.
zucht. ja dat ook. dus? wat wil je nu zeggen?
AMD is over op 65nm en dat is waar het om ging in eerste instantie.
Verder denk ik dat Intel best een stootje kan hebben, en die Netbursts gewoon kan dumpen als dat moet. Maar dat hoeft niet. Ze wachten inderdaad nog even, en als de Netbursts weg zijn, gaan ze AMD dooddrukken.
Nu laten ze AMD alleen nog maar een beetje spartelen in het mid- en lage segment.
beweer ik ergens dat intel ten onder gaat dan?
zeg alleen dat niet alles zo rooskleuring is als sommige willen beweren, en dat ze niet zomaar alles zouden kunnen doen wat ze misschien zouden willen.

en dat "gaan ze AMD dooddrukken" getuigt wel heel erg van een totaal onbenul van hoe de situatie er nu werkelijk voor ligt.
als intel AMD echt zo in de hand had zouden ze bijvoorbeeld niet velen miljoenen aan gegarandeerde chip verkopen van DELL door AMD van zich af laten pakken.
AMD heeft nu een flinke voet aan de grond in de OEM markt (de top5 OEM's verkopen nu allemaal AMD, en niet alleen maar als bijzaak zoals vroeger), en dat is vele malen belangrijker voor AMD als bedrijf dan wie er nu toevallig eventjes de snelst heeft.
Behalve dan dat het idee van een 'gemiddelde applicatie' nergens op slaat. Wat is een gemiddelde applicatie?
de gemiddelde geheugen belasting van alle applicaties die mensen gemiddeld op hun PC gebruiken als ze hem echt aan het werk zetten (dus geen mail en office ect). daar was toch niet zo heel veel fantasie voor nodig wel? of moet ik echt alle begrippen tot in den treuren toe uitleggen.
Hoho, maar ik beweerde nergens dat het in de tijd van de P4 niet zo was.
zeg ik ergens dat je dat wel doet?, gaf het alleen maar mee ter informatie.
de sse units van de p4 waren trouwens niet zo zeer snel, per clock deden ze niet meer als die van de athlon64, ze liepen alleen wat sneller. dat voordeel is intel met de core2 kwijt. dus hebben ze de SSE unites verbreed, maar dat is een truukje dat AMD ook heel makelijk kan uitvoeren (en dat doen ze dus ook in de K8L).

daarbij word ook de bandbreedte van de L2 cache met de K8L verdubbel (naar 128bits/cycle) (die van de L1 ook trouwens naar 2x 128bit/cycle) en zoals gezegt AMD's variant op smart memory access en smart caching waardoor geheugen latency 'kunstmatig' omlaag kan worden gebracht worden ook toegevoegt

nog meer bottleneks in de k8 archetectuur waar jij van weet waardoor de K8L niet weer op een vergelijkbaar nivo kan komen als de core2?
Ik hoefde maar 1 stelling van jou te ontkrachten, en dus had ik aan 1 tegenvoorbeeld genoeg.
dat is natuurlijk onzin, mijn stelling was die quad en octi cores zullen een te kort aan bandbreedte hebben.
jij geeft dan 1 voorbeeld waarbij dat niet zo is en beweerd dan dat dat in alle gevallen zo zal zijn.
Dat is helemaal niet aan de orde. Ten eerste omdat Intel voorlopig de enige zal zijn met een quadcore of octacore...ten tweede omdat AMD's quadcore ook gewoon een enkele memorycontroller meekrijgt, en daardoor dus feitelijk net zo veel of weinig bandbreedte heeft als de Intel. Of had je daar nog niet aan gedacht?
jij moet geloof ik het sommetje 128bit maal 800mhz = en 64bit maal 1333mhz eens vergelijken met de uitkomst.
maar dan ben je er nog niet, bij intel moet met hun eerste quad core ALLE communicatie over die zelfde 1333x64 heen (ook die van die naar die), terwijl AMD daar met de quadfather de HTT link voor heeft (naast dat de quad father 2 geheugen controler heeft).
dat AMD meer bandbreedte heeft en voorlopig zal houden is gewoon een feit.
ook als beide met echte quad cores komen heeft AMD nogsteeds het voordeel. (nogsteeds 128x800 vs 64x1333
maar dan inclusief gedeelde L3 cache voor AMD.

dat ze de enige zijn, (en dat is maar net hoe je het bekijkt) wil niet zeggen dat iedereen het ineens masaal gaat kopen. zeker niet als hij in een aantal gevallen duidelijk steken laat vallen en niet veel sneller zal zijn als een dual or quad core.
Kom op zeg, de foute aannames die je maakt, en het gebrek aan technische onderbouwing maakt het gebrek aan kennis wel overduidelijk. Ik kijk er anders tegenaan omdat ik de zaken begrijp, en jarenlange ervaring heb met het optimaliseren van software voor allerlei architecturen. Jij hoogstwaarschijnlijk niet, dus je hebt een nogal oppervlakkige en beperkte visie op het geheel.

Mocht ik het fout hebben, en kun je ook daadwerkelijk zelf multithreaded code schrijven, dan wil ik graag van jou wat voorbeeldjes zien van code die slecht zou lopen op een Intel Quadcore, dan zal ik laten zien hoe je dat kunt optimaliseren. Kun je nog wat van leren, en zal je vast een andere kijk op het verhaal geven.
nope ik schrijf zelf geen multithreaded code.
maar ik heb wel veel technische kennis en begrijp goed hoe de hardware werkt en wat de gevolgen daarvan zijn voor het grootst deel van de software.
ook heb ik duidelijk een beter idee van de financieele gevolgen en oorzaken van de technieken achter de CPU.
jij daarintegen kijk alleen maar naar enkele programs. een vrij beperkte visie als je het mij vraagt.

laten we het eens over een andere boeg gooien dan.
multitasken.
een 3dmax render op de achtergrond, een HD videotje encoderen, mp3tje afspelen, teamspeak aan, en een zware multithreaded game spelen, waar je ook een livestream van maakt.
en dan wil jij nog beweren dat het niet extreem druk gaat worden op die FSB?
goed e6600 duikt onder de 230.
alles onder waar hij dan uit komt is nogsteeds AMD domain. valt nog genoeg geld te verdienen.
Nee, want als de E6600 in prijs verlaagt, dan ook de Core2 Duos die daaronder zitten, en dan is het over met AMD.
a dit is van april dit jaar, maar intels situatie kan er niet beter op zijn geworden de laatste maanden want ze bleven netburst maken maar verkochten er steeds minder, en met de komst van de core2 al helemaal.
Dat is niet te zeggen. Misschein dat Core2 juist een positief effect op de Pentium heeft, omdat de naam Intel weer in aanzien is gestegen.
Ik wil echt recente cijfers zien, en niet iets van een half jaar geleden, nog voordat de Core2 op de markt was.
als intel AMD echt zo in de hand had zouden ze bijvoorbeeld niet velen miljoenen aan gegarandeerde chip verkopen van DELL door AMD van zich af laten pakken.
Intel heeft nu Apple erbij, misschien dat het juist gunstig uitkomt. Dell betaalt nu immers meer voor hun chips, en wat zij niet kopen, gaat naar Apple toe. Ik wil eerst wel eens cijfers zien. Misschien is Dell zelfs wel overgegaan naar AMD omdat Intel vanwege Apple nu minder CPUs aan Dell leverde.
Verder lijkt het me een late reactie op het succes van de Athlon64. Dell had een jaar eerder over moeten gaan. Nu denk ik dat Dell AMD weer laat vallen als het contract afloopt, want tegen de Core2 Duo is AMD totaal niet opgewassen.
en dat is vele malen belangrijker voor AMD als bedrijf dan wie er nu toevallig eventjes de snelst heeft.
Over 'rooskleurig' gesproken... Intel heeft niet 'eventjes de snelste', Intel heeft AMD compleet uit de markt gedrukt met alles boven de 230e, Intel is totaal onklopbaar qua prijs/prestatie en prestatie/watt in dat segment.
En naarmate de tijd voortschrijdt, breidt die voorsprong zich verder uit naar beneden, want CPUs worden sneller, en prijzen worden lager. Dit heb ik al tientallen keren gezegd, maar je blijft het negeren.
de gemiddelde geheugen belasting van alle applicaties die mensen gemiddeld op hun PC gebruiken als ze hem echt aan het werk zetten (dus geen mail en office ect). daar was toch niet zo heel veel fantasie voor nodig wel? of moet ik echt alle begrippen tot in den treuren toe uitleggen
Dat moet je wel, ja. Een 'gemiddelde applicatie' of 'gemiddelde bandbreedte' is bijzonder subjectief. Ik weet totaal niet waar je het over hebt, dus moet je dat wel even kwantificeren. Over welke applicaties heb je het precies, en hoeveel gebruiken die dan, en hoe toon je dat aan?
Afgezien daarvan is het dus niet relevant, omdat ik al tig keer heb aangegeven dat er altijd applicaties zullen zijn die meer bandbreedte nodig hebben, en dan komt de Athlon te kort. Het is gewoon een gebrek van de CPU, ook al is dat misschien niet in elke applicatie een probleem.
zeg ik ergens dat je dat wel doet?
Ja, getuige dit: "en niet omdat hun L2 nu zo veel sneller is, want dat was hij in de tijd van de p4 ook al."
Dat heb ik nooit beweerd, terwijl jij mij daar wel van lijkt te beschuldigen.
nog meer bottleneks in de k8 archetectuur waar jij van weet waardoor de K8L niet weer op een vergelijkbaar nivo kan komen als de core2?
Genoeg. De ooo van de K8 is ook om te huilen zo slecht. Mede doordat de decoder enorm simpel is.
Eerst maar eens zien of die verbeteringen van AMD ook echt zoden aan de dijk zetten.
dat is natuurlijk onzin, mijn stelling was die quad en octi cores zullen een te kort aan bandbreedte hebben.
Dus je beweert dat het in alle gevallen zo is, dat spreek ik tegen met een voorbeeld.
jij geeft dan 1 voorbeeld waarbij dat niet zo is en beweerd dan dat dat in alle gevallen zo zal zijn
Dat heb ik nooit beweerd (sterker nog, ik geef zelfs aan dat er op alle CPUs altijd gevallen zijn waarbij je bandbreedte tekort komt), ik heb alleen wel aangetoond dat er gevallen zijn waarin het niet zo is, dus jouw stelling klopt niet.
maar dan ben je er nog niet, bij intel moet met hun eerste quad core ALLE communicatie over die zelfde 1333x64 heen (ook die van die naar die)
Fout, in tegenstelling tot de K8 heeft de Core2 een shared L2-cache. Interne communicatie tussen twee cores gaat dus via L2-cache, en niet via een externe bus zoals bij de K8.
Alleen de twee dualcores moeten nog via een externe bus commiceren, maar dat is per definitie al 50% minder dan bij een dualcore met alleen externe communicatie, en bij handig gebruik is dit nog verder te reduceren.
dat AMD meer bandbreedte heeft en voorlopig zal houden is gewoon een feit.
Nee hoor, ze hebben maar gewoon een DDR2 dualchannel controller (of misschien straks DDR3, maar dan heeft Intel dat ook). Waar haal je dus die bandbreedte vandaan? Niet uit het geheugen.
nope ik schrijf zelf geen multithreaded code.
maar ik heb wel veel technische kennis en begrijp goed hoe de hardware werkt en wat de gevolgen daarvan zijn voor het grootst deel van de software.
Nou, dat blijkt dan nergens uit, de opmerkingen die je maakt geven duidelijk een totaal onbegrip aan. Het zijn ook dezelfde opmerkingen die ik overal op internet hoor van mensen die er niks van begrijpen.
jij daarintegen kijk alleen maar naar enkele programs. een vrij beperkte visie als je het mij vraagt.
Nee, ik kijk naar de technologie en de mogelijkheden die die biedt. Ik hoef me niet slechts te beperken tot benchmarks van software van anderen.
een 3dmax render op de achtergrond, een HD videotje encoderen, mp3tje afspelen, teamspeak aan, en een zware multithreaded game spelen, waar je ook een livestream van maakt.
en dan wil jij nog beweren dat het niet extreem druk gaat worden op die FSB?
Bij multitasking heb je per definitie geen communicatie tussen de cores nodig, dat lost dat probleem dus al op.
Verder heb je qua specs gelijke geheugencontrollers, dus gelijke bandbreedte naar de cores. Het verschil zal hem zitten in hoe efficient de cache en de core daarmee omgaat, en daar heeft de Core2 momenteel toch echt de betere papieren in de hand.
Zie je hoe weinig je er nou van begrijpt? Je kunt niet eens een voorbeeld bedenken dat jouw visie ondersteunt.
Het enige voorbeeld dat jouw visie ondersteunt is een slecht geschreven stuk software. Namelijk een stuk software dat meer tussen de cores moet communiceren dan met het geheugen. Dat zal per definitie trager zijn dan een stuk software dat minder cores gebruikt, en daardoor geen communicatie nodig heeft.
Nee, want als de E6600 in prijs verlaagt, dan ook de Core2 Duos die daaronder zitten, en dan is het over met AMD.
als je kijkt naar wat AMD tegenvoer de E6300 en E6400 zet nu kunnen ze die ook aardig bijbenen, waarom zouden ze dat na dat ze over zijn op 65nm niet meer kunnen? ze kunnen dan immers stuken goedkoper producreren.
sterker nog dat doen ze het zelfde maar dan met een lager verbruikt.

jij lijkt te denken dat AMD de prijzen nu niet verder kan verlagen als ze zouden willen/moeten. dat is natuurlijk onzin, zeker als de over zijn op 65nm.
Dat is niet te zeggen. Misschein dat Core2 juist een positief effect op de Pentium heeft, omdat de naam Intel weer in aanzien is gestegen.
Ik wil echt recente cijfers zien, en niet iets van een half jaar geleden, nog voordat de Core2 op de markt was.
dat is wel de meeste dommme wishfullthinking fanboy opmerking OOIT gepost op tweakers.net.
als de pentium echt beter zou verkopen dan zou AMD nu geen tekort hebben wel? als dat wel zo was dan zou de PC markt ineens een heel stuk groter geworden, en recente cijfers geven aan dat dat niet het gegeval is.

ik heb dus geen recente cijfers over wat intel op voorraad heeft maar alle andere cijfers geven aan dat er voor intel geen plek is geweest waar ze ze kwijt konden raken.
Intel heeft nu Apple erbij, misschien dat het juist gunstig uitkomt. Dell betaalt nu immers meer voor hun chips, en wat zij niet kopen, gaat naar Apple toe. Ik wil eerst wel eens cijfers zien.
wat apple koopt van intel valt in het niet bij wat dell nu koopt van AMD. apple is gewoon maar een kleine speler die toevallig ook een populairen mp3 speler heeft.
voorlopig zwaar overschat door intel aanhangers.
Misschien is Dell zelfs wel overgegaan naar AMD omdat Intel vanwege Apple nu minder CPUs aan Dell leverde.
Verder lijkt het me een late reactie op het succes van de Athlon64. Dell had een jaar eerder over moeten gaan. Nu denk ik dat Dell AMD weer laat vallen als het contract afloopt, want tegen de Core2 Duo is AMD totaal niet opgewassen.
dell is ook AMD gaan verkopen omdat intel van prijs beleid is veranderd en nu geen korting meer geeft op bulk verkopen, iedereen betaald dus het zelfde ongeacht hoeveel hij koopt.
het was voor dell dus niet meer gunstig om alleen intel te kopen. het was dus ook een bewuste en lange termijn keuze van DELL.

de reden dat intel van prijs beleid is veranded is trouwens de al veel besproken rechtzaak die AMD heeft aangespannen.
Ja, getuige dit: "en niet omdat hun L2 nu zo veel sneller is, want dat was hij in de tijd van de p4 ook al."
Dat heb ik nooit beweerd, terwijl jij mij daar wel van lijkt te beschuldigen.
alleen omdat jij totaal achterdochtig bent en duidelijk alles wat ik zeg ik een zo slecht mogenlijk manier interpreteer.
ik wilde alleen duidelijk maken dat snelle L2 cache nog geen snellere CPU's opleverd en dat die volgens jouw zo langzame L2 cache van de athlon64 wel de p4's helemaal inmaakte.
Genoeg. De ooo van de K8 is ook om te huilen zo slecht. Mede doordat de decoder enorm simpel is.
Eerst maar eens zien of die verbeteringen van AMD ook echt zoden aan de dijk zetten.
word ook verbeterd in de K8L
daarbij lul je uit je nek want de ooo van de athlon64 is helemaal niet zo slecht. hij heeft wel 4+ jaar lang bijgedragen tot het feit dat hij de p4's kompleet inmaakte.
die van de core2 is beter ja, maar mag dat met 4 jaar verschil in de tijd van introductie?
Dus je beweert dat het in alle gevallen zo is, dat spreek ik tegen met een voorbeeld.
dat maak JIJ ervan dat heb ik nooit gezegt.
Dat heb ik nooit beweerd (sterker nog, ik geef zelfs aan dat er op alle CPUs altijd gevallen zijn waarbij je bandbreedte tekort komt), ik heb alleen wel aangetoond dat er gevallen zijn waarin het niet zo is, dus jouw stelling klopt niet.
ik ken geen situatie waar de k8 een te kort aan bandbreedte zou hebben behalve in een synthetische test.
als AMD een quad core heeft kan het misschien weer voorkomen, dat zal extreem zeldzaam zijn.

en hoe vaak zo'n situatie zich ook voor doet bij AMD, bij de intel quad core, en zeker bij de dual-quad core zal hij velen malen vaker voorkomen.
Fout, in tegenstelling tot de K8 heeft de Core2 een shared L2-cache. Interne communicatie tussen twee cores gaat dus via L2-cache, en niet via een externe bus zoals bij de K8.
Alleen de twee dualcores moeten nog via een externe bus commiceren, maar dat is per definitie al 50% minder dan bij een dualcore met alleen externe communicatie, en bij handig gebruik is dit nog verder te reduceren.
DAT ZEI IK TOCH AL : "(ook die van die naar die)"
jesus.

en dat is dus nogsteeds veel meer communicatie over minder bandbreedte als bij de quadfather.
Nee, ik kijk naar de technologie en de mogelijkheden die die biedt. Ik hoef me niet slechts te beperken tot benchmarks van software van anderen.
ooo kijk jongens mijn auto kan 500km/u berg af.
dat hij vervolgens de berg niet meer op komt is niet belangrijk volgens jouw manier van denken.
Nee hoor, ze hebben maar gewoon een DDR2 dualchannel controller (of misschien straks DDR3, maar dan heeft Intel dat ook). Waar haal je dus die bandbreedte vandaan? Niet uit het geheugen.
ok dit getuigt wel (weer) van een compleet ombegrip aan technishe kennis van jouw kant.
hallo iemand wakker? FSB? ja dat ding ja. heeft minder bandbreedte als dual channel ddr1-800 (64x1333 vs 128x800 weer) en intel heeft nog een geen HTT link ook, dus er moet over die lager bandbreedte ook nog eens meer data.

als je gaat beweren dat AMD niet meer bandbreedte als intel ben je gewoon dom. sorry hoor maar echt.

als intel jouw moet geloven dan hebben ze CSI helemaal niet nodig en kunnen ze gewoon rustig door gaan met het gebruik van een FSB.
Bij multitasking heb je per definitie geen communicatie tussen de cores nodig, dat lost dat probleem dus al op.
Verder heb je qua specs gelijke geheugencontrollers, dus gelijke bandbreedte naar de cores. Het verschil zal hem zitten in hoe efficient de cache en de core daarmee omgaat, en daar heeft de Core2 momenteel toch echt de betere papieren in de hand.
zie hierboven.

en je opmerking hierna is natuurlijk prachtig.
Zie je hoe weinig je er nou van begrijpt?
mag ik even lachen?

daarbij heeft elke van die applicaties WEL geheugen bandbreedte nodig en zijn de meeste van die applicaaties multithreaded wat dus wel intercore communicatie opleverd.
jij lijkt te denken dat AMD de prijzen nu niet verder kan verlagen als ze zouden willen/moeten. dat is natuurlijk onzin, zeker als de over zijn op 65nm.
Die overgang naar 65 nm kost een hoop geld, en de productie zal in het begin echt niet zo geweldig zijn, het duurt nog maanden voordat de yields opgeschroefd zijn tot in de buurt van het maximum.
AMD zal dus niet meteen de prjizen naar beneden willen halen, er moet eerst terugverdiend worden.
als de pentium echt beter zou verkopen dan zou AMD nu geen tekort hebben wel?
De Pentium verkoopt sowieso beter, omdat AMD maar iets van 25% marktaandeel heeft... de Core2 is 25% van Intels productie, en dat is 3/4 van de markt. Dus zo'n 66% van de verkochte CPUs is Pentium/Celeron.
AMD heeft een tekort omdat ze gewoon niet genoeg productiecapaciteit hebben, niet omdat ze meer verkopen dan Intel. Gewoon even nadenken.
wat apple koopt van intel valt in het niet bij wat dell nu koopt van AMD. apple is gewoon maar een kleine speler die toevallig ook een populairen mp3 speler heeft.
voorlopig zwaar overschat door intel aanhangers
Apple heeft zo'n 4% van de computermarkt in handen, dat is meer dan bijna iedere OEM, uitgezonderd de hele groten zoals Dell en HP.
Misschien dat Apple alleen al meer CPUs afneemt dan Dell dat bij AMD doet (vergeet ook niet dat Apple ook dual-CPU systemen levert, tikt lekker aan).
Dell heeft zelf namelijk een markt aandeel van zo'n 20%.
Als Dell dus minder dan 20% van hun systemen uitrust met AMD, dan nemen ze sowieso minder CPUs af dan Apple. En ik denk dat die 20% niet zo heel ver van de waarheid af zit.
ik wilde alleen duidelijk maken dat snelle L2 cache nog geen snellere CPU's opleverd en dat die volgens jouw zo langzame L2 cache van de athlon64 wel de p4's helemaal inmaakte.
Dat komt omdat jij de context moet veranderen om jouw stelling waar te maken. De Athlon was sneller dan een P4, dat was toen. Nu is er de Core2 Duo, en vergeleken daarmee is de Athlon traag, en dat ligt deels aan de cache.
Ook in het P4-tijdperk was de Athlon-cache niet alles, maar de Athlon kwam ermee weg, omdat de P4 op andere terreinen tekort kwam. Zo zit het, en niet anders.
daarbij lul je uit je nek want de ooo van de athlon64 is helemaal niet zo slecht
Kun je dat beargumenteren? Ik heb namelijk al deels aangegeven waarom ik het slecht vind... ik heb nog wel meer argumenten, maar ik heb van jou nog geen enkel inhoudelijk argument gehoord, dus de beurt is aan jou.
dat maak JIJ ervan dat heb ik nooit gezegt.
Heb je wel gezegd, het was een 'blanket statement', zoals dat zo mooi heet in het Engels. Je gaf nergens aan dat je het over een bepaald geval had, dus sprak je in het algemeen, en dat is niet waar.
ik ken geen situatie waar de k8 een te kort aan bandbreedte zou hebben behalve in een synthetische test.
Dan ben je zeker alweer vergeten dat de Athlon oa in audio/video-encoding altijd het onderspit moest delven tegen Pentiums en nu Core2.
DAT ZEI IK TOCH AL.

"(ook die van die naar die)"
jesus.
Nee, dat zeg je niet. Jij zegt *alle* communicatie. En dat is dus niet zo, want het is *alleen* de communicatie van die naar die die extern moet. De rest gaat via L2-cache, in tegenstelling tot de Athlon, waar L2-cache gescheiden is (wie zit er nu eigenlijk cores aan elkaar te plakken? Heeft er alle schijn van dat AMD dat meer doet dan Intel... 4 cores, 4 caches... op die manier heb je HT3.0 wel nodig ja).
en dat is dus nogsteeds veel meer communicatie over minder bandbreedte als bij de quadfather.
L2-cache zal toch wel even meer bandbreedte hebben dan een HT-link, zeker bij Intel.
dat hij vervolgens de berg niet meer op komt is niet belangrijk volgens jouw manier van denken.
Niet als het sneller is om om de berg heen te rijden, nee.
ok dit getuigt wel van een compleet ombegrip aan technishe kennis van jouw kant.
hallo iemand wakker? FSB? ja dat ding ja. heeft minder bandbreedte als dual channel ddr1-800 (64x1333 vs 128x800 weer)
DDR1? DDR2 bedoel je, mag ik hopen. En sinds wanneer heeft DDR2 100% efficientie? Als je 80% efficientie hebt, mag je in je handjes klappen, en dan is de bus ineens snel genoeg! wow! Die gasten bij Intel kunnen wel rekenen zeg!
en intel heeft nog een geen HTT link ook, dus er moet over die lager bandbreedte ook nog eens meer data.
Intel heeft die door shared L2-cache ook veel minder hard nodig.
Slimmer werken is vaak beter dan harder werken.
daarbij heeft elke van die applicaties WEL geheugen bandbreedte nodig en zijn de meeste van die applicaaties multithreaded wat dus wel intercore communicatie opleverd
Multithreaded applicaties hebben helemaal niet per definitie communicatie tussen cores. Sterker nog, dat moet je zo veel mogelijk vermijden, omdat dat enorm inefficient is. Desalniettemin heeft Intel nog steeds shared L2-cache en AMD niet, dus bij Intel kun je veel sneller communiceren tussen cores.
Maargoed, dat zul je nooit begrijpen, want ik heb het nu al 20 keer verteld, en je blijft stug doorgaan.
De Pentium verkoopt sowieso beter, omdat AMD maar iets van 25% marktaandeel heeft... de Core2 is 25% van Intels productie, en dat is 3/4 van de markt. Dus zo'n 66% van de verkochte CPUs is Pentium/Celeron.
AMD heeft een tekort omdat ze gewoon niet genoeg productiecapaciteit hebben, niet omdat ze meer verkopen dan Intel. Gewoon even nadenken.
en intels productie van pentium/celeron cpu's is wat? juist!
75%
oops.

nu geen tijd om op de rest te reageren, maar deze moet ik even recht zetten.
en intels productie van pentium/celeron cpu's is wat? juist!
75%
oops.

nu geen tijd om op de rest te reageren, maar deze moet ik even recht zetten.
Moet je het wel goed doen.
3/4 van 75% is wat? 56% ja (want die andere kwart is wat AMD produceert).
Inderdaad, ik had te snel even 66% getypt.
56% van alle nieuwe CPUs op het moment zijn dus Pentium/Celeron.
Maar dat had je dus niet begrepen. oops.
Als je dat al niet begrijpt, snap ik wel dat je de rest ook niet begrijpt.
Moet je het wel goed doen.
3/4 van 75% is wat? 56% ja (want die andere kwart is wat AMD produceert).
Inderdaad, ik had te snel even 66% getypt.
56% van alle nieuwe CPUs op het moment zijn dus Pentium/Celeron.
Maar dat had je dus niet begrepen. oops.
Als je dat al niet begrijpt, snap ik wel dat je de rest ook niet begrijpt.
ik had idd iets te snel gelezen, maar nu ik het nog een keer lees zie ik dat er van wat jij zei geen zak klopt.

deze zin maar nu in het nederlands
"omdat AMD maar iets van 25% marktaandeel heeft... de Core2 is 25% van Intels productie, en dat is 3/4 van de markt. Dus zo'n 66% van de verkochte CPUs is Pentium/Celeron."

25% van intels productie is helemaal niet 3/4 van de markt.
wat ik dacht dat je zei was dat de core2 25% van de totale markt in handen had. wat dus gewoon niet klopt.

maar nu dus met die nieuwe aannamen, dan word het marktaandeel van de core2 maar 18.75%.
goh, daarnaast lijkt me nog meer als genoeg ruimte voor AMD om een stevig graantje mee te pikken voorlopig.
AMD heeft een tekort omdat ze gewoon niet genoeg productiecapaciteit hebben, niet omdat ze meer verkopen dan Intel. Gewoon even nadenken.
nadenken, juist.
denk hier dan maar eens over na.

een tekort krijg je als de vraag naar je product stijgt (AMD's productie is namelijk niet gezakt, en dat de vraag naar amd cpus is gestegen is een feit, zie marktaandeel AMD).
de markt voor chip verkopen is nouwelijks gegroeid, dus alles wat AMD meer verkoopt, verkoopt intel minder.
er van uit gaande dat de verkoop van core2 goed verloopt, moet al dat extra marktaandeel van AMD dus uit het netburst gedeelte van intels marktaandeel komen.

conclusie, netburst verkoopt niet beter nu de core2 er is.
gevolg daarvan, intel kan het overschot aan netburst cores wat ze al hadden niet kwijt, en de kans is vrij groot dat het overschot alleen maar stijgt.

gevolg daar weer van : intel zit met bergen netburst in hun maag die ze niet kwijt kunnen, waardoor ze zichzelf in de vingers snijden omdat ze de core2 niet kunnen laten doordringen tot het budget sigment, waardoor AMD daar nu (nogsteeds) vrij spel heeft.

en waar zeg ik dat AMD meer verkopen als intel? ga eens werken aan je begrijpend lezen man, wat ik zeg is dat de p4 niet beter zal verkopen relatief aan zichzelf, en niet relatief aan AMD. zelfs zonder naar de zin te kijken waar ik op reageerd (je eigen woorden notabene) leek me dat toch vrij duidelijk.
nog een keer dan, maar dan met zo veel mogenlijk woorden :
als de pentium4 echt beter zou verkopen als hij hiervoor deed dan zou AMD nu geen te kort hebben wel?

nu wel duidelijk? ik moet duidelijk langere zinnen gaan maken en minder vertrouwens op jouw logische interprative vermogen want dat is duidelijk niet je sterkste kant.
Die overgang naar 65 nm kost een hoop geld, en de productie zal in het begin echt niet zo geweldig zijn, het duurt nog maanden voordat de yields opgeschroefd zijn tot in de buurt van het maximum.
geld dat ze al hebben uitgegeven, is al lang geen probleem meer, en wat ze zien als een investering, die hoeven ze er niet meteen de eerste dag uit te hebben.

de yields moeten trouwens werkelijk wel arbermalijk zijn willen ze niet opwegen tegen de dubbele hoeveelheid chips die je met 65nm uit een wafer kan halen.
daarbij is dit AMD's nieuwe fabriek, die voor het eerst echt zijn benen gaat strekken en dus alles wat deze fabriek maakt komt dus BOVENOP wat AMD al produceerde in fab30.
al lukt er bij wijze van maar 1 chip per wafer dan stijgt AMDs productie nogsteeds.
Multithreaded applicaties hebben helemaal niet per definitie communicatie tussen cores. Sterker nog, dat moet je zo veel mogelijk vermijden, omdat dat enorm inefficient is. Desalniettemin heeft Intel nog steeds shared L2-cache en AMD niet, dus bij Intel kun je veel sneller communiceren tussen cores..
tussen SOMMIGE cores.
en als je dat zo veel mogenlijk moet vermijden wat lul je dat dat het een enorm voordeel is voor intel?
make up your mind zou ik zeggen.
Niet als het sneller is om om de berg heen te rijden, nee.
goh wat jammer nou dat niet alle programas een "rij om de berg heen" functie hebben. sterker nog, de meeste niet.
DDR1? DDR2 bedoel je, mag ik hopen. En sinds wanneer heeft DDR2 100% efficientie? Als je 80% efficientie hebt, mag je in je handjes klappen, en dan is de bus ineens snel genoeg! wow! Die gasten bij Intel kunnen wel rekenen zeg!
ja ddr2 typo, moet kunnen lijkt me (jij maakt ze ook)
en sinds waneer is de FSB 100% efficient?
en daarbij moet er nog meer communicatie over die FSB niet alleen geheugen.
Dan ben je zeker alweer vergeten dat de Athlon oa in audio/video-encoding altijd het onderspit moest delven tegen Pentiums en nu Core2.
nee dat ben ik niet vergeten omdat het niet waar is.
er waren ook genoeg encoders waar AMD duidelijk sneller was als netburst, Xvid bijvoorbeeld en nog een hele zwik andere. kijk hier maar eens. meerdere malen word de p4 3.2ghz bijgehouden of zelfs ingehaald door een athlon64 3200+

waar de p4 wel won kwam het vooral door de snellere SSE2 unites van netburst want veel encoders waren daarvoor geoptimalizeerd en dus niet vanwegen een voordeel in bandbreedte.
sterker nog de p4 had helemaal geen bandbreedte voordeel tov de athlon64, dus dat kan de reden helemaal niet zijn geweest.
beide hadden 6.4GB/s in theorie en AMD licht in het voordeel vanwegen een efficientere geheugen controler
25% van intels productie is helemaal niet 3/4 van de markt.
Nee, *heel* Intels productie is 3/4 van de markt, natuurlijk.
Dat is inderdaad ongeveer 25% voor AMD, 56% voor Pentium/Celeron en 19% voor Core2.
conclusie, netburst verkoopt niet beter nu de core2 er is.
Nee duh, daarom schroeven ze juist de productie van Netburst terug. Het interessante gegeven is dus het terugschroeven goed in verhouding staat met de afgenomen vraag naar Pentium/Celeron. Maar daar heb je geen cijfers van.
gevolg daarvan, intel kan het overschot aan netburst cores wat ze al hadden niet kwijt, en de kans is vrij groot dat het overschot alleen maar stijgt.
Maar daar zijn geen cijfers van, dus eigenlijk is het niet meer dan jouw vermoeden.
intel zit met netburst in hun maag die ze niet kwijt kunnen, waardoor ze zichzelf in de vingers snijden omdat ze de core2 niet kunnen laten doordringen tot het budget sigment, waardoor AMD daar nu (nogsteeds) vrij spel heeft.
Net zeg je nog dat Intel hun Netburst niet kan omschakelen naar Core2, nu beweer je dat ze niet willen omschakelen omdat ze met die Netburst-CPUs zitten (maar ze kunnen het dus wel)... wat is het nou?
geld dat ze al hebben uitgegeven, is al lang geen probleem meer
Jawel, dat heten schulden.
en als je dat zo veel mogenlijk moet vermijden wat lul je dat dat het een enorm voordeel is voor intel?
Ik zeg niet dat het een enorm voordeel is. Ik zeg alleen dat het kan. Dus als je het niet kunt/wilt vermijden, is Intel nog steeds in het voordeel.
goh wat jammer nou dat niet alle programas een "rij om de berg heen" functie hebben. sterker nog, de meeste niet.
De meeste programma's zijn uberhaupt nog niet geschikt voor multithreading, en dat is een veel groter probleem op dit moment, en dat is net zo hard van toepassing op AMD als Intel.
Verder zullen programma's altijd uiteen vallen in AMD-vriendelijk en Intel-vriendelijk, al dan niet bewust. Dat verschijnsel is al veel ouder dan het verschil tussen FSB en HT/onboard memcontroller. Er zijn altijd mensen die programma's niet (goed) optimaliseren, waardoor ze tegen problemen aanlopen qua performance.
Dat vind ik dan ook verder niet zo interessant. Wat mij interesseert is wat je uit een processor kunt halen, als je hem tot het uiterste drijft.
Het interesseert me niet wat een processor in het slechtste geval doet, want dat geval wil ik ten allen tijde vermijden.
en sinds waneer is de FSB 100% efficient?
Sinds FSB niet werkt als geheugen, waarbij je pagina's moet aanspreken, en rijen en kolommen, met allerlei instructies, voordat je kunt lezen of schrijven.
Een FSB verstuurt gewoon data met praktisch geen overhead, voor DDR2 ligt dat anders. Lees maar eens hoe geheugen werkt.
en daarbij moet er nog meer communicatie over die FSB niet alleen geheugen.
Weet je over welke hoeveelheden je dan praat? Dan kunnen we dat in proportie zien tov de bandbreedte van de FSB.
er waren ook genoeg encoders waar AMD duidelijk sneller was als netburst.
Ja, die slechte gevallen die ik hierboven genoemd heb. Vrijwel altijd was de encoder die op een Intel-processor sneller was, ook in absolute de snellere, dus efficienter.
daarbij kwam het toen vooral door de snellere SSE2 unites van netburst want alle encoders waren daarvoor geoptimalizeerd
Telt dat dan niet ofzo? De P4 heeft die snelle SSE2-units nou eenmaal, dus als programmeur moet je daar vooral je voordeel mee doen. Zo zal men waarschijnlijk ook encoders gaan optimaliseren voor de Core2 Quad met z'n snelle SSE2 en shared L2-cache, waardoor de Quadfather weer niet mee kan komen. Zo gaat dat nou eenmaal.
en dus niet vanwegen een voordeel in bandbreedte
sterker nog de p4 had helemaal geen bandbreedte voordeel tov de athlon64, dus dat kan de reden helemaal niet zijn geweest.
Dat had de P4 juist wel. De Athlon zat nog op DDR400, en de P4 zat al op DDR2.
En nu de Athlon ook DDR2 gebruikt, zien we dat hij er eigenlijk geen steek sneller op wordt. De extra bandbreedte is er alleen in theorie... namelijk van geheugenmodule tot aan memorycontroller. De bandbreedte in de CPU zelf... namelijk de cache en de execution-pipeline, die komt nu tekort. En dat is een probleem dat de P4 absoluut vreemd is. Mede daardoor is de P4 altijd al zo enorm snel in SSE2 geweest, en zelfs nu nog doet de P4 niet of nauwelijks onder voor de Core2 als het SSE2 betreft.
Het is misschien wel zo ongeveer het enige waar de P4 goed in is, maar dat moet je toch wel erkennen.
nu spreek je jezelf tegen.
Nee duh, daarom schroeven ze juist de productie van Netburst terug.
en
Misschein dat Core2 juist een positief effect op de Pentium heeft, omdat de naam Intel weer in aanzien is gestegen.
dus welke is het? verkoopt de p4 nu wel of niet beter?

het goede antwoord is, de p4 verkoopt niet beter als eerst. het directe gevolg daarvan is dat intel zijn voorraden netburst NIET kwijt kan.
Net zeg je nog dat Intel hun Netburst niet kan omschakelen naar Core2, nu beweer je dat ze niet willen omschakelen omdat ze met die Netburst-CPUs zitten (maar ze kunnen het dus wel)... wat is het nou?
ik heb nooit beweerd dat ze het niet kunnen. ik zei alleen dat ze dat niet op hele korte termijn zouden kunnen technish gezien,
en nog niet willen financieel gezien omdat ze dan al die netbursts moeten afschrijven.
Jawel, dat heten schulden.
de kosten voor omschakeling worden afgetrokken van het bedrijfs resultaat, daar hoeft AMD geen geld voor te lenen.
voor AMD hoort dat gewoon bij "cost of doing business".
Ja, die slechte gevallen die ik hierboven genoemd heb. Vrijwel altijd was de encoder die op een Intel-processor sneller was, ook in absolute de snellere, dus efficienter.
ik was nog bezig met editen en had nog een leuk artical toe gevoegt wat je duidelijk eens zou moeten lezen.
hier is het nog een keer
http://www.digit-life.com...puroundupvideo/index.html

meerdere malen word de p4 3.2ghz bijgehouden of zelfs ingehaald door een athlon64 3200+
Dat had de P4 juist wel. De Athlon zat nog op DDR400, en de P4 zat al op DDR2
de p4 had een 800mhz FSB de athlon64 dual channel ddr-400 (met een efficientie die vrij dicht de 100% kwam)
, zien we dat hij er eigenlijk geen steek sneller op wordt.
goh nee je meent het is het echt waar?
dat had ik je VER voor de introductie van ddr2 athlon 64's ook al kunnen vertelen. je hoefde alleen maar naar het verschil tussen socket 754 en 939 te kijken om dat te weten.
De extra bandbreedte is er alleen in theorie...
FOUT. de extra bandbreedte is er gewoon, de athlon64 heeft hem alleen niet nodig.
met de quad cores zal het pas echt van pas gaan komen.
en hey, en die kan je gewoon op je oude am2 mobo prikken met ddr2-800 erin.
De bandbreedte in de CPU zelf... namelijk de cache en de execution-pipeline, die komt nu tekort.
bandbandbreedte in de execution pipeline heb ik geen kijk op en die varrieeer heel erg met wat er gedaan moet worden.
de cach bandbreedte weet ik echter wel, en dat is voor de L1 2x 64bit per clock.
op 2.4ghz dus 6 keer meer als ddr2-800.
natuurlijk moet de L1 ook meer data verstouwen, maar om nou te zeggen dat hij echt een te kort heeft.
daarbij word dit zoals eerder gezegt in de k8L verdubbeld.
Mede daardoor is de P4 altijd al zo enorm snel in SSE2 geweest, en zelfs nu nog doet de P4 niet of nauwelijks onder voor de Core2 als het SSE2 betreft.
de p4's sse unites deden het altijd zo veel beter omdat ze tot 33% hoger geclocked waren als die van de ahtlon64 maar verder zeer vergelijkbaar waren. clock voor clock was er weinig verschil.
de sse unites uit de core2 zijn 2 keer zo breed geworden in vergelijking met die uit de p4.
dat los je dus niet meer op met een 33% hogere clock.
bekijk nog maar eens een pure sse benchmark en je zult zien dat de p4 flink word ingemaakt door core2.
dus welke is het? verkoopt de p4 nu wel of niet beter?
Dat weet ik niet, ik heb geen cijfers gezien, en jij ook niet.
Het punt dat ik hier wil maken is dat het enige interessante is of de P4 relatief beter verkoopt, omdat de productie is afgenomen, en dat zou best kunnen.
het goede antwoord is, de p4 verkoopt niet beter als eerst. het directe gevolg daarvan is dat intel zijn voorraden netburst NIET kwijt kan.
Dat denk jij, maar daar heb je geen bewijzen voor.
Verder heb je ook geen harde getallen over wat het voor Intel zou betekenen als ze die vermeende voorraden niet kwijt zouden kunnen.
ik heb nooit beweerd dat ze het niet kunnen. ik zei alleen dat ze dat niet op hele korte termijn zouden kunnen technish gezien,
Ik denk dat dat geen enkel probleem is.
en nog niet willen financieel gezien omdat ze dan al die netbursts moeten afschrijven.
Dat lijkt me een slim plan. Als de prijs maar laag genoeg is, zijn Pentiums en Celerons prima processors voor Office-computers of thuiscomputers voor de non-gamers.
Dus Netburst hoeft nou ook niet meteen weggegooid te worden omdat er iets nieuws is.
de kosten voor omschakeling worden afgetrokken van het bedrijfs resultaat, daar hoeft AMD geen geld voor te lenen.
voor AMD hoort dat gewoon bij "cost of doing business".
Behalve dan dat de overname van ATi toch wat meer centjes kostte dan ze dachten, en ze hun bedrijfsresultaat dus twee keer hebben uitgegeven.
Bereid je voor op rode cijfertjes van het groene merk (is ATi toch nog een beetje rood).
meerdere malen word de p4 3.2ghz bijgehouden of zelfs ingehaald door een athlon64 3200+
Precies, de slechte gevallen.
In de beste gevallen kan zelfs de veel duurdere FX-51 de P4 niet bijhouden.
Kortom, wanneer de P4 goed gebruikt wordt, is ie sneller, zoals ik al zei. Het is maar net voor welke CPU je je software optimaliseert. In het ideale geval optimaliseer je voor beiden, maar dat komt in de praktijk maar zelden voor.
de p4 had een 800mhz FSB de athlon64 dual channel ddr-400 (met een efficientie die vrij dicht de 100% kwam)
De Extreme Edition had 1066 MHz.
FOUT. de extra bandbreedte is er gewoon, de athlon64 heeft hem alleen niet nodig.
Domste stelling ooit.
Dat is net zoals je CPU lager klokken en zeggen "meer kloksnelheid heeft ie niet nodig".
Nogmaals, de applicatie bepaalt de bandbreedtebehoefte, en er zijn genoeg applicaties die meer bandbreedte aankunnen dan je geheugen kan leveren. Het probleem bij AMD is alleen erger: ook de cache kan eigenlijk niet meer leveren.

Ik heb net m'n multithreaded code geprobeerd op een Athlon64 X2 4400+ trouwens.
Grappig genoeg zat er amper 5% snelheidsverschil in.
Dat terwijl m'n Core2 Duo zo'n 20% sneller is.
Grote kans dat dat komt omdat de CPU gewoon niet genoeg bandbreedte heeft... En misschien dat het ook deels komt door de 2 afzonderlijke L2-caches.
Als ik straks testresultaten van een Pentium-D heb verzameld, weten we in hoeverre het de intercore-communicatie is. De Pentium-D is immers in theorie nog slechter in intercore-communicatie dan de Athlon. Maar qua bandbreedte en cache is de Pentium-D weer meer vergelijkbaar met m'n Core2.

Sowieso wel een goede testcase tegen de mythe dat de Core2 minder goed zou kunnen multithreaden dan een Athlon.
met de quad cores zal het pas echt van pas gaan komen.
en hey, en die kan je gewoon op je oude am2 mobo prikken met ddr2-800 erin.
Waardoor 4 cores dus niet meer bandbreedte hebben dan 2 cores. Wat dus in principe niet anders is dan bij Intel. Daar heeft een quadcore evenveel bandbreedte als een dualcore. En bij de dualcores is het al duidelijk wie het best met die bandbreedte omspringt...
de cach bandbreedte weet ik echter wel, en dat is voor de L1 2x 64bit per clock.
op 2.4ghz dus 6 keer meer als ddr2-800.
natuurlijk moet de L1 ook meer data verstouwen, maar om nou te zeggen dat hij echt een te kort heeft.
L1-cache communiceert dan ook niet direct met het geheugen. Het probleem van de L1-cache bij de Athlon is voornamelijk dat hij 3 clks latency heeft vanwege de grootte. Eigenlijk telt alleen de latency, omdat je per instructie de cache uitleest. Je zult nooit veel bandbreedte nodig hebben, je haalt hooguit 128 bits tegelijk op met 1 instructie. Je wilt die bits alleen zo snel mogelijk hebben, anders hou je je instructies op (wat een extra probleem bij de Athlon is... hij kan geen lees- of schrijfoperaties reorderen).
Intel heeft bij de P4 gekozen voor een kleine L1-cache met enorm lage latency (zeker in absolute zin, gezien de extreme kloksnelheid waarop de core loopt), en dat gekoppeld aan een groot L2-cache, dat eveneens bijzonder snel is.

Het bandbreedte-probleem zit hem in de L2-cache bij de Athlon. En schijnbaar is het dus ook een probleem dat de twee caches van een dualcore met elkaar moeten communiceren.
de p4's sse unites deden het altijd zo veel beter omdat ze tot 33% hoger geclocked waren als die van de ahtlon64 maar verder zeer vergelijkbaar waren. clock voor clock was er weinig verschil.
de sse unites uit de core2 zijn 2 keer zo breed geworden in vergelijking met die uit de p4.
Ik heb al voor de introductie van de Athlon64 gezegd dat de SSE2-units ondermaats zouden zijn. Het is niet meer dan logisch dat Intel ze uit heeft gebouwd voor een CPU die op een veel lagere kloksnelheid werkt. Anders kun je nooit in de buurt van de P4 komen, omdat je simpelweg veel minder instructies per seconde kunt verwerken.
dat los je dus niet meer op met een 33% hogere clock.
bekijk nog maar eens een pure sse benchmark en je zult zien dat de p4 flink word ingemaakt door core2.
Dat valt juist vies tegen.
Zie hier bv: http://www.sudhian.com/index.php?/articles/show/906/3
In de Whetstone iSSE2 is de Pentium XE965 toch echt een klasse apart.
Ook in de bandbreedte-test zie je de spierballen van de Pentium nog, hij blijft de Core2 voor met een redelijke marge. Bruut hoge kloksnelheid heeft zo z'n voordelen.
Dat denk jij, maar daar heb je geen bewijzen voor.
Verder heb je ook geen harde getallen over wat het voor Intel zou betekenen als ze die vermeende voorraden niet kwijt zouden kunnen.
dan mag jij mij uitleggen waar intel "several milion" netbursts heeft gelaten sinds april dit jaar, zonder dat ze marktaandeel hebben gewonnen, zonder dat de totale markt (veel) is gegroeid en zonder dat intel zijn totale productie heeft verlaagt (dat zou namelijk voor het eerst in de geschiedenis zijn, en daarom groot nieuws zijn geweest).
Dat lijkt me een slim plan. Als de prijs maar laag genoeg is, zijn Pentiums en Celerons prima processors voor Office-computers of thuiscomputers voor de non-gamers.
Dus Netburst hoeft nou ook niet meteen weggegooid te worden omdat er iets nieuws is.
waarom een core2 kopen als een athlon64/sempron ook prima is?
zelfde verhaal.
waarom een netburst kopen als een athlon ook voldoet, zelfs beter is en nog minder verbruikt ook?
als er een markt is voor die netburst gedrochten nu de core2 er is dan is er zeer zeker een markt voor k8 gebazeerde cpu's.
Ik denk dat dat geen enkel probleem is.
kan je denken maar daar heb je veel minder bewijzen/feiten voor als ik heb om te denken dat intel met een veel te grote voorraad netburst zit.
ik heb indirecten harde feiten en logische redeneren/extrapoleren, jij hebt niks.

daarbij als het echt zo gemakelijk was, en intel geen grote voorraad netburst heeft... waarom zijn ze dan al niet voor 100% over op core2? of iniedergeval een flink aantal fabriek aan het ombouwen?
Behalve dan dat de overname van ATi toch wat meer centjes kostte dan ze dachten, en ze hun bedrijfsresultaat dus twee keer hebben uitgegeven.
Bereid je voor op rode cijfertjes van het groene merk (is ATi toch nog een beetje rood).
rode cijfers op je netto winst door eenmalige kosten veranderen niks aan het bedrijfs resultaat (bedrijfs resultaat = opbrengst verkoop - kosten van zaken doen)
AMD is en blijft gewoon een gezond bedrijf.
die kosten voor de omschakkeling zijn dus al lang verwerkt, die houdt AMD echt niet tegen om de prijs van hun CPU's te verlagen.
Precies, de slechte gevallen.
In de beste gevallen kan zelfs de veel duurdere FX-51 de P4 niet bijhouden.
Kortom, wanneer de P4 goed gebruikt wordt, is ie sneller, zoals ik al zei. Het is maar net voor welke CPU je je software optimaliseert. In het ideale geval optimaliseer je voor beiden, maar dat komt in de praktijk maar zelden voor.
umm lees nog maar eens, in 4 van de 7 gevallen word de p4 ongeveer bijgehouden en zelfs overtroffen door de stukken goedkopere 3200+
en even voor de duidelijkheid 4 van 7 = meer als de helft.
wel erg veel "slechtste gevallen" vind je zelf ook niet?
De Extreme Edition had 1066 MHz.
en hoeveel % van de mensen heeft een extreme edition gehad?
totaal verwaarloosbaar, en dus niet erg relevalt. daarbij deed de extreme edition het niet ineens 33% sneller als een gelijk geclockte normale p4 terwijl hij wel 33% meer bandbreedte had.
en deed hij dat in enkel gevallen wel dan zal dat vooral toe te schrijven zijn aan de grote cache.

feit blijft, in 99+% van de gevallen toen, had de p4 even veel bandbreedte voorhanden als de athlon64.
Waardoor 4 cores dus niet meer bandbreedte hebben dan 2 cores. Wat dus in principe niet anders is dan bij Intel. Daar heeft een quadcore evenveel bandbreedte als een dualcore. En bij de dualcores is het al duidelijk wie het best met die bandbreedte omspringt...
dat is allemaal relatief ten opzicht van zichzelf.

AMD heeft gewoon meer bandbreedte om te verdelen over die 4 cores.
dat de verhouding tussen core2 en athlon64 bij de upgrade van dual naar quad core niet veranderen is natuurlijk een volstrekt irrelevant feit.
L1-cache communiceert dan ook niet direct met het geheugen. Het probleem van de L1-cache bij de Athlon is voornamelijk dat hij 3 clks latency heeft vanwege de grootte. Eigenlijk telt alleen de latency,
nee er zit een geheugen controler tussen. maar alles uit de geheugen controler komt gaat. via de crossbar wel rechtstreeks het L1 bij de athlon64s.
en nu zeg je dat alleen de latency telt. bandbreedte is ineens niet belangrijk meer?
en net had de athlon64 nog zo'n enorm te kort aan cachebandbreedte.
(wat een extra probleem bij de Athlon is... hij kan geen lees- of schrijfoperaties reorderen).
K8L kan dat wel. p4 kon dat ook niet of nouwelijks.
dan mag jij mij uitleggen waar intel "several milion" netbursts heeft gelaten, zonder dat ze marktaandeel hebben gewonnen, zonder dat de totale markt (veel) is gegroeid en zonder dat intel zijn totale productie heeft verlaagt (dat zou namelijk voor het eerst in de geschiedenis zijn, en daarom groot nieuws zijn geweest).
Als jij me eerst uitlegt waar je die "several million" vandaan haalt, want ik ga geen dingen uitleggen die jij loopt te verzinnen.
waarom een core2 kopen als een athlon64/sempron ook prima is?
zelfde verhaal.
waarom een netburst kopen als een athlon ook voldoet, zelfs beter is en nog minder verbruikt ook?
als er een markt is voor die netburst gedrochten is nu de core2 er is dan is er zeer zeker een markt voor k8 gebazeerde cpu's.
Nogmaals, ik kijk vooruit, jij niet. Over een aantal maanden is er geen Netburst meer... Voor Intel is het verhaal anders dan voor AMD, want Intel heeft alles in eigen hand.
Verder is er inderdaad een markt voor goedkope en trage CPUs, maar dat betekent dat AMD weer compleet afzakt naar de betekenisloze low-budget klonenbakker die het was voor het Athlon-tijdperk, die markt is immers niet zo heel groot, en ook niet zo heel lucratief... en het is op z'n minst opmerkelijk dat ze zo'n voorsprong zo makkelijk en zonder echte tegenaanval uit handen geven. Dan hebben ze wel zitten slapen de laatste jaren.
AMD is en blijft gewoon een gezond bedrijf.
AMD is zelden gezond geweest. Pas de laatste paar kwartalen draaien ze een bescheiden winst. Daarvoor is het bijna altijd verlies geweest. Die winst hadden ze dus door hun Athlon, die nu gereduceerd gaat worden tot lage middenklasser, waar minder te verdienen valt. Ze gaan dus weer wegzakken in fde toekomst.
umm lees nog maar eens, in 4 van de 7 gevallen word de p4 ongeveer bijgehouden en zelfs overtroffen door de stukken goedkopere 3200+
4 van 7 = meer als de helft.
En dus? Ik heb het alleen over slechte en goede gevallen. Ik heb niet gezegd dat er meer goede dan slechte gevallen zijn.
Sowieso, als je je nu druk gaat maken over een paar verouderde CPUs in achterhaalde benchmarks, dan ben je wel erg triest hoor... P4 is geweest, het is nu Core2.
Die benchmarks zien er toch heel anders uit.
en hoeveel % van de mensen heeft een extreme edition gehad?
totaal verwaarloosbaar, en dus niet erg relevalt.
Gaat het niet om. Het gaat om waar de technologie toe in staat is.
daarbij deed de extreme edition het niet ineens 33% sneller als een gelijk geclockte normale p4 terwijl hij wel 33% meer bandbreedte had.
en deed hij dat in enkel gevallen wel dan zal dat vooral toe te schrijven zijn aan de grote cache.
Inderdaad, want zoals ik al uit had gelegd, heeft bandbreedte meestal niet zo heel veel met prestaties te maken, vandaar dat die bandbreedte-mythe van de AMD-fans nogal overdreven is.
feit blijft, in 99+% van de gevallen toen had de p4 even veel bandbreedte voorhanden als de athlon64.
Tsja, als je de beste modellen uit een serie CPUs negeert, is het natuurlijk een beetje flauw om op specificaties of prestaties te gaan vergelijken. Kan AMD alleen winnen als de tegenstander een handicap heeft?
AMD heeft gewoon meer bandbreedte om te verdelen over die 4 cores.
Waar baseer je dat in godsnaam op, gezien het feit dat beiden hetzelfde geheugen gebruiken, en de AMD ook nog eens extra communicatie tussen de cores heeft, omdat de caches niet shared zijn?
Alles wijst erop dat ten eerste AMD niet meer bandbreedte heeft, en ten tweede AMD meer bandbreedte nodig heeft.
en nu zeg je dat alleen de latency telt. bandbreedte is ineens niet belangrijk meer?
Voor L1-cache wel ja (richting de CPU, zoals jij aangeeft met 2x64 bits). Beter lezen, of gaat het gewoon boven je pet?
en net had de athlon64 nog zo'n enorm te kort aan cachebandbreedte.
Ja, dat gaat over het L2-cache, zoals ik ook al zo vaak zei. L2-cache bij Athlon heeft 3 problemen:
1) Het communiceert niet zo snel met L1-cache.
2) Het is niet zo effectief met het fetchen uit geheugen (prefetchen is niet efficient, de associativiteit is niet zo best).
3) Iedere core heeft aparte L2-cache, en communicatie tussen de cores moet 'buitenom'.

Dit zorgt ervoor dat je je geheugen niet sneller kunt benutten, wat jij verwoordt als 'je hebt niet meer bandbreedte nodig'. Wat dus een omgekeerde redenering is. Die bandbreedte heb je niet 'nodig' omdat de CPU tegen beperkingen aanloopt waardoor de prestaties belemmerd worden.
Dat is altijd het gevaar met processors op relatief lage kloksnelheid. Dit gevaar schuilt ook voor de Core2 Duo, maar zolang de Core2 Duo de koppositie heeft, is dat niet degene die zich druk moet maken om z'n beperkingen.
K8L kan dat wel. p4 kon dat ook niet of nouwelijks.
Tsja, maar K8L is voorlopig nog toekomstmuziek. P4 is al een gepasseerd station, en de opvolger heeft eigenlijk alle zwakke punten van de P4 weggepoetst, en heeft maar weinig op de sterke punten ingeleverd.
Nogmaals, kan AMD alleen winnen als de tegenstander een handicap heeft?
Als jij me eerst uitlegt waar je die several million vandaan haalt, want ik ga geen dingen uitleggen die jij loopt te verzinnen.
*zucht* zoals ik al eerder heb gepost.
http://news.com.com/Intel.../2100-1006_3-6065925.html

"and now is dealing with "several million" processors worth of excess inventory."

dus voor je weer vergeet waarom we het hier over hadden. waar heeft intel die "several million" netbursts gelaten?

blijf eens bij de les zeg. met een simple ctrl+f hier op tweakers als je het al terug kunen vinden.
selectief geheugen?
Nogmaals, ik kijk vooruit, jij niet. Over een aantal maanden is er geen Netburst meer... Voor Intel is het verhaal anders dan voor AMD, want Intel heeft alles in eigen hand.
Verder is er inderdaad een markt voor goedkope en trage CPUs, maar dat betekent dat AMD weer compleet afzakt naar de betekenisloze low-budget klonenbakker die het was voor het Athlon-tijdperk, die markt is immers niet zo heel groot, en ook niet zo heel lucratief... en het is op z'n minst opmerkelijk dat ze zo'n voorsprong zo makkelijk en zonder echte tegenaanval uit handen geven. Dan hebben ze wel zitten slapen de laatste jaren.
budget is veruit de GROOTSTE markt, niet een klein markt, zelfs in omzet gemeten, ondanks de lagere prijs per chip.

en ik weet niet waar jij naar vooruit kijkt maar de k8L zie je duidelijk geheel over het hoofd.
alles waar jij naar vooruit kijkt gebeurt niet of niet geheel binnen nu en de introductie daarvan.
En dus? Ik heb het alleen over slechte en goede gevallen. Ik heb niet gezegd dat er meer goede dan slechte gevallen zijn.
'ja en' dat de athlon64 het dus helemaal niet slecht is encoderen, en dat dat duidelijk maakt dat de athlon64 helemaal geen groot te kort aan interne bandbreedte heeft.

je bent duidelijk helemaal vergeten waarom we dit deel van het argument ook alweer voerden of niet.
AMD is zelden gezond geweest. Pas de laatste paar kwartalen draaien ze een bescheiden winst. Daarvoor is het bijna altijd verlies geweest. Die winst hadden ze dus door hun Athlon, die nu gereduceerd gaat worden tot lage middenklasser, waar minder te verdienen valt. Ze gaan dus weer wegzakken in fde toekomst.
onzin. ze hebben vrij lang dikke winst gemaakt met hun flash tak. ook daarvoor maakte ze winst voordat intel hun sockets geen patenteren (alles voor de k5 dus).
daarbij heeft AMD altijd bijna al het geld wat ze hebben verdiend weer terug in het bedrijf te stoppen.
dat leverd vaak geen zwarte cijfers op op de "bottem line" maar dat wil niet meteen zeggen dat het bedrijf ongezond is.

daarbij is er nu een groot verschil met vroeger, en dat is wel dat AMD nu 3 maal meer silicium oppervlakte kan produceren als ze vroeger konden.
dat maakt een groot verschil in welke mogenlijkheden je hebt en maakt van AMD in een klap een van de grote speler in de chip markt

"betekenisloze low-budget klonenbakker" zullen ze dus nooit meer zijn.
Gaat het niet om. Het gaat om waar de technologie toe in staat is.
dikke BULL. het gaat erom wat de meeste mensen er van merken. daarbij ging het om een vergelijking tussen die p4 met 800mhz fsb en de normale athlon64, en niet om die EX. die trouwens pas veel later werd geintroduceerd.
Voor L1-cache wel ja (richting de CPU, zoals jij aangeeft met 2x64 bits). Beter lezen, of gaat het gewoon boven je pet?
oooo nu is het ineens alleen richting de CPU. beter lezen heeft geen effect als jij niet opschrijft wat je bedoeld of wel?
Inderdaad, want zoals ik al uit had gelegd, heeft bandbreedte meestal niet zo heel veel met prestaties te maken, vandaar dat die bandbreedte-mythe van de AMD-fans nogal overdreven is.
en WEER spreek je jezelf tegen.

dus is het nu dit hierboven of
"Het bandbreedte-probleem zit hem in de L2-cache bij de Athlon."
+
"Toen was de cache inderdaad ook al beter, wat bandbreedte aanging,"

daarbij toonde die encodeer tests al aan dat het reuze mee valt met dat bandbreedte te kort van de k8.
Waar baseer je dat in godsnaam op, gezien het feit dat beiden hetzelfde geheugen gebruiken, en de AMD ook nog eens extra communicatie tussen de cores heeft, omdat de caches niet shared zijn?
Alles wijst erop dat ten eerste AMD niet meer bandbreedte heeft, en ten tweede AMD meer bandbreedte nodig heeft.
AMD heeft geen communicatie tussen de cores over de geheugenbus bandbreedte bij hun quadcore omdat die shard L3 cache zal hebben.

en op het feit dat bij AMD ze de volle bandbreedte van dual channel ddr2-800 kunnen gebruiken en dat niet hoeven terug te voeren over de kleine bandbreedte van de FSB.
daarbij kan AMD de communicatie met het systeem buiten die geheugen bandbreedte om sturen, waar hij bij intel ook nog over die te zelfde FSB moet sturen, waarmee ze de beschikbare geheugen bandbreedte nog verder verkleinen.

nogmaals, als intel jouw zou geloven zouden ze dat hele CSI in de prullenbak kunnen stoppen, nergens voor nodig blijkbaar.
kom nu toch, intel doet dat echt niet voor niks.
Ja, dat gaat over het L2-cache, zoals ik ook al zo vaak zei. L2-cache bij Athlon heeft 3 problemen:
1) Het communiceert niet zo snel met L1-cache.
2) Het is niet zo effectief met het fetchen uit geheugen (prefetchen is niet efficient, de associativiteit is niet zo best).
3) Iedere core heeft aparte L2-cache, en communicatie tussen de cores moet 'buitenom'.
de communicatie hoeft met de L1 hoeft ook niet zo snel omdat alles uit het geheugen rechtstreeks het L1 in gaat en niet zoals bij intel waar alles door de L2 heen stroomt.

nee de prefetchers zijn niet zo efficient als die van de core2 of de p4.
en in de tijd van de p4 was dat ook nergens voor nodig omdat vanwegen de veel korte pipeline waardoor de athlon64 procentueel gezien niet vaker cache misses had als de p4, omdat hij gewoon minder ver in de toekomst hoefde te kijken.
nu heeft intel de extreem uitgebreide prefetcher van de p4 op de korte pipeline van de core2 toegepast. dat is een beetje zoiets als een 12-speed vrachtwagen versnellingsbak in je sportwagen bouwen.
kan hij efficienter werken? ja.
heeft hij het nodig? nee.

daarnaast word ook de prefetcher bij de K8L flink uitgebried.

en de K8L krijgt ook shared L3 cache.
Dit zorgt ervoor dat je je geheugen niet sneller kunt benutten,
zoals ik dus al eerder heb uitgelegt geheugen communcatie gaat rechtstreeks het L1 in, het L2 heeft daar niks mee te maken.
Tsja, maar K8L is voorlopig nog toekomstmuziek.
9 maanden is niet heel ver in de toekomst en met meer als 50% marktaandeel is de p4 zeker nog geen gepaseerd station.
jij lijkt te denk dat intel binnen de eerste 6 maanden van 2007 AMD helemaal van de kaart kan vegen.
dingen gebeuren gewoon niet zo snel in de chipwereld omdat elke verandering veel planning en tijd vergt om te implementeren.
zelfs als AMD in 2007 tot de k8L er is helemaal geen een cpu meer verkoopt kunnen ze die tijd echt wel uit zingen hoor.
dus voor je weer vergeet waarom we het hier over hadden. waar heeft intel die "several million" netbursts gelaten?
Misschien vergeet jij dat we het er al over gehad hebben, en dat dit bericht een half jaar oud is, dus niet meer ter zake doet.
Maar goed, dat je in het verleden leeft, wisten we al.
budget is veruit de GROOTSTE markt, niet een klein markt, zelfs in omzet gemeten, ondanks de lagere prijs per chip.
Cijfers? Bron? Waar hebben we het over?
AMD zakt zo laag in de low-budget dat ze de office-markt gaan mislopen, en dat is waar ze een hoop geld gaan verliezen.
en ik weet niet waar jij naar vooruit kijkt maar de k8L zie je duidelijk geheel over het hoofd.
alles waar jij naar vooruit kijkt gebeurt niet of niet geheel binnen nu en de introductie daarvan.
Jij bent degene die over Netburst begint te hameren. Netburst zal tegen de introductie van K8L ook geen grote rol meer spelen.
Verder boeit de K8L me inderdaad totaal niet... Too little, too late. Maar dat is het verschil tussen iemand als ik, die begrijpt hoe een processor werkt, en iemand als jij, die alleen maar blind naar een merkje kan staren.
je bent duidelijk helemaal vergeten waarom we dit deel van het argument ook alweer voerden of niet
Volgens mij ben jij dat. Punt was dat in de goede gevallen een P4 absoluut sneller is dan een Athlon, en dat tonen de benchmarks aan.
Punt daarbij is dat de Athlon volgens jou MEER bandbreedte heeft dan een P4 met FSB. Hoe kan die P4 dan toch zo veel sneller zijn in dergelijke bandbreedte-intensieve benchmarks?
Dat moet dus betekenen dat ergens tussen het geheugen en het uitvoeren van de instructies iets fout gaat bij de Athlon. QED.
dikke BULL. het gaat erom wat de meeste mensen er van merken. daarbij ging het om een vergelijking tussen die p4 met 800mhz fsb en de normale athlon64, en niet om die EX. die trouwens pas veel later werd geintroduceerd.
Dus je geeft toe dat AMD alleen kan winnen als Intel niet z'n snelste processors mag inzetten.
Wat een zwaktebod.
en WEER spreek je jezelf tegen.

dus is het nu dit hierboven of
"Het bandbreedte-probleem zit hem in de L2-cache bij de Athlon."
+
"Toen was de cache inderdaad ook al beter, wat bandbreedte aanging,"
Het is beide, maar ik snap dat jij het met je beperkte kennis al lang niet meer kan volgen.
nogmaals, als intel jouw zou geloven zouden ze dat hele CSI in de prullenbak kunnen stoppen, nergens voor nodig blijkbaar.
kom nu toch, intel doet dat echt niet voor niks.
Je vergeet iets.
Intel heeft totaal andere CPUs.
AMD heeft al bewezen dat ze geen voordeel kunnen halen uit hun HT en onboard memory controller. Intel wist dit van tevoren, en heeft daardoor gekozen om de introductie nog uit te stellen.
Natuurlijk gaan ze daar uiteindelijk naartoe, maar wel als de tijd rijp is. Voor Intel is dat bijna het geval. Bij AMD is het nog maar afwachten. Voorlopig heeft AMD er dus niks aan, het heeft ze alleen maar meer achterstand en problemen gekost.
de communicatie hoeft met de L1 hoeft ook niet zo snel omdat alles uit het geheugen rechtstreeks het L1 in gaat en niet zoals bij intel waar alles door de L2 heen stroomt.
Ten eerste gaat het niet echt direct de L1 in, maar doet de L2 de fetch (want alleen L2 is met de geheugencontroller verbonden), en wordt het in het geval van Athlon uit de L2 gehaald op het moment dat het in L1 gezet wordt... en omgekeerd (extra werk, traag).
Ten tweede vergeet jij blijkbaar dat je niet altijd uit het geheugen leest (als dat wel zo was, had je heel die L2 niet nodig). Kortom, je hebt het wel nodig. Harder dan bij Intel zelfs, omdat Intel nooit van L1 naar L2 terugkopieert als een cacheline uit L1 evicted is.
Heb je weer een mooi bewijs geleverd dat je er niks van begrijpt.
en de K8L krijgt ook shared L3 cache.
Leuk en aardig, maar dat is dus per definitie een gradatie trager dan shared L2 cache. Blijft behelpen dus.
jij lijkt te denk dat intel binnen de eerste 6 maanden van 2007 AMD helemaal van de kaart kan vegen.
Ze zullen een eind komen. Zoals je zelf al toe hebt gegeven, heeft Intel AMD al uit de markt boven 230e geveegd. Daar komen nog een paar quadcores bovenop, en wat prijsverlagingen, terwijl AMD niets kan doen behalve de belachelijke quadfather, en wachten totdat de K8L er is, en hopen dat Intel tegen die tijd niet nog verder uitgelopen is.
dingen gebeuren gewoon niet zo snel in de chipwereld omdat elke verandering veel planning en tijd vergt om te implementeren.
Het is al gebeurd, de Core2 heeft de K8, en ook de K8L gedeclasseerd, het duurt alleen nog even totdat dit z'n uitwerking heeft. Maar AMD heeft in deze generatie gewoon niks in te brengen, wat automatisch betekent dat ze voor hun volgende generatie over minder resources kunnen beschikken, dus de kans is groot dat ze daar ook weer niks in te brengen hebben.
Dus is het weer net zoals vroeger... AMD maakt low-budgetklonen totdat Intel weer een steekje laat vallen, zoals met de Pentium 4. Met het verschil dat Intel nu gewaarschuwd is.
Nogmaals, als je zo zeker van je zaak bent, waarom verwedden we er dan geen processor om?
Ik ben zeker van m'n zaak iig. Ik had gelijk over de Athlon64, ik had gelijk over de Core2, en ik zal vast gelijk krijgen over de K8L.
Leuk en aardig, maar dat is dus per definitie een gradatie trager dan shared L2 cache. Blijft behelpen dus.
behelpen? je zegt zelf dat het maar zelden voor komt dat de threads met elkaar zouden moeten communiseren.
Je vergeet iets.
Intel heeft totaal andere CPUs.
AMD heeft al bewezen dat ze geen voordeel kunnen halen uit hun HT en onboard memory controller. Intel wist dit van tevoren, en heeft daardoor gekozen om de introductie nog uit te stellen.
Natuurlijk gaan ze daar uiteindelijk naartoe, maar wel als de tijd rijp is. Voor Intel is dat bijna het geval. Bij AMD is het nog maar afwachten. Voorlopig heeft AMD er dus niks aan, het heeft ze alleen maar meer achterstand en problemen gekost.
OOOOO naTUUUUUURlijk alleen maar problemen.
het heeft ze 4 jaar lang opgeleverd dat ze in BV games KOMPLEET gehakt maken van alles wat intel te bieden had.
en welke problemen? dat zeiden mensen voor de k8 daadwerkelijk op de markt kwam, daarna nooit meer iemand overgehoord. over in het verleden leven gesproken.
Dus je geeft toe dat AMD alleen kan winnen als Intel niet z'n snelste processors mag inzetten.
Wat een zwaktebod.
DAAR HADDEN WE HET NET NIET OVER.
heel lang had de athlon64 en de p4 de zelfde hoeveelheid geheugn bandbreedte en kon de athlon64 de p4 met bijna alles inmaken inclusief encoding benchmarkts, jouw theorie ontkrachtend dat de athlon64 een tekort aan interne geheugenbandbreedte zou hebben.
Volgens mij ben jij dat. Punt was dat in de goede gevallen een P4 absoluut sneller is dan een Athlon, en dat tonen de benchmarks aan.
en in andere gevallen is de athlon64 weer sneller.
ik kan jouw dus het zelfde vragen "Hoe kan die athlon64 dan toch zo veel sneller zijn in dergelijke bandbreedte-intensieve benchmarks?"

en waarom de P4 toch sneller kan zijn komt door de hoger geclockte SSE unites.
vidx was daar zwaar voor geoptimalizeerd (intel won), maar de echt geheugen intensive mpeg1-2 encoding had die sse units minder nodig (AMd won).
Jij bent degene die over Netburst begint te hameren. Netburst zal tegen de introductie van K8L ook geen grote rol meer spelen.
Verder boeit de K8L me inderdaad totaal niet... Too little, too late. Maar dat is het verschil tussen iemand als ik, die begrijpt hoe een processor werkt, en iemand als jij, die alleen maar blind naar een merkje kan staren.
dan zou dan de snelste omschakelijking zijn uit de geschiedenis van CPU's. eerst zien dan geloven.
Cijfers? Bron? Waar hebben we het over?
AMD zakt zo laag in de low-budget dat ze de office-markt gaan mislopen, en dat is waar ze een hoop geld gaan verliezen.
dat heb ik gelezen een tijdje gelezen, maar ik kan het even niet terug vinden, ik houd mijn ogen open. deze hou je van me te goed.
maar bewijs zelf maar eens dat het niet zo is met cijfers.
tot jij of ik het kunnen bewijzen beschouwen we deze maar als gelijkspel.
Jij bent degene die over Netburst begint te hameren. Netburst zal tegen de introductie van K8L ook geen grote rol meer spelen.
Verder boeit de K8L me inderdaad totaal niet... Too little, too late. Maar dat is het verschil tussen iemand als ik, die begrijpt hoe een processor werkt, en iemand als jij, die alleen maar blind naar een merkje kan staren.
als de k8L je niet boeit heb je duidelijk niet opgelet.
alle veranderingen die intel doorvoerde in de pentium-m om er de core2 van te maken komen ook in een of andere vorm in de K8L, maar dan inclusief on-board geheugen controler.
Ten eerste gaat het niet echt direct de L1 in, maar doet de L2 de fetch (want alleen L2 is met de geheugencontroller verbonden), en wordt het in het geval van Athlon uit de L2 gehaald op het moment dat het in L1 gezet wordt... en omgekeerd (extra werk, traag).
http://gec.di.uminho.pt/d...3/ICCA03/11000_Hammer.pdf

eerste diagram op pagina 2.
zie je dat in de K8 de geheugen controler rechtstreeks is aangesloten op de L1 data en instruction cache en dat er GEEN directe verbinding is van de L2 naar de geheugen controler.

als je dit niet eens weet mag ik dan alle je andere "kennis" die je over cache hebt lopen rondspuiten ZEER in twijfel trekken?
ik ga op die andere cache verhalen niet eens meer reageren tot jij je beter hebt ingelezen.
Misschien vergeet jij dat we het er al over gehad hebben, en dat dit bericht een half jaar oud is, dus niet meer ter zake doet.
Maar goed, dat je in het verleden leeft, wisten we al.
*hele diepe zucht*
ik zat nog te denken, moet ik misschien de hele vraag herhalen want hij is die vast alweer vergeten.
het spijt me zeer dat ik WEER je inteligentie, redenerings vermogen en geheugen zwaar overschat heb.
ok de HELE vraag opnieuw.

"dan mag jij mij uitleggen waar intel "several milion" netbursts heeft gelaten sinds april dit jaar, zonder dat ze marktaandeel hebben gewonnen, zonder dat de totale markt (veel) is gegroeid en zonder dat intel zijn totale productie heeft verlaagt (dat zou namelijk voor het eerst in de geschiedenis zijn, en daarom groot nieuws zijn geweest)."

en voor je weer vergeet waar several million vandaan kwam heb ik er maar een link van gemaakt deze keer.
behelpen? je zegt zelf dat het maar zelden voor komt dat de threads met elkaar zouden moeten communiseren
Nee, ik zei dat je het zo veel mogelijk moet vermijden, dat is iets heel anders.
Afgezien daarvan heeft de K8L dus straks een langzame verbinding tussen ALLE cores, waar de Core2 Quad een snelle verbinding heeft tussen 2 cores, en alleen een langzame verbinding tussen de dies.
Dan heb je per definitie al 50% minder verkeer dat over de langzame bus moet. En als je specifiek rekening houdt met het verschil tussen cores en dies, kun je dat nog verder uitbuiten.
Athlon blifjt dus behelpen in dat opzicht. Maar afgezien daarvan vind ik het inderdaad niet zo heel belangrijk voor de totale prestaties van de CPU, in de meeste gevallen.
en welke problemen? dat zeiden mensen voor de k8 daadwerkelijk op de markt kwam, daarna nooit meer iemand overgehoord. over in het verleden leven gesproken
Ik heb anders genoeg mensen horen klagen dat hun onboard controller op DDR333 ipv DDR400 moest lopen met 4 banken, of dat de commandrate altijd op 2T moest staan, omdat 1T instabiel was...
Verder is de K8 nog steeds het heden voor AMD.
jouw theorie ontkrachtend dat de athlon64 een tekort aan interne geheugenbandbreedte zou hebben.
Nee, zo werkt dat niet. Benchmarks winnen is niet gelijk aan het tekort komen van interne geheugenbandbreedte.
Ten eerste treedt het probleem pas op als je DDR2 gebruikt. Bij DDR400 klopt het bij de Athlon nog redelijk, het punt is alleen dat hij niet harder kan.
Jouw verouderde benchmarks tonen dus niets aan.
Ten tweede vergelijken die benchmarks met een (oude) P4, terwijl we nu de Core2 hebben (ik had het sowieso meer over de snelste P4s, met DDR2 geheugen, niet over een P4 met DDR400, want die heeft hetzelfde probleem als een Athlon, maar dan veroorzaakt door het geheugen zelf). Tegenover de Core2 wint een Athlon geen enkele benchmark, behalve die van synthethische read/write operaties op het geheugen.
En daar ligt de kern van het probleem dat ik aangeef: Hoe kan het dat de Athlon veel meer bandbreedte heeft bij het lezen en schrijven, maar dat hij desondanks in geen enkele applicatie de Core2 kan verslaan?
Het antwoord ligt voor de hand: zolang je alleen lees- of schrijfopdrachten doet, gaat het goed... Zodra je ook iets nuttigs met de informatie wilt doen, kan de CPU de data al niet meer snel genoeg verwerken.
Bij de P4 en Core2 is het aan te tonen dat de verwerkinggssnelheid hoger kan liggen dan bij een Athlon.
Bij de Core2 overduidelijk, omdat hij altijd en overal sneller is, ondanks een lagere kloksnelheid, en op papier lagere bandbreedte.
en waarom de P4 toch sneller kan zijn komt door de hoger geclockte SSE unites.
vidx was daar zwaar voor geoptimalizeerd (intel won)
Als je code kunt optimaliseren zodat het sneller op de P4 loopt, is de P4 dus de snellere processor. Jij doet net alsof dat valsspelen is ofzo?
Verder zal het me worst wezen of het komt door hoger geklokte SSE-units. Al komt het door kaboutertjes... Als het sneller is, dan is het sneller, en heeft de P4 een voordeel... AMD had dan ook maar snellere SSE-units in moeten bouwen. Dat hebben ze niet gedaan, dus moet niemand zeuren dat het niet sneller is.
alle veranderingen die intel doorvoerde in de pentium-m om er de core2 van te maken komen ook in een of andere vorm in de K8L, maar dan inclusief on-board geheugen controler
Maar AMD is geen Intel. Hun oplossingen zijn allemaal wat simpeler en minder grootschalig. Daarom komt het meer neer op pleistertjes plakken op een achterhaalde architectuur.
als je dit niet eens weet mag ik dan alle je andere "kennis" die je over cache hebt lopen rondspuiten ZEER in twijfel trekken?
ik ga op die andere cache verhalen niet eens meer reageren tot jij je beter hebt ingelezen.
Okee, dus technisch gezien gaat het via L1 ipv L2, dat verandert de rest van het verhaal niet (hier en daar L1 door L2 vervangen, dan klopt het weer prima). Je hebt altijd zowel communicatie van cache tot cache en van cache tot geheugen. Het diagram is sowieso wat kort door de bocht. De L1 gaat niet direct naar geheugen, maar kijkt eerst of de informatie in L2 staat. Pas dan gaat hij naar geheugen (daarom is het ook logisch om de L2-cache het geheugen te laten doen, en dat verklaart misschien ook wel het probleem van AMD).
Beetje slap excuus dus. Ga liever inhoudelijk in op de kern van het verhaal: de trage communicatie tussen L1 en L2-cache, en in dit geval dus de trage communicatie tussen L1-cache en geheugen ipv L2-cache en geheugen.
Bijvoorbeeld het exta werk om die mutually-exclusive caching in stand te houden... Een normale cache kopieert de waarde gewoon, en klaar. Deze cache moet de waarde kopieren, dan evicten uit de eerst cache, en weer terugkopieren bij het evicten uit de tweede cache.
Ga jij je dus maar beter inlezen, ik ben benieuwd naar je antwoord.
"dan mag jij mij uitleggen waar intel "several milion" netbursts heeft gelaten sinds april dit jaar, zonder dat ze marktaandeel hebben gewonnen, zonder dat de totale markt (veel) is gegroeid en zonder dat intel zijn totale productie heeft verlaagt (dat zou namelijk voor het eerst in de geschiedenis zijn, en daarom groot nieuws zijn geweest)."
Is al lang beantwoord. Totale productie is niet verlaagd, maar wel de productie van Netburst-CPUs (van 100% naar 75%, heb je zelf ook aangegeven). Totale vraag naar Intel-CPUs is ook niet verlaagd (eerder verhoogd, sinds Core2). Zoals ik al aangaf: het hangt af van de ratio tussen het terugschroeven van de Netburst-productie en de vraag.
Als de productie sneller afneemt dan de vraag, dan verkleinen dus de voorraden.
Vandaar dat we nog steeds cijfers moeten zien die bevestigen of weerleggen dat Intel z'n voorraden niet kwijt kan.
Heel logisch dus, misschien overschat je vooral jezelf.
Verder zal het me worst wezen of het komt door hoger geklokte SSE-units. Al komt het door kaboutertjes... Als het sneller is, dan is het sneller, en heeft de P4 een voordeel... AMD had dan ook maar snellere SSE-units in moeten bouwen. Dat hebben ze niet gedaan, dus moet niemand zeuren dat het niet sneller is.
"Als je code kunt optimaliseren zodat het sneller op de atlon64 loopt, is de athlon64 dus de snellere processor."
je zegt nogsteeds helemaal niks hiermee dus

en het gaat je wel aan waarom de cpu sneller is want jij wilde beweren dat de encodeers test onomstotenlijk aan zou geven dat de p4 de meeste bandbreedte had.
die bewering heb ik dus al lang en breed uit het water geschoten.
Nee, zo werkt dat niet. Benchmarks winnen is niet gelijk aan het tekort komen van interne geheugenbandbreedte.
Ten eerste treedt het probleem pas op als je DDR2 gebruikt. Bij DDR400 klopt het bij de Athlon nog redelijk, het punt is alleen dat hij niet harder kan.
Jouw verouderde benchmarks tonen dus niets aan.
ummm hij krijgt met ddr2 dus in theorie 2 keer zo veel bandbreedte als voorheen, en heeft daardoor een geheugenbandbreedte te kort opgelopen.... natuurlijk.
het enige dat er gebeurt kan zijn is dat de bottlenek zich heeft verplaast (naar de verwerkings units), niet dat er voor de k8 een probleem bij is gekomen.
(hier en daar L1 door L2 vervangen, dan klopt het weer prima).
behalven dan dat de L1 2 keer meer bandbreedte heeft als de L2 waardoor jouw fabel dat AMD een bandbreedte te kort heeft aardig op de tocht komt te staan.
Ga liever inhoudelijk in op de kern van het verhaal
je hele basis aannamen is verkeerd hoe kan je dan ingaan op de kern van het verhaal!
De L1 gaat niet direct naar geheugen, maar kijkt eerst of de informatie in L2 staat.
o god.
ja natuurlijk, maar nu doe je net alsof hij daarvoor elke bit in het geheugen moet onderzoeken om dat te doen.
de CPU weet al wat er wel en niet in de cache zit, die hoevt de L2 cache zelf niet aan te spreken om dat bij te houden.
Pas dan gaat hij naar geheugen (daarom is het ook logisch om de L2-cache het geheugen te laten doen, en dat verklaart misschien ook wel het probleem van AMD).
je denkt nog veel te veel op de intel manier.
de fetchers spreken alleen het L2 aan als daar iets zit wat ze ook daarwerkelijk nodig hebben, zit het niet in de L2 dan word die bandbreedte helemaal niet aangesproken, in tegenstelling tot wat er bij intel gebeurt.
, en in dit geval dus de trage communicatie tussen L1-cache en geheugen ipv L2-cache en geheugen.
sinds waneer is 2x64bit op 2 tot 3 ghz traag?
op 2 ghz is dat 32GB/s op 3 ghz is dat zelfs 48GB/s

daarbij is de bandbeedte van de L1 die daarwerkelijk met het geheugen is verbonden gebruikt stukken groter als die van het geheugen zelf.
dat gaat namelijk over de crossbar, waar ook alle HTT links op aangesloten zijn. die crossbar heeft bandbreedte te over.
Bijvoorbeeld het exta werk om die mutually-exclusive caching in stand te houden... Een normale cache kopieert de waarde gewoon, en klaar. Deze cache moet de waarde kopieren, dan evicten uit de eerst cache, en weer terugkopieren bij het evicten uit de tweede cache.
alsof de exection pipeline moet wachten tot de die cache evict is gebeurt. daar heeft AMD gespecializeerde units voor die dat bij houden en dat gebeurt geheel buiten de normale data verwerking om en heeft er daarom dus ook weinig of geen effect op.

wat jij "normale" cache noemt is cache op de intel manier. dat is niet normaal of abnormaal, maar gewoon anders.
jij hebt je duidelijk nog lang niet genoeg verdiept in de manier waarop AMD zijn cache beheerd.
je bent nu gewoon alleen maar aan het speculeren, en je vastgeroeste ideenen over hoe cache beheerd moet worden op de intel manier aan het projecteren op AMD's manier van aanpak.
En daar ligt de kern van het probleem dat ik aangeef: Hoe kan het dat de Athlon veel meer bandbreedte heeft bij het lezen en schrijven, maar dat hij desondanks in geen enkele applicatie de Core2 kan verslaan?
o ik weet niet hoor, maar misschien dat de verbreede SSE unites er iet mee te maken hebben, en smart caching en smart memory access bijvoorbeeld.
daar ligt de kracht van de core2, en het is niet het te kort aan interne bandbreedte in de k8.
Het antwoord ligt voor de hand: zolang je alleen lees- of schrijfopdrachten doet, gaat het goed... Zodra je ook iets nuttigs met de informatie wilt doen, kan de CPU de data al niet meer snel genoeg verwerken.
Bij de P4 en Core2 is het aan te tonen dat de verwerkinggssnelheid hoger kan liggen dan bij een Athlon.
Bij de Core2 overduidelijk, omdat hij altijd en overal sneller is, ondanks een lagere kloksnelheid, en op papier lagere bandbreedte.
dus met die hele omweg over een te kort aan L2 cache bandbreedte, wat toen L1 cache bandbreedte werd, wat toe wat toen een tekort aan bandbreedte in de link tussen cache en geheugen werd, wilde je alleen maar zeggen dat de IPC van de core2 hoger liggen.... iets waar ik het helemaal nog nooit over heb gehad.
wat automatisch betekent dat ze voor hun volgende generatie over minder resources kunnen beschikken, dus de kans is groot dat ze daar ook weer niks in te brengen hebben.
jij hebt duidelijk helemaal geen enkel idee hoe het er in de ontwikkeling van de CPU aan toe gaat.
afgezien van het feit dat de ontwikkeling van de volgend generatie naa de k8L al hoog en breed op gang is, is het zelfmoord om te gaan bezuinigen op de ontwikkeling van nieuwe CPU's. dat weet intel, dat weet AMD.
daarom doen ze dat dus ook niet, dan maar even weer geen zwarte cijfers op de "bottem line".
Maar AMD is geen Intel. Hun oplossingen zijn allemaal wat simpeler en minder grootschalig. Daarom komt het meer neer op pleistertjes plakken op een achterhaalde architectuur.
je bedoeld efficienter en minder overdreven?
en als dat pleisters plakken is zoals jij het noemt is de core2 niet meer als een met plijsters beplakte pentium-m.
Is al lang beantwoord. Totale productie is niet verlaagd, maar wel de productie van Netburst-CPUs (van 100% naar 75%, heb je zelf ook aangegeven).
maar die 25% core2 hebben ze ook meteen verkocht.
en aangezien intels marktaandeel NIET is gestregen komt die 25% geheel uit het marktaandeel van netburst.
Totale vraag naar Intel-CPUs is ook niet verlaagd (eerder verhoogd, sinds Core2).
intel heeft marktaandeel verloren. vraag naar intel cpu's is dus verlaagt. daarbij doet de extra vraag naar core2 niks voor de verkoop van netburst, in tegendeel.

en dan nog, elke effect wat de core2 heeft is pas van de laatste 2 maanden HOOGUIT. intel raakt echt niet several million aan overschot kwijt in 2 maanden.
Zoals ik al aangaf: het hangt af van de ratio tussen het terugschroeven van de Netburst-productie en de vraag.
Als de productie sneller afneemt dan de vraag, dan verkleinen dus de voorraden.
Vandaar dat we nog steeds cijfers moeten zien die bevestigen of weerleggen dat Intel z'n voorraden niet kwijt kan.
Heel logisch dus, misschien overschat je vooral jezelf.
heel logisch? je kijkt naar elk punt appart.
kijk eens naar het geheel. intel had een overschot, de vraag is niet toe genomen en ze hebben de productie niet verlaagt.
sorry hoor maar elke econoom kan je vertellen wat er dan gebeurt met de inventaris.

misschien moet ik het voor je opsliten in de tijdlijn voor de core2 en na de core2, want je bent duidelijk niet in staat dat onderscheid zelf te maken.

voor de core2.
intel heeft een overshot. FEIT.
intels marktaandeel is gekompen, totale markt is niet genoeg gegroeid om dat te compenseren. FEIT.
intel heeft de productie NIET verlaagt. FEIT.
enige conclusie mogenlijk : intels voorraad netburst is sindsdien alleen maar gestegen.

introductie core 2

intel zit nogsteeds met grote voorraad netburst opgescheept.
intel moet die kwijt, maar raakt niet van hun overschot af.
intel gooid alle netbursts op de budget markts en is daarom gedwongen de core2 buiten het budget sigment te houden tot ze hun netburst kwijt zijn.
resultaat daarvan, intel kan niet volledig over op productie core2. de budget en middeklasse markten zijn niet groot genoeg zowel de core2 als het overschot aan netburst te verwerken.
intel kiest een andere strategie en kiest voor een langzaamer afbouwen van de productie netburst.
zelfs als de overshotten aan netburst nu aan het dalen zijn is dat pas iets van de laatste 2 maanden en is intel dus nog lang niet door zijn gigantische voorraden heen.
als ze die aan het einde van Q107 kwijt zijn mogen ze in hun handen wrijven, ik zie het nog wel uitdijen tot ver in Q307
"Als je code kunt optimaliseren zodat het sneller op de atlon64 loopt, is de athlon64 dus de snellere processor."
je zegt nogsteeds helemaal niks hiermee dus
Jawel, ik zeg dat geoptimaliseerde software ook meetelt (ongeacht de processor).
en het gaat je wel aan waarom de cpu sneller is want jij wilde beweren dat de encodeers test onomstotenlijk aan zou geven dat de p4 de meeste bandbreedte had.
die bewering heb ik dus al lang en breed uit het water geschoten.
Nee hoor, je hebt gewoon een oude benchmark opgevist waar een oude P4 nog DDR400 gebruikte en dus ook een bandbreedte-limiet had...
Bewijst alleen dat je niet weet waar ik het over heb.
ummm hij krijgt met ddr2 dus in theorie 2 keer zo veel bandbreedte als voorheen, en heeft daardoor een geheugenbandbreedte te kort opgelopen.... natuurlijk.
het enige dat er gebeurt kan zijn is dat de bottlenek zich heeft verplaast (naar de verwerkings units), niet dat er voor de k8 een probleem bij is gekomen.
Dat is natuurlijk onzin.
Het probleem is dat er nu veel sneller geheugen is, maar dat de Athlon er geen gebruik van kan maken, en dus niet sneller kan worden, terwijl de Intel-CPUs wel sneller zijn geworden.
Bottlenecks zijn nooit goed, zeker niet als ze hetgene zijn waardoor je de concurrent niet meer bij kunt houden.
behalven dan dat de L1 2 keer meer bandbreedte heeft als de L2 waardoor jouw fabel dat AMD een bandbreedte te kort heeft aardig op de tocht komt te staan.
Wat is dit voor onzin? Communicatie wordt bepaald door de zwakste schakel. L1 kan dus nooit sneller met L2 communiceren dan L2 toelaat. Net zoals L1 (danwel L2, afhankelijk van de implementatie) nooit sneller can communiceren dan het geheugen toelaat.
Jij noemt de bandbreedte van execution pipeline tot L1-cache, die is voldoende ja, maar dat is eigenlijk per definitie zo, je kopieert gewoon een variabele van of naar een register in 1 operatie. Vandaar dat ik aangeef dat je bij dergelijke kleine operaties vooral op de latency moet letten. En die is niet zo best.
Ook het lezen en schrijven van cachelines van en naar geheugen gaat niet zo best (en of dat nou door L1 of L2 komt, is niet relevant).
Daarom heb je dus snel geheugen en een onboard memorycontroller, maar kun je eigenlijk nergens heen met al die data. Als jij dat geen probleem vindt, wil je zeker geen snellere processor?
je hele basis aannamen is verkeerd hoe kan je dan ingaan op de kern van het verhaal!
Niks basisaanname, betekenisloos detail. Basisaanname is dat de cache te langzaam is. Of je dat nou L1 of L2 noemt maakt voor het verhaal niet uit.
de CPU weet al wat er wel en niet in de cache zit, die hoevt de L2 cache zelf niet aan te spreken om dat bij te houden.
Het is gebruikelijk om ook de boekhouding tot de cache te rekenen (er komt meer bij kijken dan alleen een stukje geheugen, een cache is een functioneel blok). Sowieso wordt de cache als onderdeel van de CPU te zien, dus inderdaad, alles wat de cache weet, weet de CPU ook, maar dat is zo nietszeggend. Als de cache het niet weet, weet de CPU het ook niet, en dat is het verhaal.
je denkt nog veel te veel op de intel manier.
de fetchers spreken alleen het L2 aan als daar iets zit wat ze ook daarwerkelijk nodig hebben, zit het niet in de L2 dan word die bandbreedte helemaal niet aangesproken, in tegenstelling tot wat er bij intel gebeurt.
Alsof Intel de cache heeft uitgevonden...
Wat een onzin. Je haalt opslag en boekhouding door elkaar.
Je weet pas of iets in de cache zit, als je in de bijbehorende tabellen hebt gekeken.
Iedere cache weet alleen wat ie zelf bevat. Als ie ook een niveau lager zou moeten bijhouden, zou de complexiteit veel te groot worden, evenals de opslag voor de tabellen, en zou de verwerkingssnelheid inzakken, waardoor je L1 in feite devalueert tot een L2 met een beperkte eigen opslag.

L1 doet dus alleen een check op zichzelf. Is er een hit, dan meteen teruggeven, zo niet, dan doorgeven naar L2-cache. Die doet hetzelfde, etc... totdat het ergens uit het geheugen wordt gehaald.
Anders zou cache nooit snel kunnen zijn, en heb je er niks aan.
sinds waneer is 2x64bit op 2 tot 3 ghz traag?
op 2 ghz is dat 32GB/s op 3 ghz is dat zelfs 48GB/s
Nogmaals, je verwart de bandbreedtes.
2x64 bit is van L1-cachehit naar execution pipeline, ik heb het hier over cache naar geheugen.
L1 kan echt niet met 48 GB/s uit geheugen lezen, dat snap je toch zelf ook wel?
alsof de exection pipeline moet wachten tot de die cache evict is gebeurt. daar heeft AMD gespecializeerde units voor die dat bij houden en dat gebeurt geheel buiten de normale data verwerking om en heeft er daarom dus ook weinig of geen effect op.
Voor zover ik weet gaat dat gewoon over dezelfde bus tussen L1 en L2-cache, dus heeft de core er indirect last van, omdat er bandbreedte verloren gaat.
Een evict van L1-cache kan ook weer een evict van L2-cache tot gevolg hebben... en dat gaat dan weer via geheugen, en dat is ook 1 bus.
Sowieso zit er een bepaalde verwerkingstijd aan die operatie, dus ben je minder efficient bezig. De data is pas beschikbaar als de operatie verwerkt is.
Je kunt er lang en breed over zeuren, maar feit is wel dat de caches van Intel lagere latency hebben, en betere associativiteit.
Ik vind dit een plausibele verklaring voor de problemen van de Athlon-cache.
Als je het er niet mee eens bent, waar ligt het volgens jou dan wel aan?
wat jij "normale" cache noemt is cache op de intel manier. dat is niet normaal of abnormaal, maar gewoon anders.
Intel en alle andere fabrikanten ja. Is dus de de-facto standaard, wat je wel normaal kunt noemen.
je bent nu gewoon alleen maar aan het speculeren, en je vastgeroeste ideenen over hoe cache beheerd moet worden op de intel manier aan het projecteren op AMD's manier van aanpak.
Zo zou ik het niet willen formuleren. Ik zou eerder zeggen: de winnede fabrikant heeft altijd gelijk.
Een andere aanpak kan verfrissend zijn, maar als het niet de gewenste resultaten brengt, moet je ook reeel zijn, en die aanpak loslaten.
Verder vind ik dat Intel-Intel gezeur van je wel grappig, want ik ben eigenlijk Motorola/IBM-fan, en ik vind die hele x86-bende eigenlijk helemaal niks.
Ik heb niks met Intel, en ook niet met AMD, misschien dat ik daarom zo'n heldere visie erop heb.
o ik weet niet hoor, maar misschien dat de verbreede SSE unites er iet mee te maken hebben, en smart caching en smart memory access bijvoorbeeld.
daar ligt de kracht van de core2, en het is niet het te kort aan interne bandbreedte in de k8.
Hebben bredere SSE-units, smart caching en smart memory access niet toevallig alles met interne bandbreedte te maken? Lijkt mij wel. Wat toevallig zeg!
Zou ik dan toch gelijk hebben?
intel heeft marktaandeel verloren. vraag naar intel cpu's is dus verlaagt.
Niet sinds april, voor zover ik weet.
intel raakt echt niet several million aan overschot kwijt in 2 maanden
Hoeft ook niet, als ze maar inlopen.
kijk eens naar het geheel. intel had een overschot, de vraag is niet toe genomen en ze hebben de productie niet verlaagt.
sorry hoor maar elke econoom kan je vertellen wat er dan gebeurt met de inventaris.
Elke econoom zal mij gelijk geven dat je voor twee verschillende producten ook twee verschillende markten hebt, en dat je dus de vraag per markt moet bekijken.
En dat gegeven ontbreekt in jouw informatie.
enige conclusie mogenlijk : intels voorraad netburst is sindsdien alleen maar gestegen.
Je snapt het echt niet, he?
Je hebt geen idee hoe de vraag tussen Core2 en Netburst zich verhoudt, dus kun je helemaal NIKS concluderen.
Er zijn drie mogelijke conclusies... Core2 < Netburst, Core2 == Netburst en Core2 > Netburst.
Afgezien daarvan komt de vraag naar Core2 NIET per definitie uit het marktaandeel van Intel. Ik denk dat die voor een deel ook uit het marktaandeel van AMD komt.
Kortom, je kunt de vraag en het aanbod absoluut niet zo simpel gelijkstellen als dat jij dat hier wil doen. Dat zal iedere econoom je kunnen vertellen.
zelfs als de overshotten aan netburst nu aan het dalen zijn is dat pas iets van de laatste 2 maanden en is intel dus nog lang niet door zijn gigantische voorraden heen.
Je hamert nu al dagen op dit punt, en ik heb het al eerder gevraagd... Maar: waar wil je nou naartoe hiermee?
Het boeit toch niet dat ze nog voorraden hebben zolang er vraag is? Ze gaan over op een nieuwe productlijn, dus het probleem lost zich vanzelf op.
Dan maken ze maar even verlies op wat Netbursts, boeiend... Intel kan wel een stootje hebben, zoals ik al zei.
AMD heeft jaren verlies gedraaid op hun processordivisie omdat ze hun CPUs aan de straatstenen niet kwijt konden. Die zijn er toch ook aardig bovenop gekomen toen ze eenmaal een goed product hadden?
Intel heeft dat goede product nu ook.
Kortom, ten eerste heb je geen idee over wat voor voorraden je praat, je raadt maar wat met verouderde informatie... Ten tweede heb je geen idee van wat de gevolgen zijn... dus het heeft er alle schijn van dat je maar wat zoekt om tegen Intel aan te kunnen trappen... Nou, leuk voor je. Ik zou me meer zorgen maken om AMD op dit moment.
dus met die hele omweg over een te kort aan L2 cache bandbreedte, wat toen L1 cache bandbreedte werd, wat toe wat toen een tekort aan bandbreedte in de link tussen cache en geheugen werd, wilde je alleen maar zeggen dat de IPC van de core2 hoger liggen.... iets waar ik het helemaal nog nooit over heb gehad.
Nee, ik bedoel te zeggen dat de IPC van de Athlon niet omhoog kan door bepaalde beperkingen in het ontwerp (evenals de kloksnelheid). Dit terwijl bij andere processors, met hetzelfde geheugen, de IPC wel omhoog kan.
Dat is heel wat anders.
Verder werd het een niet het andere, ik heb altijd gezegd dat zowel tussen L1 en L2 als tussen cache en geheugen een bandbreedte-probleem zit.
dat gaat namelijk over de crossbar, waar ook alle HTT links op aangesloten zijn. die crossbar heeft bandbreedte te over.
Als je er 4 of meer cores aan gaat hangen, zakt het gauw hoor. Voorlopig heeft mijn code al tot de conclusie geleid dat de HTT-link zelfs voor de synchronisatie tussen L2-cache van 2 cores niet toereikend is.
je bedoeld efficienter en minder overdreven?
en als dat pleisters plakken is zoals jij het noemt is de core2 niet meer als een met plijsters beplakte pentium-m.
Als jij denkt dat een Pentium-M vergelijkbaar is met een Core2, dan heb je er weinig van begrepen. *Alles* is anders aan de CPU. Belangrijkste twee factoren zijn nog wel de lengte van de pipeline en het aantal execution units.
Die zorgen ervoor dat de Core2 zowel hoger klokt als betere IPC haalt. En dat is geen pleisterwerk, daarvoor moet de hele core gerenoveerd worden.
Derde belangrijke factor is dat de Core2 van het begin af aan als dualcore is ontworpen, en daarom een shared L2-cache meekrijgt. Dus ook de cache is compleet gerenoveerd.
Pleisters plakken is meer dingen als meerdere cores aan elkaar plakken, of een L3-cache eraan lijmen (bij gebrek aan shared L2-cache). En dat soort grapjes probeert AMD nu... maar extra ALUs of een langere pipeline voor hogere kloksnelheden... dat zien we niet gebeuren... dat kan niet met pleistertjes. We zullen de gevolgen straks wel zien.
En dan hebben we het nog niet over Quadfather gehad... Dat is niet eens pleisters plakken meer.. dat is gewoon het probleem afschuiven op nVidia en moederbordfabrikanten. Het is alleen het relabelen van Opteron naar Athlon FX (al de tweede keer dat AMD dit doet overigens).
En dat wou je efficient en minder overdreven noemen?
En dat soort grapjes probeert AMD nu... maar extra ALUs of een langere pipeline voor hogere kloksnelheden... dat zien we niet gebeuren...
Jij misschien niet, ik wel. De Barcelona processor heeft wel degelijk een extra FPU per core, en ik geloof er niets van dat de pipeline niet wat verlengd zou worden. Dat L3 cache zal zijn doel trouwens niet missen.

Als je dan ziet dat de huidige K8 core zich qua FPU zelfs nog heel goed stand kan houden tov een core 2 duo dan weet je waar de bel hangt. Ik doe nogal wat numerische simulaties, berekeningen ed op mijn pc; en daarvoor zijn de Intels nooit echt goed geweest tot core 2 (die hen ook maar op hetzelfde niveau bracht als de K8).

Maar eigenlijk is dit allemaal irrelevant momenteel, wat maakt een verschil van 10-20% in snelheid nu uit? Ik heb pas een P3 800eb opzijgeschoven, denk je dat ik met een P3 1000 nog langer had kunnen wachten met een upgrade?! Trouwens in die tijd had ik de keuze tussen een Athlon en de P3, waarbij de Athlon sneller was, maar toch is het de P3 geworden (owv het lage verbruik van die processor).

Of ik nu een uur moet wachten op een resultaat of 50 minuten, dat gaat de zaak niet maken. Wat belangrijk is dat je een goed product hebt, en dat heeft AMD nog steeds (net als Intel nu ook). Goed = snel, zuinig, betrouwbaar, flexibel en goedkoop!

Samen met Torrenza zal dit AMD op gelijke hoogte brengen als Intel (duopolie). Want dat is wel degelijk een grote stap vooruit tov de pc technologie van nu.
Mijn volgende pc zal bijna 100% zeker een torrenza platform zijn, met een 4-core fusion processor (met nog eens extra FPU kracht aan boord) en bv een cell/clearspeed like co-processor. Als dan de software snel volgt doe ik wat ik nu op 10 u doe op een paar minuten.
Voor zover ik weet gaat dat gewoon over dezelfde bus tussen L1 en L2-cache, dus heeft de core er indirect last van, omdat er bandbreedte verloren gaat.
maar de L1 en L2 communicatie bandbreedte is niet iets waar de k8 een te kort aan heeft, juist omdat hij niet tussen het geheugen en de uiteindelijk exection units zit.
bedenk ook dat de L1 van de k8 veel groter is als die van de core2, waardoor hij de L2 cache stukken minder vaak hoeft aan te spreken.

nogsteeds denk je te veel als intel.
Een evict van L1-cache kan ook weer een evict van L2-cache tot gevolg hebben... en dat gaat dan weer via geheugen, en dat is ook 1 bus.
waarom? amd cache is exclusive he.
tuurlijk zal het wel eens voorkomen, maar in veruit de meeste gavallen zal dat niet het geval zijn.
Als je het er niet mee eens bent, waar ligt het volgens jou dan wel aan?
verhoogde exectution performance (SSE unites onder andere en de extra alu, al betwijfel ik het nut daarvan)
verbeterd OoO (voornamelijk door een load voor store te kunne plaatsen) wat weer voornamelijk de exection performance verbeterd door verhoogde efficientie (core wacht minder).
Hebben bredere SSE-units, smart caching en smart memory access niet toevallig alles met interne bandbreedte te maken? Lijkt mij wel. Wat toevallig zeg!
Zou ik dan toch gelijk hebben?
SSE units is execution performance en heeft niks met bandbreedte te maken, en smart caching en smart memory access verlaagt latency, verhoogt niet de bandbreedte (sterker nog kan zelfs voor een stijging zorgen in geheugenbandbreedte gebruik door opvragen die later misschien niet nodig blijken te zijn)
Een andere aanpak kan verfrissend zijn, maar als het niet de gewenste resultaten brengt, moet je ook reeel zijn, en die aanpak loslaten.
wat weet jij van het resultaat, zeker omdat cache helemaal niet de oorzaak is van het feit dat de core2 nu sneller is.
Als je er 4 of meer cores aan gaat hangen, zakt het gauw hoor. Voorlopig heeft mijn code al tot de conclusie geleid dat de HTT-link zelfs voor de synchronisatie tussen L2-cache van 2 cores niet toereikend is.
daar word de HTT link (nog de crossbar) ook niet voor gebruikt, die gaat op dit moment over de geheugen bus om een of andere reden.
nee dat is niet efficient.
word opgelost in K8L daar gaat dat allemaal via de L3 cache

daarbij word voor de k8L uit komt HTT3.0 geintroduceerd
Als jij denkt dat een Pentium-M vergelijkbaar is met een Core2, dan heb je er weinig van begrepen. *Alles* is anders aan de CPU. Belangrijkste twee factoren zijn nog wel de lengte van de pipeline en het aantal execution units.
Die zorgen ervoor dat de Core2 zowel hoger klokt als betere IPC haalt. En dat is geen pleisterwerk, daarvoor moet de hele core gerenoveerd worden.
goh wat toevallig nou, de K8L is ook compleet gereviceerd.
bijna alles in de core is onderhanden genoemen, alleen de basis princiepes blijven het zelfde (die al zeer vergelijkbaar waren met die van de pentium/core2), zeer vergelijkbaar dus met wat intel deed met de stap van p-m naar core2.

die extra ALU bij intel voegt weinig toe, en die langere pipeline heeft AMD niet nodig want 2 extra stappen leverd nouwelijks extra mhz op.
Het is alleen het relabelen van Opteron naar Athlon FX (al de tweede keer dat AMD dit doet overigens).
goh p4EE iemand?
Je hamert nu al dagen op dit punt, en ik heb het al eerder gevraagd... Maar: waar wil je nou naartoe hiermee?
dat zeg ik toch ook. ze kunnen niet over op geheel de core2 zolang ze die voorraad hebben liggen. niemand wil meer een netburst hebben als ze voor het zelfde geld een core2 kunnen krijgen.
Niet sinds april, voor zover ik weet.
aandeel is niet gegroeid iniedergeval, dus was er geen mogenlijkheid om die voorraad kwijt te raken.
en hoewel ik nu geen zin heb om te zoeken weet ik zeker dat AMDs aandeel tot de core2 introductie alleen maar is gegroeid (al was het alleenmaar vanwegen dell die veel cpus heeft gekocht).
Hoeft ook niet, als ze maar inlopen.
wat ze dus niet zullen doen als ze helemaal overgaan op de core2.
wie zou er dan nog een netburst willen?
Elke econoom zal mij gelijk geven dat je voor twee verschillende producten ook twee verschillende markten hebt, en dat je dus de vraag per markt moet bekijken.
En dat gegeven ontbreekt in jouw informatie.
niet als ze het zelfde doen voor de zelfde prijs, maar de een beter presteerd en minder verbruikt als de andere.
Je snapt het echt niet, he?
Je hebt geen idee hoe de vraag tussen Core2 en Netburst zich verhoudt, dus kun je helemaal NIKS concluderen.
Er zijn drie mogelijke conclusies... Core2 < Netburst, Core2 == Netburst en Core2 > Netburst.
ben je nu echt zo dom?
die verhouding hoef ik ook helemaal niet te weten, ik ga er namelijk al vanuit dat intel alle core2's die ze maken meteen kwijt kan. ik ga dus al uit van de meest gunstige situatie voor intel.

het is een feit dat intel sinds voor april al te veel CPU's maakt op het moment omdat ze er geen rekening mee hebben gehouden dat AMD 25% marktaandeel zou krijgen.
ze hebben sinds die tijd de productie niet verlaagt, amd ook niet, en AMD heeft nu een te kort.
intel heeft dus nog geen marktaandeel van AMD afgesnoept voorlopig.
Afgezien daarvan komt de vraag naar Core2 NIET per definitie uit het marktaandeel van Intel.
aangezien de markt niet is gegroeid en AMD NU op dit moment een te kort heeft zonder dat ze de productie hebben verlaagt KAN hij nergens anders uitgekomen zijn.

moet ik nu echt een flashfilmpje gaan maken met bewegende piecharts ofzo voor je het snapt en het hele overzicht kunt houden met wat er allemaal tegelijk aan de hand is in cpu land.

heel simple gesteld, tot nu toe,
- maakt intel nogsteeds even veel CPU's als ze deden in april
- in april en daarvoor maakte ze te veel cpu's vandaar het overschot
- AMD heeft productie niet veranderd, en heeft nu een te kort. vraag naar AMD cpu blijft dus minimaal stabiel.

- daarvoor is er voor intel geen enkele mogenlijkheid geweest waar ze dat overschot aan netbursts kwijt konden raken vanaf april tot aan de dag waarop ze de core2 introduceerde.

op de introductie dag zaten ze dus al met een overschot aan CPU's en een overschot aan CPU productie.
alles wat ze meer aan core2 maken maken ze wel minder aan netburst, maar alles wat ze maken aan core2 raken ze ook meteen kwijt, wat bij netburst niet het geval is.
intel moet of de totale productie gaan verlagen (wat heel slecht zou zijn voor hun aandelen koers vanwegen het slechte nieuws, dat zullen ze dus niet doen) of weer marktaandeel van AMD gaan afsnoepen.
dat zullen ze tot de k8L er is misschien ook wel doen, maar dat is duidelijk nog niet of nouwelijks op gang anders had AMD geen te kort gehad nu.

en ik bewijfel zelfs of het ook daadwerkelijk veel gaat gebeuren, AMD kan hun prijzen blijven verlagen, ze kunnen nu veel cpu's kwijt aan OEMs (of ze nu goed of slecht zijn, zie netburst) en netburst ziet er na AMD's prijsverlaging voor de core2 alleennog maar slechter en slechter uit.
Ik doe nogal wat numerische simulaties, berekeningen ed op mijn pc; en daarvoor zijn de Intels nooit echt goed geweest tot core 2 (die hen ook maar op hetzelfde niveau bracht als de K8).
Intel heeft dan ook bij de introductie van de P4 in principe x87 afgezworen.
x87 is alleen nog in microcode ondersteund, SSE2 is de 'native' floating-point unit, en de bedoeling is dan ook om uitsluitend SSE2-code te gebruiken in nieuwe programma's. x87 is er alleen voor legacy-code.
In 64-bit mode is er geen legacy, en daarom heeft men bij Microsoft ook besloten om de x87 niet langer te ondersteunen (en daarmee ook MMX). Daar *moet* de code dus SSE2 zijn.
In dat licht is het niet meer dan logisch dat Intel geen moeite meer steekt in x87-prestaties.
In dat licht is het niet meer dan logisch dat Intel geen moeite meer steekt in x87-prestaties.
Heel wat engineering software is nog niet geoptimaliseerd voor SSE2 (het snelheidsverschil tussen x87 met stack en SSE2 is ook maar een paar %en). Ik zie dat trouwens ook niet snel veranderen, dus hier blijft AMD licht in het voordeel.
maar de L1 en L2 communicatie bandbreedte is niet iets waar de k8 een te kort aan heeft, juist omdat hij niet tussen het geheugen en de uiteindelijk exection units zit.
Dat hij er in een tekeningetje niet tussen lijkt te zitten, maakt niet uit.
Bij Intel zit er uiteraard een forwarding-mechanisme op, zodat L1-cache tegelijk met L2-cache het resultaat van een fetch terugkrijgt.
Afgezien daarvan snap ik jouw claim niet... L2 zit niet tussen geheugen en execution-units... En dus?
Ben je vergeten dat L1 niet zo groot is, en dat je dus heel vaak cache-misses krijgt, en je die dan uit L2 moet halen? Dat gebeurt statistisch gezien vaker dan uit het geheugen halen, daaraan ontleent cache z'n bestaansrecht.
bedenk ook dat de L1 van de k8 veel groter is als die van de core2, waardoor hij de L2 cache stukken minder vaak hoeft aan te spreken.
Ja, en het nadeel daarvan heb ik al genoemd: Een lookup in L1-cache is complexer, en daarom is de latency hoger. Deze latency merk je dus op ELKE cache-lookup, waar de Core2 alleen bij een cache-miss een penalty incasseert.
Aangezien de Core2 een sneller en groter L2-cache heeft, kan hij zich die penalties ook veel beter veroorloven. Kortom, dit is momenteel het winnende ontwerp, maar toch leuk geprobeerd van AMD.
verhoogde exectution performance (SSE unites onder andere en de extra alu, al betwijfel ik het nut daarvan)
Ik betwijfel ook het nut van die extra ALU, maar in het geval van Intel lijkt het toch geen verspilde moeite... verder heeft SSE natuurlijk alleen nut bij SSE-code.
dat verklaart dus niet waarom de Core2 ook sneller is als de code niet op de ALU of op de SSE-units leunt.
verbeterd OoO (voornamelijk door een load voor store te kunne plaatsen) wat weer voornamelijk de exection performance verbeterd door verhoogde efficientie (core wacht minder).
Dit verklaart het ook nog niet helemaal, want ooo speelt niet of nauwelijks een rol wanneer je data goed geprefetcht kan worden, en vrijwel altijd uit cache gelezen kan worden... of natuurlijk wanneer je sowieso weinig of geen memory-access hebt.
Want ook in die gevallen is de Core2 nog steeds sneller.
SSE units is execution performance en heeft niks met bandbreedte te maken
Je moest eens weten. Als je een zo snel mogelijke memcpy() wilt maken, moet je dat toch echt met SSE-instructies doen.
Verder zijn SSE-instructies dus voornamelijk bedoeld voor stream-processing, waarbij je over het algemeen dus een grote stroom aan invoer en uitvoer hebt, dus hoge bandbreedte. Het probleem bij de Athlon was dat het geheugen de bandbreedte wel kon leveren, maar de SSE-units het niet konden verwerken (en de andere execution units ook niet, uiteraard).
Dus als je de bandbreedte wilde *gebruiken*, kwam je tekort.
en smart caching en smart memory access verlaagt latency, verhoogt niet de bandbreedte (sterker nog kan zelfs voor een stijging zorgen in geheugenbandbreedte gebruik door opvragen die later misschien niet nodig blijken te zijn)
Lagere latency betekent indirect ook hogere bandbreedte. Je handelt namelijk een fetch sneller af, waardoor je meer fetches per seconde kunt doen. Dit verhoogt dus vooral de bandbreedte op non-lineaire geheugentoegang.
daar word de HTT link (nog de crossbar) ook niet voor gebruikt, die gaat op dit moment over de geheugen bus om een of andere reden.
nee dat is niet efficient.
Dus de Althon is nog slechter dan ik dacht. Ik had begrepen dat de cores via een interne HTT-link communiceerden, maar eigenlijk gaat het dus via de memory-controller. Vandaar dat de resultaten bijna net zo slecht zijn als van een Pentium-D. Wie liep er ook al weer te schreeuwen dat Athlons beter zijn voor multitasking/threading?
en die langere pipeline heeft AMD niet nodig want 2 extra stappen leverd nouwelijks extra mhz op.
Bij Intel maakte het anders heel veel uit. De Pentium-M was boven de 2.2 GHz toch echt wel gezien.
De Core2 Duo gaat moeiteloos over de 3 GHz heen. Waar het eindigt, weten we nog niet.
Bij AMD moet ik het ook nog zien, voorlopig is 2.6 GHz het snelst op 65 nm... dan is het nog een eind naar de 3 GHz die ze op 90 nm halen. En hoeveel kunnen ze verder?
goh p4EE iemand?
Dat Intel het ook gedaan heeft maakt het nog geen goede oplossing. Gelukkig heeft Intel momenteel die kunstgrepen niet nodig.
dat zeg ik toch ook. ze kunnen niet over op geheel de core2 zolang ze die voorraad hebben liggen. niemand wil meer een netburst hebben als ze voor het zelfde geld een core2 kunnen krijgen.
Tuurlijk kunnen ze dat wel. Lopen ze tegen een verliesje op... nou jammer dan. Investering in de toekomst, moet je maar denken. Alleen hoeven ze dat nog niet te doen, omdat de vraag naar Netburst er nog wel is, als de prijs maar laag genoeg is.
niet als ze het zelfde doen voor de zelfde prijs, maar de een beter presteerd en minder verbruikt als de andere.
Zo slim was Intel zelf ook wel, daarom zijn de prijzen van Netburst-CPUs enorm gedaald sinds de introductie van de Core2 (wat ook na april gebeurde, dus wellicht heeft dat ook de vraag weer wat verhoogd).
aangezien de markt niet is gegroeid en AMD NU op dit moment een te kort heeft zonder dat ze de productie hebben verlaagt KAN hij nergens anders uitgekomen zijn.
Behalve dan dat de productie van AMD gedaald is doordat ze in het overgangsproces zitten naar 65 nm en 300 mm (oa Fab36 is eerst gebruikt voor 90 nm SOI-productie, en moet nu dus om, en Fab30 wordt Fab38, met 300 mm wafers). Mede daardoor dit probleem. AMD zit nu in het 'dipje' vlak voor de overgang naar 65 nm.
intel moet of de totale productie gaan verlagen (wat heel slecht zou zijn voor hun aandelen koers vanwegen het slechte nieuws, dat zullen ze dus niet doen)
Of meer productie overzetten op Core2.
Heb je trouwens naar de aandelenkoers gekeken? Intel in de lift, AMD in de min.
Blijkbaar maken de meeste mensen zich niet zo druk over die Netbursts.
of weer marktaandeel van AMD gaan afsnoepen.
Dat zijn ze al aan het doen met de Core2.
Ik spreek hier als ervaringsdeskundige, want ik heb een paar weken geleden m'n Athlon ingeruild voor een Core2.
Ik ben vast niet de enige.
Heel wat engineering software is nog niet geoptimaliseerd voor SSE2
Tsja, dat de industrie in sommige delen ver achter de feiten aanloopt, weet ik ook wel. 64-bit versies van software laten ook nog lang op zich wachten. Intel was misschien een beetje vroeg, maar het is wel de moeite waard.
(het snelheidsverschil tussen x87 met stack en SSE2 is ook maar een paar %en). Ik zie dat trouwens ook niet snel veranderen, dus hier blijft AMD licht in het voordeel.
Nee, maar SSE2 is natuurlijk ook wel SIMD, en vooral met matrixjes en vectortjes, waar veel engineering software toch dankbaar gebruik van maakt, kun je wel een flink verschil maken. Als je het toch herschrijft, moet je het ook meteen goed doen.
AMD blijft verder niet echt in het voordeel, want de Core2 is nog steeds sneller met x87 in absolute zin, en het gat met SSE-code is alleen nog maar groter.
Dat hij er in een tekeningetje niet tussen lijkt te zitten, maakt niet uit.
Bij Intel zit er uiteraard een forwarding-mechanisme op, zodat L1-cache tegelijk met L2-cache het resultaat van een fetch terugkrijgt.
Afgezien daarvan snap ik jouw claim niet... L2 zit niet tussen geheugen en execution-units... En dus?
en dus heeft L2 bandbreedte niks van doen met geheugen bandbreedte wat jouw klaim was waar ik op reageerd.

en het is een blok tekeneing en dus erg versimpeld, intel maakt vergelijkbare tekeningen en daar zitten ook niet alle prefetches en predictors op getekend. die horen in dit geval bij het blokje L1 cache dan wel L2 cache.
Ben je vergeten dat L1 niet zo groot is, en dat je dus heel vaak cache-misses krijgt, en je die dan uit L2 moet halen? Dat gebeurt statistisch gezien vaker dan uit het geheugen halen, daaraan ontleent cache z'n bestaansrecht.
heel goed, en daarom is een groter L1 cache ook een groot voordeel.
daarbij is de L1 latency van AMD in veel gevallen 3 clock cycles, even veel als de core2.
in andere gevallen kan hij oplopen tot 20cycles, waar de core2 er max 14 nodig heeft, en ja dat is een nadeel.
of dat opweegt tegen het nadeel dat hij veel vaker uit de L2 data moet halen met een nog hogere latency zal helemaal afhangen van de situatie.
Lagere latency betekent indirect ook hogere bandbreedte. Je handelt namelijk een fetch sneller af, waardoor je meer fetches per seconde kunt doen. Dit verhoogt dus vooral de bandbreedte op non-lineaire geheugentoegang.
fout, zoals ik al eerder aangaf zijn de latencys KUNSTMATIG lager gemaakt, gewoon door van tevoren de data aanvraag al voor te bereiden. de totale tijd die het kost om iets uit het geheugen te halen is er niet kleiner op geworden, bandbreedte is daardoor dus ook niet toegenomen.
Bij Intel maakte het anders heel veel uit. De Pentium-M was boven de 2.2 GHz toch echt wel gezien.
De Core2 Duo gaat moeiteloos over de 3 GHz heen. Waar het eindigt, weten we nog niet.
het feit dat de pentium-m een mobile chip was en daarom andere transistors gebruikte gericht op zuinigheid en niet op snelheid hebben er natuurlijk helemaal niks mee van doen.
dat de core2 nu 2 keer meer energie verbruikt onderandere door het vervangen van die transistors door snellere maar minder zuinige varianten heeft er ook niks mee van doen natuurlijk, en dat de core2 op 65nm is gemaakt en de athlon64 op 90 heeft er ook helemaal niks mee van doen.
nee ligt helemaal aan de 2 extra pipeline stages.
(even voor de duidelijkheid ik ben hier sarcastisch)
Bij AMD moet ik het ook nog zien, voorlopig is 2.6 GHz het snelst op 65 nm... dan is het nog een eind naar de 3 GHz die ze op 90 nm halen. En hoeveel kunnen ze verder?
400mhz is helemaal niet zo veel, en daarbij heb ik de reden hiervoor al lang uitgelegt, AMD is gewoon voorzichtig, gaat het goed zul je snel genoeg 3ghz 65nm onderdelen in de winkels zien liggen.
gezien de toevoegingen aan het 65nm process ten opzichte van 90nm heb ik er het volste vertrouwen in dat AMD ze snel genoeg op de 3ghz krijgt, en waarschijnlijk nog wel wat verder ook.
daarbij heeft AMD ipv voor een maxium aan extra snelheid gekozen voor extra zuinigheid, waardoor deze 65nm onderdelen zuiniger zullen zijn als de core2. (nog los van het feit dat alle core2 northbridge meer stroom verbruiken, en dat amd zelfs nu op systeem nivo gemeten niet onder doet voor intel als het op energie verbruikt aan komt)
Tuurlijk kunnen ze dat wel. Lopen ze tegen een verliesje op... nou jammer dan. Investering in de toekomst, moet je maar denken. Alleen hoeven ze dat nog niet te doen, omdat de vraag naar Netburst er nog wel is, als de prijs maar laag genoeg is.
verliesje? several million aan CPUs afschrijven is wel iets meer als een "verliesje"
dat gaat over tientallen zo niet honderen miljoenen.
dat staan de aandeelhouders nooit toe.
Behalve dan dat de productie van AMD gedaald is doordat ze in het overgangsproces zitten naar 65 nm en 300 mm (oa Fab36 is eerst gebruikt voor 90 nm SOI-productie, en moet nu dus om, en Fab30 wordt Fab38, met 300 mm wafers). Mede daardoor dit probleem. AMD zit nu in het 'dipje' vlak voor de overgang naar 65 nm.
dat is niet zozeer een daling in de productie van AMD maar een korte piek geweest, een piek die AMD dus probleemloos heeft kunnen verkopen.
productie is pas gedaald nadat hij ineens was gestegen. en die stijgen kwam ook pas na dat intel al een voorraad had opgebouwed.
de markts voor netbursts is door die piek alleen nog maar verder gedaald.
Of meer productie overzetten op Core2.
Heb je trouwens naar de aandelenkoers gekeken? Intel in de lift, AMD in de min.
Blijkbaar maken de meeste mensen zich niet zo druk over die Netbursts.
ze hebben intel in april (en daarvoor) al afgerekend op dat overschot, en dat zit dus al lang in de aandelen koers verwerkt.
zegt "buy on the rumor sell on the news" je iets?
dat betekend voor ons eigenlijk alleen dat alle nieuws feiten al ver voordat ze officieel uit komen in de aandelen koersen verwerkt zitten.
en ook analisten zorgen voor een vergelijkbaar effect, zij kijken naar wat er in de toekomst met een bedrijf gaat gebeuren en aandelen handelaren reageren daarop, ver voordat het feit zelf zich voltrekt/danwel voor dat het feit officieel naar buiten is gebracht.
recente aandelen koeren gebruiken om het nieuws van het verleden te verklaren is dus ook geheel onzinnig.
de aandelen stijging is een reactie op de goed verlopen introductie van de core2, waar intel zeker geld mee gaat verdienen, niet meer niet minder.
Dat zijn ze al aan het doen met de Core2.
Ik spreek hier als ervaringsdeskundige, want ik heb een paar weken geleden m'n Athlon ingeruild voor een Core2.
Ik ben vast niet de enige.
ja, maar wel pas de laatste 2 maanden en nog duidelijk niet zo heel hard want AMD heeft nogsteeds tekorten.
zoals ik al 3 keer heb gezegt ze krijgen die paar miljoen aan overschot echt niet weg in 2 maanden tijd.
fout, zoals ik al eerder aangaf zijn de latencys KUNSTMATIG lager gemaakt, gewoon door van tevoren de data aanvraag al voor te bereiden. de totale tijd die het kost om iets uit het geheugen te halen is er niet kleiner op geworden, bandbreedte is daardoor dus ook niet toegenomen.
Toevallig heeft de Tweakers-review van de Kentsfield ook wat cache-benchmarks van Everest:
reviews: Intel Core 2 Extreme QX6700 review

Zoals je ziet scoort Intel vooral met schrijven en kopieren van cache beduidend hoger. Ruim een factor 2 in sommige gevallen. Wou je nog steeds ontkennen dat AMD een bandbreedte-probleem in de cache heeft?
het feit dat de pentium-m een mobile chip was en daarom andere transistors gebruikte gericht op zuinigheid en niet op snelheid hebben er natuurlijk helemaal niks mee van doen.
Voor zover ik weet zit er weinig verschil in qua fabricage (het verschil is meer het voltage... draai een mobiele chip op hoger voltage, en je kunt behoorlijk overklokken, maar dan is ie niet meer zo zuinig natuurlijk... maar ook dan liep je sneller tegen de grenzen van Pentium-M /Core op). Bovendien is er ook een mobiele variant van de Core2, die nog steeds een stuk hoger klokt dan de Core en Pentium-M, dus als er wel speciale transistors gebruikt zouden worden, zal dat ook voor de mobile Core2 gelden, en maakt dat dus niet uit.
ja, maar wel pas de laatste 2 maanden en nog duidelijk niet zo heel hard want AMD heeft nogsteeds tekorten.
Yup, en nu gaan de OEMs ook al klagen dat er geen high-end CPUs meer te krijgen zijn. AMD heeft dus een serieus probleem.
zoals ik al 3 keer heb gezegt ze krijgen die paar miljoen aan overschot echt niet weg in 2 maanden tijd.
Ja, dat roep je al de hele tijd, het punt is dat het niemand interesseert.
dat de k8 minder cache bandbreedte heeft als de core2 wil niet zeggen dat de k8 te kort komt. voor de rest van de CPU is de bandbreedte in de meeste situaties voldoende.

een heel toevallig, de cache bandbreedte word met een factor 2 verhoogt in de K8L (onderanderen om de eveneens met een factor 2 verbreede SSE verwerking eenheden te voeden)
Yup, en nu gaan de OEMs ook al klagen dat er geen high-end CPUs meer te krijgen zijn. AMD heeft dus een serieus probleem.
ja dit is idd niet leuk voor AMD en de timing hiervan kon ook bijna niet slechter.
maar gelukkig voor AMD is dit een probleem waarvoor de oplossing al in aantoch is en ze waarvan ze (iniedergeval naar zichzelf toe) duidelijk van kunnen zeggen waneer het is afgelopen.

AMD komt nu tijdelijk enkele tien/(honderd?)duizenden te kort, intel kan enkele miljoenen aan de straatstenen niet kwijt.
ik weet wel welke probleem ik liever had eigenlijk.
Ja, dat roep je al de hele tijd, het punt is dat het niemand interesseert.
vertel dat de aandeelhouders maar.
chips in warenhuizen die alleen maar minder waard worden zijn enorme koste posten voor een bedrijf.
het zal intel niet ten gronde richten, zeker niet maar het is wel een vrij substantieel blok aan hun been.
als die voorraad er niet was geweest hadden we misschien al goedkopere core2 gezien en een hoger percentage aan core2 productie.
Voor zover ik weet zit er weinig verschil in qua fabricage (het verschil is meer het voltage... draai een mobiele chip op hoger voltage, en je kunt behoorlijk overklokken, maar dan is ie niet meer zo zuinig natuurlijk...
dan raad ik je aan toch eens wat dieper in te gaan op de verschillende type transistors die ze in de CPU industrie gebruiken, want er zit wel degenlijk verschil in.
ik zal eens kijken of ik een mooi artical voor je kan vinden, maar vanavond niet meer want het is laat.
(het is trouwens niet de fabricage waar het verschil in zit maar het ontwerp/opbouw van de transistor, machines en grondstoffen zijn niet wezenlijk anders)

en sommige mobile cpus kan je idd heel goed overklokken door enkel en alleen het voltage te verhogen, daar heb je helemaal gelijk in.
maar meestal zijn dat gewoon speciaal uitgezochte desktop chips die goed gelukt zijn en dus met minder voltage toe kunnen (wat meestal ook betekend dat ze met een standaard voltage (of hoger) zeer goed te overklokken zijn)
maar dat geld zeker niet voor alle mobile CPU's, met bovenaan de lijst de pentium-m.
elke cpu die ook echt apart word gemaakt als zijnde een mobile CPU maakt gebruikt van deze zuinigere transistoren.

paar maanden terug was AMD nog in het nieuws dat ze voor hun turions over zouden gaan op aparte productie om van die transistors gebruik te kunnen maken. stond ook hier op tweakers.net als ik het me goed herinner.
vandaar ook dat de turion niet altijd even goed overkloken, en dat ze met een versie op de proppen kwamen met een TDP van 25watt.

hier trouwens een L1 cache latency test.
http://tweakers.net/benchdb/test/234
goh, zo veel extra latency kost die extra grote en complexe L1 toch ook weer niet.
sterker nog, gelijke mhz gelijkte latency.
misschien was de keuze van AMD voor een groter, exclusive L1 cache toch niet zo'n heel fout idee.
een heel toevallig, de cache bandbreedte word met een factor 2 verhoogt in de K8L (onderanderen om de eveneens met een factor 2 verbreede SSE verwerking eenheden te voeden)
Blijkbaar vond AMD dan dus wel dat ze cache-bandbreedte tekort kwamen... Is ook logisch als je op ieder punt van Core2 verliest. Ruim een factor 2 (bij kopieren soms zelfs bijna factor 3) is natuurlijk niet niks.
AMD komt nu tijdelijk enkele tien/(honderd?)duizenden te kort, intel kan enkele miljoenen aan de straatstenen niet kwijt.
ik weet wel welke probleem ik liever had eigenlijk.
Ik wel.
Dat Intel met die voorraden zit, heeft geen directe gevolgen voor hun klanten. Leveringsproblemen zullen ze iig met de Netburst niet hebben.
Bij AMD zie je dus nu al dat de klanten gaan klagen dat ze geen CPUs krijgen. Klanten dus niet tevreden, als het echt uit de hand loopt, gaan klanten AMD aanklagen voor contractbreuk. Sowieso slecht voor de reputatie van AMD.
als die voorraad er niet was geweest hadden we misschien al goedkopere core2 gezien en een hoger percentage aan core2 productie.
Lijkt me niet. De overgang naar een nieuwe serie processors gaat nooit zo snel, en de prijzen van Core2 zijn al zeer acceptabel. De Pentium 4 was destijds een stuk duurder... mede daardoor ben ik toen ook voor de Athlon gegaan. Zoals ik het zie, wil Intel de klant absoluut niet laten lijden onder de Netburst. De Core2 is gewoon goed verkrijgbaar (veel beter dan high-end Athlons!) en de prijzen zijn bijzonder laag, als je het vergelijkt met wat AMD ertegenover zet in het hoogste segment. Intel had makkelijk de prijzen wat hoger kunnen houden. Als een E6600 400e had gekost ipv 300e, zou ie nog steeds een betere prijs/prestatie hebben dan de Athlon.
dan raad ik je aan toch eens wat dieper in te gaan op de verschillende type transistors die ze in de CPU industrie gebruiken, want er zit wel degenlijk verschil in.
Ik weet dat er verschillen zijn, ik zeg alleen dat naar mijn weten Intel geen verschillen toepast tussen mobiele CPUs en andere, in ieder geval bij de Core-processors.
hier trouwens een L1 cache latency test.
http://tweakers.net/benchdb/test/234
goh, zo veel extra latency kost die extra grote en complexe L1 toch ook weer niet.
Verder heeft de Core2 inderdaad een wat hogere latency.
De Pentium is degene met de echt lage latency, zeker met L1. Maar die zit natuurlijk weer net niet in de test.
De Core2 is alleen in absolute zin sneller, vanwege de hogere kloksnelheid.
Maargoed, zoals we gezien hebben, vooral de bandbreedte is een probleem, en de associativiteit en grootte van de cache.
Blijkbaar vond AMD dan dus wel dat ze cache-bandbreedte tekort kwamen...
ja na het vergrote van de verwerkings snelheid van de rest van de core wel ja.

daarbij is het verdubbelen van iets in vergelijking met een 4+ jaar oud ontwerp gewoon een normale gang van zaken, zeker gezien de ontwikkelingen op fabricage process. de eerste k8 waren ontworpen met het oog nog op 130n, de k8 is ontworpen met het oog op 65n.
dat leverd gewoon meer speelruimte op waardoor het nu vergrote van de bandbreedte een stuk goedkoper is geworden als het eerst zou zijn geweest.
de keuze voor 2x64/clock was in die tijd gewoon een hele redelijk keuze.
dat intel daar met zijn complete vernieuwing van een ontwerp wat nog maar 2 jaar oud ontwerp is overheen gaat is dus niet meer als logisch.
Ik wel.
Dat Intel met die voorraden zit, heeft geen directe gevolgen voor hun klanten. Leveringsproblemen zullen ze iig met de Netburst niet hebben.
Bij AMD zie je dus nu al dat de klanten gaan klagen dat ze geen CPUs krijgen. Klanten dus niet tevreden, als het echt uit de hand loopt, gaan klanten AMD aanklagen voor contractbreuk. Sowieso slecht voor de reputatie van AMD.
en toch gaat het intel vele malen meer geld kosten als het AMD.
ook loopt het niet uit de hand want de oplossing is al bijna voorhanden.
Lijkt me niet. De overgang naar een nieuwe serie processors gaat nooit zo snel
o ja? aan het begin van deze discussie zei je nog iets anders.
nu ben je het dus met me eens. ok prima.
en de prijzen van Core2 zijn al zeer acceptabel.
zeker, maar wat ik dus bedoel is bv nog een core2 model die onder het huidige zou vallen kwa snelheid en kwa prijs.
Ik weet dat er verschillen zijn, ik zeg alleen dat naar mijn weten Intel geen verschillen toepast tussen mobiele CPUs en andere, in ieder geval bij de Core-processors.
dat zou dan bijzonder dom zijn van intel.
daarbij is het dan heel vreemd dat de athlon64 met even veel pipeline stages als de p-m en gemaakt op een groter procedee stukken hoger geklokt kan worden, zelfs als je het voltage van de p-m verhoogt tot nivos vergelijkbaar met die van de athlon64 (wat voor de p-m een groot voordeel zou moeten zijn vanwegen het kleine process, omdat die normaal gezien altijd met minder voltage toe kunnen).

er blijven bijzonder weinig factoren over die voor zo'n groot verschil in potentiele clocksnelheid kunnen veroorzaken, met boven aan de lijst toch echt die andere transistoren.
vooral de bandbreedte is een probleem, en de associativiteit en grootte van de cache
en nu is het toch weer bandbreedte?

wat is dan ook geworden van :
"Het probleem van de L1-cache bij de Athlon is voornamelijk dat hij 3 clks latency heeft vanwege de grootte. Eigenlijk telt alleen de latency, omdat je per instructie de cache uitleest. Je zult nooit veel bandbreedte nodig hebben, je haalt hooguit 128 bits tegelijk op met 1 instructie."

"eigenlijk telt alleen de latency" en "vooral de bandbreedte is een probleem"
het is duidelijk dat dit vrij zinloos is, elke keer als ik uitleg waarom een van beide lang niet zo belangrijk is als jij lijkt te denken, roep je weer dat het andere het belangrijkste is.
en toch gaat het intel vele malen meer geld kosten als het AMD.
Weet je niet. Het zou best kunnen dat de yields van AMD's 65 nm-proces de komende tijd zo slecht is dat AMD met verlies moet verkopen om de klanten tevreden te stellen.
o ja? aan het begin van deze discussie zei je nog iets anders.
nu ben je het dus met me eens. ok prima.
Volgens mij hebben we het over iets heel anders, maar goed.
zeker, maar wat ik dus bedoel is bv nog een core2 model die onder het huidige zou vallen kwa snelheid en kwa prijs.
Ik geef aan dat dat nog nooit het geval is geweest bij de introductie van een nieuwe serie. Dus dat het nu niet zo is, is niet zo vreemd. Zou leuk zijn voor de klant, maarja... Het zou ook leuk zijn voor de klant als Intel z'n processors gratis weggeeft... Ze moeten natuurlijk ook nog een bedrijf runnen daar.
er blijven bijzonder weinig factoren over die voor zo'n groot verschil in potentiele clocksnelheid kunnen veroorzaken, met boven aan de lijst toch echt die andere transistoren.
Dat is onzin natuurlijk. Ten eerste is de Athlon een andere architectuur, en ten tweede gebruikt AMD andere productiemethoden dan Intel. Dingen als SOI enzo, misschien?
Je kunt dus onmogelijk direct tussen AMD en Intel vergelijken en tot zo'n conclusie komen.
en nu is het toch weer bandbreedte?

wat is dan ook geworden van :
"Het probleem van de L1-cache bij de Athlon is voornamelijk dat hij 3 clks latency heeft vanwege de grootte. Eigenlijk telt alleen de latency, omdat je per instructie de cache uitleest. Je zult nooit veel bandbreedte nodig hebben, je haalt hooguit 128 bits tegelijk op met 1 instructie."
Ik weet dat het tevergeefs is, omdat je het gewoon niet kunt begrijpen, maar zal het nog 1 keer uitleggen:
Uitlezen van cache naar registers in de execution pipeline is bijna per definitie 128 bits per clk, op een moderne CPU. Daar had jij het over (staat ook letterlijk in deze quote), dat is dus niet relevant. Je ziet dan ook dat de Athlon en Core2 eigenlijk hetzelfde scoren qua bandbreedte als je alleen leest. Dat gedeelte is ook gelijk. Daar maakt de latency dus het verschil, omdat bandbreedte gelijk is.

Ga je echter vanuit de pipeline TERUGSCHRIJVEN naar L1-cache (en daarna ook L2-cache en uiteindelijk geheugen), dan wordt het verhaal anders. Dan zie je dat de Athlon ineens veel meer moeite heeft. Met alleen schrijven is hij grofweg een factor 2 trager dan de Core2, en ga je kopieren (dus zowel lezen als schrijven), dan ben je bijna een factor 3 trager.
Duidelijk is dus dat je een tekort aan bandbreedte hebt zodra je meer doet dan alleen lezen uit de cache (wat bijna iedere applicatie dus doet). De Athlon is blijkbaar een soort half-duplex bus die alleen 2x64 bit kan lezen *of* schrijven, waar de Core2 2x64 bit kan lezen *en* schrijven, en daarin zit hem het bandbreedte-verschil.

Je haalt dus 2 situaties door elkaar, omdat je uberhaupt niet beseft waar je het over hebt. Je ratelt wat over getallen waarvan je de betekenis niet begrijpt.
Weet je niet. Het zou best kunnen dat de yields van AMD's 65 nm-proces de komende tijd zo slecht is dat AMD met verlies moet verkopen om de klanten tevreden te stellen.
ja, als ze maar op 33% van de yield die ze hiervoor kregen uit vallen dan wel ja.
de kans daarop is ongeveer... nou laten we zeggen 0.

jij lijkt te denken dat de mensen bij AMD een stel amateurs zijn.
maar ondertussen hebben ze wel de meest efficiente chip fabriek ter wereld en komen alle andere chipbedrijven bij AMD kijken hoe ze het voor elkaar krijgen.
Dat is onzin natuurlijk. Ten eerste is de Athlon een andere architectuur, en ten tweede gebruikt AMD andere productiemethoden dan Intel. Dingen als SOI enzo, misschien?
Je kunt dus onmogelijk direct tussen AMD en Intel vergelijken en tot zo'n conclusie komen.
lulkoek.
andere architectuur, maar wel met het zelfde aantal, pipeline stages die volgens jouw o zo belangrijk zijn voor de maxium clock frequentie.
en tenzij intel zijn archtectuur dus kompleet heeft verpruts, en daar ga ik niet van uit, heeft die maar een vrij beperkte invloed op de maxium clock frequentie, iniedergeval niet iets dat een verschil van bijna 50% zou veroorzaken.

daarbij heeft AMD alleen SOI voor op intel, wat dus helemaal NIKS doet voor de maxium clock, het verkleind alleen de lekstroom.
intel heeft echter wel strained silicium wat WEL de maxium clock verhoogt.
AMD gaat dat pas met 65nm gaat introducren.
Daar had jij het over (staat ook letterlijk in deze quote), dat is dus niet relevant.
umm dat waren jouw woorden, ik quote jouw (vandaar de " ervoor en erachter).
jij had het over 128bit max per clock, (dat nu ineens gemiddeld is geworden trouwens) en nu zeg je over je eigen text dat het niet relevant is.
als dat zo is waarom heb je het dan opgetyped?
Ga je echter vanuit de pipeline TERUGSCHRIJVEN naar L1-cache (en daarna ook L2-cache en uiteindelijk geheugen),
en weer denk je op de intel manier.
exclusive cache weet je nog.
het hoeft helemaal niet terug naar het L2 cache.
alleen als ze in het L1 de ruimte ergens anders voor nodig hebben moet het terug naar de L2, maar het zou ook rechtstreeks weer terug het geheugen in kunnen (al komt dat niet zo heel vaak voor waarschijnlijk).
en de geheugen writes/copys van AMD zijn gemiddeld zo'n 2GB/s sneller als bij core2
de hoeveelheid keren iets naar het L2 geschreven hoeft te worden is dus substantieel lager als bij de core2 waardoor de athlon64 makelijk met minder bandbreedte to kan hier.

minder write bandbreedte in de L1 kan idd een nadeel zijn(wow na tich pogingen heb je dan eigenlijk iets gevonden wat daarwerkelijk ook een nadeel kan zijn in het cache systeem van AMD, al is het nogsteeds geen nadeel dat verband houdt met de exclusive cache structuur waar je zo op tegen was) ,
maar ik denk eerlijk eigenlijk dat het wel mee valt.
veruit het meeste wat een cpu doet is 2 waarden lezen en er vervolgens iets mee doen en er dan 1 terug schrijven. natuurlijk niet in alle gevallen maar in het overgrote deel wel.
vanuit dat oogpunt bekeken is het hebben van de helft minder writeback bandbreedte helemaal niet zo'n achtelijk idee.
andere architectuur, maar wel met het zelfde aantal, pipeline stages die volgens jouw o zo belangrijk zijn voor de maxium clock frequentie.
Zeker, maar wat er in de pipeline stages gebeurt is natuurlijk ook van belang, en dat is verschillend. Sowieso heeft AMD een andere ontwerpfilosofie, dus zullen ze bepaalde dingen op een andere manier implementeren.
Als je een Athlon64 vergelijkt met een AthlonXP, zegt het een stuk meer, omdat de CPU verder vrijwel identiek is, en dan zie je inderdaad dat die twee extra pipeline-stages er mede verantwoordelijk voor zijn dat de kloksnelheid omhoog kan.
daarbij heeft AMD alleen SOI voor op intel, wat dus helemaal NIKS doet voor de maxium clock, het verkleind alleen de lekstroom.
Ja, kleinere lekstroom betekent lager verbruik, dus lagere temperatuur. En temperatuur is de vijand van de transistor. Dat verhoogt namelijk de interne weerstand, en dat verlaagt de verwerkingssnelheid.
intel heeft echter wel strained silicium wat WEL de maxium clock verhoogt.
Ja, wederom door de interne weerstand te verlagen, maar wel door de 'drive current' te verhogen, en dus geen lagere lekstromen of temperaturen.
Kun je dus niet direct vergelijken.
umm dat waren jouw woorden, ik quote jouw (vandaar de " ervoor en erachter).
Dat snap ik ook wel, maar deze quote was een reactie op een van jouw uitlatingen over 2x64 bit bandbreedte.
jij had het over 128bit max per clock, (dat nu ineens gemiddeld is geworden trouwens) en nu zeg je over je eigen text dat het niet relevant is.
als dat zo is waarom heb je het dan opgetyped?
Omdat jij erover begon. Het is inderdaad redelijk normaal om 2 cache-operaties per cycle te kunnen doen, en op een 64-bit machine is dat inderdaad 64-bit per operatie.
Zowel de Core2 als de Athlon64 doen dat dus.
Sinds de Pentium was het ook al heel gebruikelijk om 2x32 bit per cycle te doen. 2x64 bit dus is een logisch gervolg van de overstap naar 64-bit.
alleen als ze in het L1 de ruimte ergens anders voor nodig hebben moet het terug naar de L2, maar het zou ook rechtstreeks weer terug het geheugen in kunnen (al komt dat niet zo heel vaak voor waarschijnlijk).
Dus eigenlijk heb ik gewoon gelijk, maar je moest toch wat te zeiken hebben?
Natuurlijk ga je eerst naar L2-cache, dat is nog altijd sneller dan geheugen. Dat is het hele idee van een multilevel cache.
Direct naar een bepaald level cache of geheugen schrijven kan wel, maar alleen met speciale MMX/SSE instructies.
Bij Intel ga je ook pas terug naar L2 cache als de L1-cache veranderd is (als er een evict gedaan moet worden). Daar is het een cache voor.
en de geheugen writes/copys van AMD zijn gemiddeld zo'n 2GB/s sneller als bij core2
Dat zal ongetwijfeld, dat is dan ook precies het punt dat ik al de hele tijd aan het maken ben: Ondanks dat de AMD meer bandbreedte naar het geheugen heeft, kan hij het *nergens* in betere resultaten omzetten. Hij verliest *alle* benchmarks van de Core2.
Het probleem zit hem dus niet in de bandbreedte naar het geheugen, maar tussen geheugen en de core. En daar zit oa de cache.
de hoeveelheid keren iets naar het L2 geschreven hoeft te worden is dus substantieel lager als bij de core2 waardoor de athlon64 makelijk met minder bandbreedte to kan hier.
Je zegt het zelf: "als ze in het L1 de ruimte ergens anders voor nodig hebben moet het terug naar de L2".
Dit is bij Intel dus niet het geval, want het stond daar al.
Kortom, als een applicatie vaak de L1-cache evict, krijg je op een Athlon64 allemaal bandbreedte-verbruik dat je bij Intel niet hebt.
Het probleemgeval lijkt vooral te zijn wanneer de data van een applicatie niet in L1 past, maar wel in L2 (bij leesopdrachten).
Dan krijg je dus vaak dat je zowel een cacheline van L1 naar L2 evict, en een cacheline van L2 naar L1 inleest.
Intel zal in dat geval alleen cachelines van L2 naar L1 hoeven inlezen. Een evict vanuit L1 heeft geen gevolgen bij Intel als de cacheline niet veranderd is.

Bij schrijfopdrachten zal ook Intel van L1-cache naar L2-cache moeten terugschrijven, dus in dat opzicht heb je niet meer.
Ik beweer dus dat een Athlon VAKER naar L2 moet schrijven dan een Core2, vanwege het mutually-exclusive karakter.

Daarnaast heb je een extra bijwerking: door het mutually-exclusive karakter blijft een cacheline in L2 niet gereserveerd in L1 en omgekeerd.
Bij het terugschrijven van een cacheline uit L1 naar L2 moet er dus een evict plaatsvinden in L2 om ruimte te maken. Dit kan gepaard gaan met een write naar geheugen, wanneer de cacheline dirty is.
Bij Intel stond de cacheline er nog, dus gewoon overschrijven is voldoende.
Intel heeft dus wat meer controle over wanneer ze terugschrijven naar geheugen, en dat kan de efficientie van de geheugencontroller vergroten.

Verder lijkt het me ook een veilige aanname dat AMD ook cachelines uit L1 naar L2 schrijft bij een evict wanneer deze niet dirty zijn, omdat je anders bij de volgende access opnieuw uit geheugen moet lezen.
Dus ook daar zullen ze geen voordeel hebben.

Je hebt dus meer verkeer tussen je caches, meer overhead voor de totale administratie van de caches, en minder controle over je writes naar geheugen.
Eigenlijk zit er maar 1 voordeel aan, en dat is dat je die 64kb in L1-cache uitspaart in je L2-cache.
Maar intussen zijn de caches dermate groot dat 64kb meer of minder niet echt zoden aan de dijk meer zet.
Kortom, bij een cache van zo'n 256kb was het wel aardig, maar ik zou deze strategie niet meer gebruiken met 1 mb cache of meer. De voordelen wegen niet op tegen de nadelen.
veruit het meeste wat een cpu doet is 2 waarden lezen en er vervolgens iets mee doen en er dan 1 terug schrijven. natuurlijk niet in alle gevallen maar in het overgrote deel wel.
vanuit dat oogpunt bekeken is het hebben van de helft minder writeback bandbreedte helemaal niet zo'n achtelijk idee.
Ben ik het niet mee eens. Er zijn genoeg voorbeelden te bedenken waarbij je evenveel moet lezen als schrijven (en vaak tegelijkertijd... memcpy() ligt heel erg voor de hand natuurlijk), en er zijn ook voorbeelden te bedenken waar je meer schrijft dan leest.
Denk bv aan een array van 64-bit getallen die je met een 64-bit constante vermenigvuldigt.
Dan lees je steeds 1 64-bit getal in (de constante staat al in een register of immediate), en krijg je een 128-bit resultaat om weg te schrijven.
Of natuurlijk dingen als decompressie van data... of een memset(), ik noem maar wat.

Hoe de verhoudingen precies liggen in real-world applicaties, is lastig te zeggen, maar de aanname dat je bijna altijd meer leest dan je schrijft, lijkt me zeker niet juist.
Ik schrijf zelf meestal meer dan ik lees, dat zal wel een beetje eigen zijn aan wetenschappelijke berekeningen. Vaak vul je een array van getallen met een enkele lus, waarbij je al je input in registers hebt, en je output naar geheugen gaat.
okee, geef me dan maar 1 goede reden waarom intel niet voor speciale transistors zou kiezen om het verbruikt te verlagen in een mobile CPU waar de prestaties van iets minder belang zijn.

het moet wel een reden zijn die opweegt tegen een bijna gehalveerd verbruik in een mobile CPU natuurlijk.
Zeker, maar wat er in de pipeline stages gebeurt is natuurlijk ook van belang
ja natuurlijk. maar zoals ik al zei ik ging er vanuit dat intel zijn best heeft gedaan om dat zo optimaal te verdelen (geen reden om dat niet te doen vanuit het zuinigheids oogpunt) en daar geen grote fouten in heeft gemaakt. met een goed ontwerp scheelt het echt geen 50% in potenciele klok, hoe anders het x86 ontwerp ok is. (het blijft x86, als is het meer risk eigenlijk.)
Je zegt het zelf: "als ze in het L1 de ruimte ergens anders voor nodig hebben moet het terug naar de L2".
Dit is bij Intel dus niet het geval, want het stond daar al.
nadat het daar ook is neer gezet uit het L1 naar na een verandering.
Kortom, als een applicatie vaak de L1-cache evict, krijg je op een Athlon64 allemaal bandbreedte-verbruik dat je bij Intel niet hebt.
Het probleemgeval lijkt vooral te zijn wanneer de data van een applicatie niet in L1 past, maar wel in L2 (bij leesopdrachten).
Dan krijg je dus vaak dat je zowel een cacheline van L1 naar L2 evict, en een cacheline van L2 naar L1 inleest.
Intel zal in dat geval alleen cachelines van L2 naar L1 hoeven inlezen. Een evict vanuit L1 heeft geen gevolgen bij Intel als de cacheline niet veranderd is.
het is maar zeer de vraag of dat allemaal opweegt tegen het feit dat AMD 4 keer meer in zijn L1 kwijt kan en het dus zowizo veel vaker in het L1 past en er minder vaakt iets uit gehaald hoeft te worden omdat er gewoon meer ruimte is.
bij AMD zal meer als 4 keer vaker voorkomen dat het overgrote deel van de data in het L1 cache past en blijft passen, en dat een niet te onderschaten voordeel.
altijd een voordeel? nee.
vaak een voordeel. ja.
Bij schrijfopdrachten zal ook Intel van L1-cache naar L2-cache moeten terugschrijven, dus in dat opzicht heb je niet meer.
Ik beweer dus dat een Athlon VAKER naar L2 moet schrijven dan een Core2, vanwege het mutually-exclusive karakter.
ja er zijn situaties te bedenken waar dat misschien het geval zou zijn, maar er moeten wel een hoop dingen gebeuren wil dat zo zijn.
de combinatie van al die dingen zal weinig voor komen, en zal met een beetje optimalizatie werk in een aantal gevallen goed te vermeiden is.
Daarnaast heb je een extra bijwerking: door het mutually-exclusive karakter blijft een cacheline in L2 niet gereserveerd in L1 en omgekeerd.
Bij het terugschrijven van een cacheline uit L1 naar L2 moet er dus een evict plaatsvinden in L2 om ruimte te maken.
*snip*
Intel heeft dus wat meer controle over wanneer ze terugschrijven naar geheugen, en dat kan de efficientie van de geheugencontroller vergroten.
je gaat er vanuit dat de cache altijd helemaal vol staat.
dat hoeft helemaal niet het geval te zijn, sterker nog dat is het nooit.
AMD heeft systeemen die bekijken wat in de L2 nog nodig is en wat niet, en halen dat uit de cache als er tijd voor is (gebruikt alleen ongebruike bandbreedte dus) en als ze vinden dat er wat meer ruimte over zou moeten zijn om een buffertje te hebben voor eventueele writes vanuit de L1.
AMD heeft dus bijna volledige controle over waneer iets word terug geschreven naar het geheugen gewoon door slim te anticiperen.
Je hebt dus meer verkeer tussen je caches, meer overhead voor de totale administratie van de caches, en minder controle over je writes naar geheugen.
Eigenlijk zit er maar 1 voordeel aan, en dat is dat je die 64kb in L1-cache uitspaart in je L2-cache.
meer verkeer? terwijl intel bij elke write in de L1 de L2 ook moet veranderen. lijkt me sterk.
minder controler over geheugen? (zie hierboven)
en meer administratie? weer: zie hierboven. met een beetje slim anticipeer werk is een hele hoop van de door jouw voorspelde admin werk helemaal niet nodig, of al gedaan (in tijd die over is) voordat het nodig is.
all het extra admin werk dat nog wel nodig is word ruimschoots gecompenseerd door het feit dat AMD niet bij elke L1 write ook nog eens het L2 moet veranderen.
Maar intussen zijn de caches dermate groot dat 64kb meer of minder niet echt zoden aan de dijk meer zet.
Kortom, bij een cache van zo'n 256kb was het wel aardig, maar ik zou deze strategie niet meer gebruiken met 1 mb cache of meer. De voordelen wegen niet op tegen de nadelen.
in de tijd dat AMD hier op kwam waren de caches 128k tot 256k. en nogsteeds zijn niet op alle cpus de caches bij AMD cpu's groter als 512kbit (en in het geval van de sempron zelfs nog minder)
maar inmiddels heeft AMD voor (bijna) alle eventueele nadelen een oplossing of workaround gevonden en is er dus weinig reden om inclusive caches te gaan gebruiken met alle nadelen van dien.
het zou me BV ook niet verbazen als AMD in zijn volgende generatie CPU's het L1 gaat vergroten omdat het blijkbaar niet persee tot hogere latency hoeft te leiden.

daarbij denk ik dat de exclusive cache een van de redenen dat AMD altijd al goede budget CPU's heeft gehad. daardoor presteeren ook de cpu's met een stuk minder L2 cache nog steeds op een zeer acceptable nivo.
dat heeft AMD geen windeieren gelegt, en zal ze nu ze veel beter in de OEM markt zitten alleen nog maar meer opleveren.
Denk bv aan een array van 64-bit getallen die je met een 64-bit constante vermenigvuldigt.
Dan lees je steeds 1 64-bit getal in (de constante staat al in een register of immediate), en krijg je een 128-bit resultaat om weg te schrijven.
Of natuurlijk dingen als decompressie van data... of een memset(), ik noem maar wat.

Hoe de verhoudingen precies liggen in real-world applicaties, is lastig te zeggen, maar de aanname dat je bijna altijd meer leest dan je schrijft, lijkt me zeker niet juist.
Ik schrijf zelf meestal meer dan ik lees, dat zal wel een beetje eigen zijn aan wetenschappelijke berekeningen. Vaak vul je een array van getallen met een enkele lus, waarbij je al je input in registers hebt, en je output naar geheugen gaat.
klopt, kan een nadeel zijn.
maar hier is de core2's inclusive ontwerp ook niet vrij van nadelen, als er extreem veel geschreven moet worden moeten al die veranderingen ook naar de L2 geschreven worden.
een te kort aan L2 bandbreedte om dat vol te houden is niet ondenkbaar, zeker als de data in de L1 past.
dan is het hele voordeel van het hebben van die L1 cache weg, omdat ze min of meer vast zitten aan de bandbreedte van de L2.
natuurlijk hoeft de L1 niet te wachten tot de L2 klaar is met schrijven om weer gelezen te kunnen worden, maar er is ook geen buffer waar die veranderingen tijdelijk in kunnen worden opgeslagen tot ze kunnen worden weggeschreven.
Dat snap ik ook wel, maar deze quote was een reactie op een van jouw uitlatingen over 2x64 bit bandbreedte.
waarom zou je dat zeggen dan, want 2x64 = 128 en dus voldoet de k8 aan jouw eis.
daarbij verklaagt dat nogsteeds waarom je eerst zegt "Eigenlijk telt alleen de latency," en later (verdacht snel nadat ik heb laten zien dat die gelijk is voor de L1, en de L2 latency bij de k8 van ondergeschikt belang is) veranders in "vooral de bandbreedte is een probleem"

welke van je 2 teorieen je uiteindenlijk ook voor kiest, je hebt het mis.
geen van de k8's caches heeft een latency nog een bandbreedte probleem., voor de huidige core zijn ze voldoende.
het voornaamste wat de k8 te kort komt tegenover de core2 is verwerking snelheid, hetzij omdat de verwerking eenheden niet breed genoeg zijn, het zij omdat die van de core2 efficienter kunnen werken door onderandere het effect van OoO-store/load en smart caching/smart memory access.
geef me 1 goede reden waarom intel niet voor speciale transistors zou kiezen om het verbruikt te verlagen in een mobile CPU waar de prestaties van iets minder belang zijn.

het moet wel een reden zijn die opweegt tegen een gehalveerd verbruik natuurlijk.
Hoho, dat is kromme logica natuurlijk!
Dat iets technisch mogelijk is, is nog geen garantie dat dat ook gedaan wordt (hetzelfde argument kun je ook omkeren: waarom zouden ze bij de desktop-variant niet die zuinige transistors gebruiken, aangezien performance-per-watt nu in de mode is?).
Afgezien daarvan zijn er genoeg andere dingen die invloed hebben op het gebruik. Zoals bv een lager voltage, lager geklokte FSB, extra energiebesparende functies (zoals delen van de cache uitzetten), speciale mobiele chipset erbij, etc.

Dit artikel bv zegt dit:
With only a few changes to its desktop counterpart -- mainly its lower clock speeds and FSB frequency and thus lower power -- there's no reason to call the mobile version anything but Core 2 Duo.
Bewijs maar eens dat het zo is, ik heb er iig nog nergens iets over gelezen dat het wel zo zou zijn.
ja natuurlijk. maar zoals ik al zei ik ging er vanuit dat intel zijn best heeft gedaan om dat zo optimaal te verdelen en daar geen grote fouten in heeft gemaakt. met een goed ontwerp scheelt het echt geen 50% in potenciele klok, hoe anders het x86 ontwerp ok is (het blijft x86, al is het meer risk tegenwoordig eigenlijk).
Dat klopt dus niet echt... Je vergelijkt een Athlon, die toch echt een desktop-processor is, met een Pentium-M, die echt een mobiele processor is.
Nou kunnen beiden wel een 'goed' ontwerp zijn, maar de criteria voor een goed ontwerp op de desktop zijn heel anders dan die voor de mobiele markt. Een van de tekenen aan de wand bij de Pentium-M was destijds dat de SSE-prestaties gewoon onder de maat waren. Voor de mobiele markt niet zo erg, maar het was een van de belangrijkste redenen waarom de Pentium-M geen succes zou kunnen worden op de desktop.
nadat het daar ook is neer gezet uit het L1 naar na een verandering.
Als het veranderd is ja. Anders stond het er al.
het is maar zeer de vraag of dat allemaal opweegt tegen het feit dat AMD 4 keer meer in zijn L1 kwijt kan en het dus zowizo veel vaker in het L1 past en er minder vaakt iets uit gehaald hoeft te worden omdat er gewoon meer ruimte is.
Als je wat benchmarks erbij pakt, wordt de vraag vanzelf beantwoord... De Core2 wint alles, zelfs met gelijke kloksnelheid, en met de 'beperkende' FSB, dus nee, die grotere L1-cache van de Athlon zet geen zoden aan de dijk.
bij AMD zal meer als 4 keer vaker voorkomen dat het overgrote deel van de data in het L1 cache past en blijft passen, en dat een niet te onderschaten voordeel.
In theorie wel ja. In de praktijk blijkt de cache van AMD nogal dom. De associativiteit is erg laag, en de prefetching is ook niet bijster effectief. Het aantal cache-hits is daardoor in de praktijk een stuk lager dan mogelijk zou zijn met zo'n grote cache.
ja er zijn situaties te bedenken waar dat misschien het geval zou zijn, maar er moeten wel een hoop dingen gebeuren wil dat zo zijn.
Was het maar waar. Wat ik in feite net beschreven heb is niets meer dan gewoon een slechte L1-caching, wat zou kunnen komen door slechte voorspelbaarheid van de geheugenaccess, of gewoon doordat de cache niet groot genoeg is. Dat komt vaak voor.
je gaat er vanuit dat de cache altijd helemaal vol staat.
dat hoeft helemaal niet het geval te zijn, sterker nog dat is het nooit.
Cache staat per definitie 'vol'. Er staat altijd informatie in de cache. Er is geen 'leeg'.. wat nog het dichtste bij 'leeg' komt is stukken geheugen die niet veranderd zijn, en dus zo vervangen kunnen worden.
AMD heeft dus bijna volledige controle over waneer iets word terug geschreven naar het geheugen gewoon door slim te anticiperen.
Dat is dus niet waar. Natuurlijk zal er hier en daar wat gebufferd worden etc, dat doet iedereen... Maar als er onverwacht iets uit L2 vervangen moet worden, dan MOET het oude weggeschreven worden. Het kan niet anders.
terwijl intel bij elke write in de L1 de L2 ook moet veranderen. lijkt me sterk.
Hoe kom je daar in godsnaam bij?
Natuurlijk gaan ze niet bij iedere write van L1 ook L2 bijwerken. Dat *kan* niet eens, omdat L2 veel trager is dan L1. Dat hou je dus nooit bij.
Het zou uberhaupt geen cache zijn als je domweg alles kopieert. Wat zou je dan nog besparen aan lees/schrijf-operaties?
Wat er gebeurt is heel simpel: zodra je in de cache iets wijzigt, krijgt die cacheline een 'dirty' status.
Hij wordt pas weggeschreven naar een lager niveau cache (of geheugen) wanneer daar aanleiding toe is (de cacheline is bv verouderd).
De grote winst in een L1-cache zit hem dus in het feit dat je heel vaak dezelfde cacheline kunt lezen en schrijven met je code, en dat ie veel minder vaak uit L2 gelezen en geschreven wordt, en nog minder vaak uit geheugen gelezen en geschreven wordt. Simpel, toch?
Dit is dus echt cache 101, blijkbaar heb je geen idee waar je het over hebt.
Als ik jou was zou ik nog maar eens goed gaan studeren op wat een cache nou eigenlijk is en wat het doet.
maar hier is de core2's inclusive ontwerp ook niet vrij van nadelen, als er extreem veel geschreven moet worden moeten al die veranderingen ook naar de L2 geschreven worden.
Niet dus.
Als je wat benchmarks erbij pakt, wordt de vraag vanzelf beantwoord... De Core2 wint alles, zelfs met gelijke kloksnelheid, en met de 'beperkende' FSB, dus nee, die grotere L1-cache van de Athlon zet geen zoden aan de dijk.
dat is omgekeerd redenen,
de athlons grote L1 houd het verlies van een 4+ jaar oud ontwerp tegenover een nieuw ontwerp beperkt.
In theorie wel ja. In de praktijk blijkt de cache van AMD nogal dom. De associativiteit is erg laag, en de prefetching is ook niet bijster effectief. Het aantal cache-hits is daardoor in de praktijk een stuk lager dan mogelijk zou zijn met zo'n grote cache.
en toch nog altijd hoger als die van de pentium4 (maar die moest natuurlijk verder vooruit kijken, wat de taak een stuk ingewikkelder maakt).
ik heb geen cijfers over de core2 dus daar kan ik niet over oordelen.
ze zijn misschien niet zo bijzonder ingewikkeld of gerafineerd zoals ze (uit bittere noodzaak) zijn bij de p4 (en nu dus de core2) maar ze zijn ook niet dom of slecht te noemen
"een stuk lager" is dus rijkenlijk overdreven. ik geloof dat het cache hit level van de athlons rond de 90% lag ofzo.
zo vreselijk veel valt daar dus niet meer op te winnen (maar als je exactere cijfers hebt houdt ik me aanbeloven).
Cache staat per definitie 'vol'. Er staat altijd informatie in de cache. Er is geen 'leeg'.. wat nog het dichtste bij 'leeg' komt is stukken geheugen die niet veranderd zijn, en dus zo vervangen kunnen worden.
jij noemt je HDD dus ook nogsteeds "vol" als je nadat hij wel echt vol was dingen hebt gedelete maar niet hebt veranders in allemaal nullen?
doe niet zo kinderachtig zeg.
Dit artikel bv zegt dit:
dat zeggen ze ook over de turion. maar die heeft dus ook andere transistors.
Hoho, dat is kromme logica natuurlijk!
Dat iets technisch mogelijk is, is nog geen garantie dat dat ook gedaan wordt (hetzelfde argument kun je ook omkeren: waarom zouden ze bij de desktop-variant niet die zuinige transistors gebruiken, aangezien performance-per-watt nu in de mode is?).
Afgezien daarvan zijn er genoeg andere dingen die invloed hebben op het gebruik. Zoals bv een lager voltage, lager geklokte FSB, extra energiebesparende functies (zoals delen van de cache uitzetten), speciale mobiele chipset erbij, etc.
waarom ze dat niet doen, omdat op de desktop prestaties belangrijker zijn als verbruikt.
daar is het prestatie gedeelte van de "prestaties per watt" belangrijker als het wattage.
en andere invloeden heb ik al grotendeels uit gesloten als zijnde een factor.
ontwerp is niet zo'n grote factor (niet 50%) extra voltage (tot nivo 90nm athlon64) hielp de p-m niet veel verder en cache uit kunnen zetten heeft geen effect op maxium kloksnelheid.
waarom de FSB een nadeel zou zijn voor de kloksnelheid kan ik ook niet echt bedacht krijgen.

daarbij, dat omdraaiend, als al die andere effecten die je noemde zo'n groot effect zouden hebben als jij denkt, dan heb je het grootste deel van de extra clock potentie van de core2 al verklaart zonder die 2 extra pipeline stages.
en dat zou de afwezigheid van die extra stages in de pipeline van de K8L ineens een stuk minder problematisch maken.
Bewijs maar eens dat het zo is, ik heb er iig nog nergens iets over gelezen dat het wel zo zou zijn.
hier, intels eigen website.
http://www.intel.com/prod.../pentiumm/description.htm

" › New power-efficient transistor technology which optimizes power consumption and dissipation for lower CPU power."

daarbij vraag ik jouw alleen maar om mij een reden te geven waarom intel het niet zou doen. lijkt me niet onredelijk wel?
er moet toch een reden zijn waarom jij denkt dat intel het niet zou doen, en dat je het niet alleen maar blijft volhouden omdat je zo graag wil dat het niet zo is, zodat je kan blijven denken dat die 2 extra pipeline stages in de core2 voor 50+% aan extra potenciele mhz kunnen zorgen, zodat je vervolgens weer kan blijven denken dat de K8L niet veel hoger geklokt kan worden als de huidige k8's omdat ze het zelfde aantal stages hebben.

ik heb je al een (grote) reden gegeven waarom intel het wel zou doen, en indirect bewijs van de effecten ervan, terwijl jij helemaal niks laat zien.
Dat is dus niet waar. Natuurlijk zal er hier en daar wat gebufferd worden etc, dat doet iedereen... Maar als er onverwacht iets uit L2 vervangen moet worden, dan MOET het oude weggeschreven worden. Het kan niet anders.
bij de core2 niet anders natuurlijk.
Hoe kom je daar in godsnaam bij?
eerlijk gezegt weet ik ook niet. het is laat en ik ben aangeschoten.
ach niet veel ergers als een aantal van jouw technische blunders.
dat is omgekeerd redenen,
de athlons grote L1 houd het verlies van een 4+ jaar oud ontwerp tegenover een nieuw ontwerp beperkt.
Was het maar beperkt.
De Athlon is helemaal absoluut nergens.
Hij kan niet de kloksnelheden van de Core2 halen, en ook de IPC niet.
Daarom is een Core2 op 2.93 GHz zo'n 40% sneller dan een Athlon op 3 GHz.
Zelfs de Pentium heeft nog nooit tegen zo'n grote achterstand aangekeken.
en toch nog altijd hoger als die van de pentium4 (maar die moest natuurlijk verder vooruit kijken, wat de taak een stuk ingewikkelder maakt).
Andere filosofie he. Als je je cache zo klein maakt, ga je overduidelijk voor de latency, en neem je cache-misses op de koop toe. In SSE-toepassingen zag je het gelijk van Intel. Bij de rest bleek het wat minder gelukkig.
ze zijn misschien niet zo bijzonder ingewikkeld of gerafineerd zoals ze (uit bittere noodzaak) zijn bij de p4 (en nu dus de core2) maar ze zijn ook niet dom of slecht te noemen
Aangezien Intel de enige concurrent is, en een stuk sneller is, is Intel goed, en AMD slecht. Er is verder geen vergelijkingsmateriaal.
jij noemt je HDD dus ook nogsteeds "vol" als je nadat hij wel echt vol was dingen hebt gedelete maar niet hebt veranders in allemaal nullen?
Dat is iets compleet anders.
waarom de FSB een nadeel zou zijn voor de kloksnelheid kan ik ook niet echt bedacht krijgen.
Blijkbaar kun je het al lang niet meer volgen. Waarom geef je het niet gewoon op?
" › New power-efficient transistor technology which optimizes power consumption and dissipation for lower CPU power."
Leuke marketingtaal... maar hoe weet je wat ze bedoelen?
Kan net zo goed het nieuwe 90-nm proces zijn geweest. Daar was de Pentium M de eerste mee.
En dat sluit dus niet uit dat ze het later voor andere CPUs gebruiken.
er moet toch een reden zijn waarom jij denkt dat intel het niet zou doen
Dat heb ik niet gezegd, en dat denk ik ook niet.
Ik heb slechts gezegd dat er voor zover ik weet niet of nauwelijks verschil zit in de productiemethode tussen de mobiele en desktop-processors.
Of ze wel of geen speciale transistors gebruiken, laat ik geheel in het midden.
en dat je het niet alleen maar blijft volhouden omdat je zo graag wil dat het niet zo is, zodat je kan blijven denken dat die 2 extra pipeline stages in de core2 voor 50+% aan extra potenciele mhz kunnen zorgen
Ik heb wel heel wat andere dingen genoemd hoor.
zodat je vervolgens weer kan blijven denken dat de K8L niet veel hoger geklokt kan worden als de huidige k8's omdat ze het zelfde aantal stages hebben.
Ik weet het wel zeker. Ik heb er immers voor doorgeleerd, en ik heb al meer dan genoeg argumenten gegeven, die blijkbaar aan dovemansoren gericht waren.
Die K8L gaat echt niet veel verder klokken dan de K8. Daar durf ik een K8L om te verwedden. Jij blijkbaar niet, met je grote mond.
bij de core2 niet anders natuurlijk.
Wel anders, want waar het om ging was dat je bij een Athlon veel vaker iets uit L2 moet vervangen, dus loop je vaker tegen dit probleem op.
ach niet veel ergers als een aantal van jouw technische blunders
Ik heb geen technische blunders gemaakt hoor.
Jij was het alleen niet eens met hoe een geheugen-fetch precies geinitieerd wordt... wat verder een irrelevant detail is. Maar nu ik doorkrijg hoe weinig je van caches begrijpt, snap ik wel dat je daar een punt van maakt. Je begrijpt toch niet dat het niet irrelevant is.
Verder ook wel leuk om eens aangetoond te zien dat AMD processors vooral door mensen met een grote mond en totaal geen verstand van zaken gesteund wordt.
Dat vermoeden had ik al veel langer.
Waarom heb ik je trouwens nog niet gehoord over de review van de quadcore?
Dan is het ineens stil zeker?
Wordt lachen als straks die Quadfather komt. Hopelijk zie je dan ook in dat een beetje pleistertjes plakken met L3-cache niet genoeg gaat zijn om een competitieve quadcore te krijgen.

Ik heb trouwens vandaag ook nog wat nuttigs gedaan...
Ik heb m'n multithreaded code wat verder geoptimaliseerd.
Core2 E6600 is nu zo'n 37% sneller dan singlethreaded.
Athlon 4400+ zo'n 40% sneller.
Pentium-D 805 zo'n 47% sneller.

Hoezo FSB een belemmering voor multicore?
Ik kan haast niet wachten totdat ik deze code op een Intel quadcore kan draaien. Dat moet ongekend hard gaan.
Core2 is wel verreweg de meest vergeeflijke van de drie.
Met de eerste poging was de Core2 ook al ruim 30% sneller, maar de Athlon en Pentium-D waren trager.
Shared L2-cache is echt een enorm voordeel in sommige gevallen.
Aangezien Intel de enige concurrent is, en een stuk sneller is, is Intel goed, en AMD slecht. Er is verder geen vergelijkingsmateriaal.
dat de core2 nu sneller is will niet zeggen dat dat door de athlon64s cache komt. dat is zoiets zals zeggen dat een ferrari sneller is als een smart omdat de ferrari direct injectie heeft.

http://www.firingsquad.co...l_core_conroe_benchmarks/
de resultaten van de onderste benchmark 2 hebben namelijk heel weinig te doen met branchpredictions en cache en alles met verwerkingsnelheid. dat is de kracht van de core2.
Dat is iets compleet anders
niet echt.
Andere filosofie he.
andere filosofie ja, maar cache hits is voor beide partijen erg belangrijk.
daarbij is de core2's L1 klein maar de latency hetzelfde.
Blijkbaar kun je het al lang niet meer volgen. Waarom geef je het niet gewoon op?
er zit gewoon een multiplyer op, net als AMD die een heeft. er is geen reden waarom je door de FSB de mhz van de core niet hoger zou kunnen krijgen.
een FSB kan wel een probleem zijn als je zelf gaat overclokken, maar niet voor intel zelf, en met een goed mobo hoeft ook die FSB geen probleem te zijn.
Leuke marketingtaal... maar hoe weet je wat ze bedoelen?
Kan net zo goed het nieuwe 90-nm proces zijn geweest. Daar was de Pentium M de eerste mee.
En dat sluit dus niet uit dat ze het later voor andere CPUs gebruiken.
dan zouden ze het production process technologie hebben genoemt.
intel heeft het als ze het over 3d transistors hebben ook over "transistor technologie"
ga maar kijken op de intel site, ze zijn er vrij consequent mee.
Dat heb ik niet gezegd, en dat denk ik ook niet.
Ik heb slechts gezegd dat er voor zover ik weet niet of nauwelijks verschil zit in de productiemethode tussen de mobiele en desktop-processors.
Of ze wel of geen speciale transistors gebruiken, laat ik geheel in het midden.
nee er zit geen verschil in de productie methode, maar wel in het ontwerp van de transistors. dat heb ik je al meerdere malen verteld. blij dat het eindelijk tot je door gedrongen lijkt te zijn.
Of ze wel of geen speciale transistors gebruiken, laat ik geheel in het midden.
o ja?

"Ik weet dat er verschillen zijn, ik zeg alleen dat naar mijn weten Intel geen verschillen toepast tussen mobiele CPUs en andere, in ieder geval bij de Core-processors."

lijkt me toch vrij duidelijk dat je hier zegt dat jij denkt dat intel geen andere transistors gebruikt.
en nee je kan het hier niet over alleen de productie hebben gehad want ik had je in de post ervoor al uitgelegt dat het niet het verschil in productie process is wat het verschil maakt maar het verschil in ontwerp.
Ik heb wel heel wat andere dingen genoemd hoor.
dat bedoel ik niet. waarom zou intel niet van die speciale transistors gebruiken?
welke mogenlijke reden kan intel daar voor hebben.
ik moet mijn antwoorden en uitleg duidelijk niet te lang maken anders raak je kwijt waar we het nou precies over hadden en ga je de vraag toepassen op een onderwerp uit de uitleg en niet op het op het eigenlijke onderwerp van de vraag.
Ik weet het wel zeker. Ik heb er immers voor doorgeleerd, en ik heb al meer dan genoeg argumenten gegeven, die blijkbaar aan dovemansoren gericht waren.
Die K8L gaat echt niet veel verder klokken dan de K8. Daar durf ik een K8L om te verwedden. Jij blijkbaar niet, met je grote mond.
nee is goed, 1 K8L gaat naar mij als de K8L harder gaat lopen als de K8 nu dat nu doet.
Wel anders, want waar het om ging was dat je bij een Athlon veel vaker iets uit L2 moet vervangen, dus loop je vaker tegen dit probleem op.
je kijkt er weer helemaal verkeerd tegen aan en WEER compleet op de intel manier.
als er onverwachts iets uit het geheugen gehaald moet worden gaat dat rechtstreeks het L1 in en niet de L2.
wat in de L1 zit moet wel terug naar de L2 om ruimte te maken, maar daar is die buffer voor, en daarbij kan dat makelijk in de tijd dat de L1 wacht op het gheugen.
hier heeft de athlon dus helemaal geen nadeel tegenover intel.
Ik heb geen technische blunders gemaakt hoor.
o god. ga dan nog maar eens terug lezen.
iets over niet weten hoe de cach van de athlon in elkaar zit en wel over door blijven gaan om er maar 1 te noemen.
on nog maar even de vele vele fouten, ook na bovengenoemde vooral, dat je intels maniers van cache beheer projecteerde op dat van de athlon64 te vertegen.

en over die quad core.
ziet er goed uit in 3d renderen en synthetise tests, voor de rest is het verschil met de core2 meestal verre van indrukwekkend.
Weet je wat, ik geef het op.
Ik heb nog nooit iemand meegemaakt die zo koppig is.
Het heeft geen zin om steeds hetzelfde te herhalen.
Je luistert toch niet.

Verder heb ik echt wel gelijk, het is m'n vak om code te optimaliseren, en daarbij heb ik geen voorkeur, ik heb uitgebreide ervaring met zowel Intel als AMD-architecturen en weet prima wat ze wel en niet kunnen. Ik heb de code om het te bewijzen.
Ik weet eigenlijk niet waarom ik uberhaupt de moeite heb genomen om met je in discussie te gaan. Je spreekt duidelijk niet uit eigen ervaring en bent verder ook slecht op de hoogte. Duidelijk geval van merkblindheid.

Ik heb wel genoeg tijd verspild, ik ga weer verder aan m'n code.
Probeer de volgende keer eens wat inhoudelijks te melden, liefst met eigen voorbeeldcode. Dat praat wat makkelijker.
nee is goed, 1 K8L gaat naar mij als de K8L harder gaat lopen als de K8 nu dat nu doet.
Dat zei ik niet.
Ik zei "veel verder klokken".
Dat is ten eerste niet hetzelfde als harder lopen, en ten tweede moet 'veel' dan eerst gekwantificeerd worden.
Dat kunnen we het beste doen aan de hand van de Core2 die op dat moment voorhanden is.
Als de K8L op een hogere kloksnelheid loopt als de snelste Core2, dan krijg je van mij een K8L, anders krijg ik van jou die Core2.
en over die quad core.
ziet er goed uit in 3d renderen en synthetise tests, voor de rest is het verschil met de core2 meestal verre van indrukwekkend.
Gelukkig ben je te ontwetend om te beseffen dat dat aan de software ligt, en niet aan de processor.
Daarom heeft tweakers er netjes een Opteron bij gedaan... Die bewijst heel mooi dat de quadcore beter schaalt dan een dual dualcore Opteron, die volgens alle 'kenners' een optimaler ontwerp zou hebben vanwege HyperTransport.
Als de K8L op een hogere kloksnelheid loopt als de snelste Core2, dan krijg je van mij een K8L, anders krijg ik van jou die Core2.
en nu moet hij ineens harder lopen als de core2.
dat heb ik dus weer nooit gezegt.
enige wat ik heb gezegt is dat die 2 extra pipeline stages lang niet zo'n groot verschil maakt als jij lijkt te denken.
nergens zei ik dus dat de k8L hoger zou klokken als de core2, zei alleen dat, als hij al achter loopt qua kloksnelheid, het niet veel zou zijn.

trouwens je zei
"Die K8L gaat echt niet veel verder klokken dan de K8."

"niet veel verder" dus.
waarmee je zegt dat hij maar iets sneller zal klokken als de k8 nu. hoe snel de core2 loopt is in dit geval dus totaal irrelevant. enige wat we moeten kwantifiseren is hoe veel "niet veel" is.
10/15%?
veel hoger en we gaan richting de "redelijk wat" in mijn optiek.
Gelukkig ben je te ontwetend om te beseffen dat dat aan de software ligt, en niet aan de processor.
zeker niet, geeft alleen aan dat het voordeel ervan in veel gevallen zeer twijfelachtig is.
Weet je wat, ik geef het op.
Ik heb nog nooit iemand meegemaakt die zo koppig is.
Het heeft geen zin om steeds hetzelfde te herhalen.
Je luistert toch niet.
eensgelijks.
waarmee je zegt dat hij maar iets sneller zal klokken als de k8 nu. hoe snel de core2 loopt is in dit geval dus totaal irrelevant. enige wat we moeten kwantifiseren is hoe veel "niet veel" is.
De Core2 heeft de hogere IPC, dus zal de K8L hoger moeten klokken.
Momenteel klokt de Core2 'niet veel' hoger dan de K8, namelijk 0.13 GHz.
Ben je bang dat tegen de release van de K8L het verschil toch te groot wordt? Je was toch juist zo overtuigd van de kwaliteit van AMD's 65 nm proces en het ontwerp van de K8L?
zeker niet, geeft alleen aan dat het voordeel ervan in veel gevallen zeer twijfelachtig is.
En dus? Dat probleem hebben de Quadfather en de K8L ook. Dat is inherent aan multicore, dat weet iedereen.
Ik vind het dus een enorm zwaktebod van je dat je op die manier probeert de prestaties van de Intel quadcore te bagatelliseren. Noem je jezelf nou een tweaker? Waarom kun je dan het mooie van nieuwe technologie niet waarderen als het toevallig van Intel komt? Dan ben je gewoon een fanboy, en hoor je hier eigenlijk niet. Mensen als jij verzieken dit soort sites altijd, met hun eenzijdige geleuter en geflame.
eensgelijks.
Ik probeer je alleen wat bij te brengen, maar je bent overduidelijk niet geinteresseerd in techniek, maar alleen in dat domme merkje wat erop staat. Lijkt wel alsof het een geloof van je is. Je zou eens iets verder moeten kijken.
ik heb nerges gezegt dat de K8L de core2 voorbij gaat, maar dat hoeft ook niet.
als AMD een goede CPU heeft dan kunnen ze die verkopen voor een dusdanige prijs dat hij bang for buck in de meeste markt segmenten gelijk ligt aan de core2 dan wel hem overtreft. daar is AMD histories gezien altijd al goed in geweest.
nu ze ook op 300mm wafers produceren zou dat alleen maar makelijker moeten zijn geworden.
en dat het high end sigment daar niet bij zit is spijtig maar goed mee te leven voor AMD.

daarbij gaat met de K8L de IPC flink omhoog tov de k8 en word clock voor clock het verschil dus kleiner,
enige verschil in kloksnelheid word dan dus ook minder belangrijk als het nu is.

jij hebt AMD al helemaal afgeschreven, ik probeer je alleen te laten zien dat er nog zat manieren zijn waarop AMD zijn geld kan verdienen.
Noem je jezelf nou een tweaker? Waarom kun je dan het mooie van nieuwe technologie niet waarderen als het toevallig van Intel komt?
er is helemaal niks mooi aan MCM. het is een hack job om weer in het nieuws te komen met een product waar veruit de meeste mensen thuis niet eens op zitten te wachten en dus te vroeg is geintroduceerd.
als je het wel nodig hebt had je al een dual socket mobo thuis liggen.
het enige wat intels MCM meer brengt als een standaard dual socket mobo is dat het syteem in het geheel minder kost, al is dat voornamelijk vanwegen artificiele redenen.

shared cache vind ik dan weer wel een mooi idee bijvoorbeeld.

en op de FSB na (waar intel zelf ok al jaren vanaf wil) heb je mij ook helemaal niks negatiefs horen zeggen over de core 2. ik verziek helemaal niks, het is jouw fantasie en die gekleurde bril van je die dat doen.
Ik probeer je alleen wat bij te brengen, maar je bent overduidelijk niet geinteresseerd in techniek, maar alleen in dat domme merkje wat erop staat. Lijkt wel alsof het een geloof van je is. Je zou eens iets verder moeten kijken.
zucht. als je door dat te denken beter kunt slapen mij best. dat jij helemaal niks negatiefs over intel wil horen of ook maar iets positiefs over AMD is niet mijn probleem.
er is helemaal niks mooi aan MCM. het is een hack job om weer in het nieuws te komen met een product waar veruit de meeste mensen thuis niet eens op zitten te wachten en dus te vroeg is geintroduceerd.
Zie ook: http://gathering.tweakers...message/26785916#26785916
Daar wil ik je wel eens over horen, en dan wel inhoudelijk graag.

Verder is het onzin om te stellen dat een snellere processor te vroeg is geintroduceerd (ik hoorde je ook niet bij de Athlon FX processors van 1000e). Inderdaad hoeft niet de hele thuismarkt meteen aan de quadcore, maar daar zijn de prijzen ook niet naar. Voor professionele gebruikers is het erg interessant.
het enige wat intels MCM meer brengt als een standaard dual socket mobo is dat het syteem in het geheel minder kost, al is dat voornamelijk vanwegen artificiele redenen.
Terwijl je het bij AMD juist weer een sterk punt vindt als ze de kosten laag kunnen houden.
dat jij helemaal niks negatiefs over intel wil horen of ook maar iets positiefs over AMD is niet mijn probleem.
Wat een flauwekul zeg. Ik heb genoeg negatieve dingen over Intel gezegd, en ook genoeg positieve dingen over AMD, in deze en andere threads.
Ik ben gewoon realistisch, op het moment is het voor AMD niet zo positief. Ik weet dus uit eigen ervaring dat de Athlon bijna net zo'n hackjob is als de Pentium D in de praktijk. Dat is het voordeel als je zelf code kunt schrijven... je hoeft niet alle marketing-verhalen als zoete koek te slikken, maar je kunt zelf dingen onderzoeken, en kijken hoe het nou werkelijk zit.
Terwijl je het bij AMD juist weer een sterk punt vindt als ze de kosten laag kunnen houden.
nee, maar AMD loopt er dan niet mee te koop alsof het het beste is sinds gesneden brood.
het enige dat intel hier heeft gedaan, voor de 2de keer, is een dual-socket systeem in een socket gestopt.

daarbij zit hier nouwelijks echte kosten besparing in,
jij maakt mij niet wijs dat het in een packages stoppen van een stukje silicium zo duur moet zijn dat deze duo-duo zo veel goedkoper kan zijn als 2 losse gelijkt geklokte cpus.
(ik hoorde je ook niet bij de Athlon FX processors van 1000e)
die was dan ook altijd sneller en niet alleen afentoe.
evengoed zou ik hem niet kopen.
Voor professionele gebruikers is het erg interessant.
maar zoals gezegt die hadden vaak al een dual socket plank met 2 dual cores waarschijnlijk.
en als hij eigenlijk alleen daarvoor interestant is waarom dan uitbrengen op de consumenten markt?
Ik ben gewoon realistisch,
jouw vorm van realisme is nogal zwart wit en erg ongenuanseerd als je het mij vraagt.
jij maakt mij niet wijs dat het in een packages stoppen van een stukje silicium zo duur moet zijn dat deze duo-duo zo veel goedkoper kan zijn als 2 losse gelijkt geklokte cpus.
De kostenbesparing zit hem vooral in de randapparatuur.
Nog maar 1 socket nodig, standaard chipset ipv dual-CPU chipset, 1 koeler, 1 set geheugen.
die was dan ook altijd sneller en niet alleen afentoe.
Niet als je de dualcore vergeleek met de singlecore. Dan was ie ook maar af en toe sneller.
Verder zal de K8L precies hetzelfde probleem hebben.
En zoals je in de test zag, heeft de dual dualcore Opteron dat probleem ook, dus de Quadfather zal het ook hebben.
Kun je Intel dus niet op aanvallen.
maar zoals gezegt die hadden vaak al een dual socket plank met 2 dual cores waarschijnlijk.
En mensen met een systeem met 2 dualcores zouden niet mogen upgraden om de zoveel tijd? Er zijn vast genoeg mensen met 2 dualcores die nogal oud zijn, en dus een stuk trager dan de Kentsfield... Toch handig als ze kunnen upgraden naar een enkele quadcore? Is weer goedkoper.
Verder komt er ook een Xeon DP uit, dus mensen kunnen nu ook naar een systeem met 2 quadcores upgraden, als ze 2 dualcores hadden.
en als hij eigenlijk alleen daarvoor interestant is waarom dan uitbrengen op de consumenten markt?
Hij is niet *alleen* interessant voor professionals. Er zijn zat consumenten die als hobby videos bewerken of 3d renderen of wat dan ook, en die hebben graag 1000e over voor een CPU als deze die dat significant sneller doet.
Mijn broer heeft thuis ook een monster van een Pentium D staan omdat hij veel video bewerkt. Geld speelde niet echt een rol, hij moest gewoon het snelste hebben voor video.
Die markt is weliswaar niet zo groot, maar hij is er wel.
Maar volgens mij kun je het gewoon niet hebben dat Intel die CPU nu al heeft, en AMD nog met lege handen staat.
Je zoekt allerlei slappe argumenten om dit ding maar de grond in te trappen.
Feit is dat die CPU er nu al is, en dat ie behoorlijk betaalbaar is, gezien de prestaties (dual dualcore Opterons zijn veel duurder en trager, ook Quadfather zal duurder en trager zijn). En dat er binnen korte tijd nog een 2.4 , 2.16 en 1.86 GHz versie gepland zijn, die nog veel betaalbaarder zijn, en voor consumenten echt aantrekkelijk beginnen te worden. Dank je wel Intel, voor het introduceren van de quadcore voor de massa. Dat zal de software-industrie een extra impuls geven om voor multicore te gaan ontwikkelen.

Verder negeer je wel weer heel makkelijk m'n hele multithreading algoritme en het feit dat het op een Pentium D zo goed schaalt... en dat een Athlon X2 ook enorme cache-problemen heeft. Kun je de realiteit niet aan? Of snap je het zoals gewoonlijk weer niet?
Verder negeer je wel weer heel makkelijk m'n hele multithreading algoritme en het feit dat het op een Pentium D zo goed schaalt... en dat een Athlon X2 ook enorme cache-problemen heeft. Kun je de realiteit niet aan? Of snap je het zoals gewoonlijk weer niet?
ja natuurlijk doe ik dat, je geeft hier 1 voorbeeld, door jouw gemaakt, en zegt dan dat de resultaten hiervan representatief zijn voor hoe het altijd gaat.
op zo veel ego valt niet te reageren.

daarbij ben ik ook niet zeker wat je er mee wilt zeggen. de verschillen zij niet echt daverend.

en welk cache probleem bedoel je nu weer?
bandbreedte dit keer? of latency? of grote misschien voor de verandering, of toch het feit dat de athlon geen shard L2 heeft?
o en bijna prefetching vergeten. is het dat misschien dit keer?
ja natuurlijk doe ik dat, je geeft hier 1 voorbeeld, door jouw gemaakt, en zegt dan dat de resultaten hiervan representatief zijn voor hoe het altijd gaat.
Dat zeg ik niet, maar ik geef 2 voorbeelden, twee alternatieve algoritmen, waarbij de een duidelijk een probleem heeft op de Athlon.
Dat jij daar even heel makkelijk overheen stapt is wel enorm zwak natuurlijk. Je mag van mij best een voorkeur hebben voor Athlons, maar je moet wel mans genoeg zijn om de zwakke punten te onderkennen.
Ik als programmeur kan niet anders, ik moet zorgen dat de code goed loopt. Je ziet wat er gebeurt als ik de zwakke punten negeer, dan is de code zomaar 40% trager. Ik moet juist de zwakke punten van de ander negeren, zodat die er slechter vanaf komt, als ik dat wil.
Maar in dit geval is het slechte punt van de Athlon hetzelfde als die van de Pentium D. Precies dat punt wat door mensen als jou als sterk punt van de Athlon naar voren werd geschoven. Leugens dus.
daarbij ben ik ook niet zeker wat je er mee wilt zeggen. de verschillen zij niet echt daverend.
Niet? Bij de Pentium D en de Athlon X2 zit het verschil zo rond de 40 tot 50%, waar dat bij de Core2 onder de 10% ligt.
Kortom: vanuit software-oogpunt zitten de Pentium D en de Athlon X2 in dezelfde klasse. Core2 Duo zit in een andere klasse.
Dan kun je de Pentium D wel een hackjob noemen, maar voor een programmeur boeit dat niet zo, die moet het 'hackjob'-algoritme ook op de Athlon X2 toepassen.
Ik als programmeur ben dan geneigd om te zeggen dat ze dan allebei 'hackjobs' zijn... of misschien juist geen van beiden. Hoe dan ook, het verschil is vooral marketing-geblaat, ik kan als programmeur geen onderscheid maken tussen de twee.
en welk cache probleem bedoel je nu weer?
bandbreedte dit keer? of latency? of grote misschien voor de verandering, of toch het feit dat de athlon geen shard L2 heeft?
o en bijna prefetching vergeten. is het dat misschien dit keer?
Ik heb het duidelijk uitgelegd in dat topic, dus ik ben benieuwd wat jouw theorie dan is, als het niet de cache zou zijn.
Ik ben ook benieuwd hoe jij denkt dat een Quadfather of een K8L in dit plaatje gaan passen.
Geen antwoord meer?
jawel. het staat er al 3 dagen.
Het antwoord daarop ook (helaas gemodereerd naar 0, maar ik neem aan dat je dat wel gezien had), maar daar ga je niet meer op in. Ik neem dus aan dat je het opgeeft.
k heb het nu over mijn code
goed, ik niet. ik had het over in het algemeen.
ik ken je hele algoritme niet, ik heb ook geen enkel idee wat het doet. hoe verwacht je van van mij dat ik daar zinnig op reageer.
daarbij intereseert het me ook niet zo veel hoe ze presteren met jouw algoritme, mij gaat het veel meer over hoe ze het in het algemeen doen.
Verder was de Pentium-D de enige MCM-processor die ik getest had, dus lijkt het me nogal logisch dat ik aannam dat je die ook bedoelde.
is het echt nog een oude pentium-d met 2 apparte cores of is het een nieuwere alles op 1 die en een arbitrator unit.
daar zit nogal een verschil tussen.

kans is een stuk groter dat je pentium-d helemaal geen MCM is.
Lijkt me absoluut niet. Ten eerste heb je shared L2-cache tussen de twee paren cores, dus daar win je gigantisch veel. Ten tweede hoef je nog steeds maar tussen twee caches te communiceren(!!!!), dus eigenlijk verandert er qua overhead en latency niets.
met die gedeelde L2 win je wat, niet gigantisch veel.
er zijn misschien wel maar 2 caches die je dan moet syngronizeren maar daar worden wel nogsteeds door 2 cores/threads tegelijk veranderingen in aangebracht.
dus hoewel de hoeveelheid verkeer duidelijk een stuk minder zal zijn blijft er nogsteeds ongeveer de helf over.

en dat er kwa latancy en overhead niks veranderd is natuurlijk onzin. de communicatie tussen de dies, die over de FSB moet gaat, heeft gewoon een hogere latency, zelfs jij snapt dat.
Ik weet zeker dat hij gehakt gaat maken van de K8L als het om communicatie tussen alle 4 de cores gaat. De L3-cache van de K8L is te klein (geruchten zijn 2 tot 4 mb, waar Intel al 4 mb shared L2-cache per 2 cores heeft), te langzaam (L3 is per definitie langzamer dan L2, en zit een niveau lager, dus ook meer overhead en latency), en AMD kennende ook te inefficient om de Intel-oplossing te bedreigen.
jij hebt duidelijk mijn laatste edit gemist :

"deze vond ik ook wel interesant.
http://www.anandtech.com/IT/showdoc.aspx?i=2872&p=2
xeon netburst die "zich behelpt" en "pleisters plakt" met shared L3 cache.
en voor je gaat zeuren, nee de K8L's L3 word niet zo groot, maar als een xeon zijn score hiermeer meer als kan ver dubbelen in sommige programas moet er voor de K8 toch ook wel ergens iets tussen de 20 en 40% te winnen zijn met een paar MB aan shared L3."

daarbij dat intel 2 tot 4 MB aan cache heeft wil niet zeggen dat AMD dat ook nodig heeft. sterker nog, we zien al tijden dat elke cache verdubbeling steeds minder effect heeft op de prestaties.
alleen bij netburst tikke het nog een beetje aan (weer, zie benchmark) maar bij elke andere archtecturen word het verschil kleiner en kleiner (zoek maar een naar wat benchmarks van gelijkgeclokte core2s met 2 en 4 MB cache, in bijna alle gevallen zijn de verschillen marginaal)

en hoewel de L3 latency idd hoger is als de L2 latency hoeft dat niet een gigantische probleem te zijn (zie benchmark), zo veel is het namelijk niet.
en zit het met de bandbreedte wel goed, aangezien die waarschijnlijk het zelfde zal zijn als die van de (dan inmiddeld verdubbelde) L2 bandbreedte.

daarbij krijgt de K8L 4x 64kB L1 cache. 4x 512KB aan L2 cache en 2 tot 4 MB aan L3 cache.
zowizo meer als 4MB cache dus
Afgezien daarvan is het zeer waarschijnlijk dat Intel rond die tijd ook een quadcore op een enkele die heeft, die naar alle waarschijnlijkheid nog efficienter gaat communiceren.
ja, maar als intel die heeft heeft AMD die ook ongeveer.
Ik snap trouwens niet waarom je over een arbitrator begint, maar als je twee of meer agents op een enkele bus zet, zul je per definitie een arbitrator nodig hebben.
maar die had de MCM pentium-d dus niet.
dat liep op precies de zelfde manier als het zou werken op een dual socket mobo met een intel chipset.
goed, ik niet. ik had het over in het algemeen.
ik ken je hele algoritme niet, ik heb ook geen enkel idee wat het doet. hoe verwacht je van van mij dat ik daar zinnig op reageer.
daarbij intereseert het me ook niet zo veel hoe ze presteren met jouw algoritme, mij gaat het veel meer over hoe ze het in het algemeen doen.
'Het algemeen' bestaat niet.
Zou je toch moeten weten... Herinner je je niet een tijd waarin Pentium 4 meestal sneller was met media-encoding en dergelijke, maar waar Athlon sneller was in spelletjes? Welke processor was er dan sneller 'in het algemeen'? Kun je niet zeggen.
Hier hetzelfde verhaal. Alle algoritmen die op een bepaalde manier vergelijkbaar zijn met dit stuk code (en dat zijn er aardig wat, mijn code is helemaal zo vreemd niet), zullen ook vergelijkbaar gedrag tonen.
Dus ik snap niet dat iemand dat gewoon wil negeren.
Verder sta ik open voor inhoudelijke vragen omtrent de werking van het algoritme.
is het echt nog een oude pentium-d met 2 apparte cores of is het een nieuwere alles op 1 die en een arbitrator unit.
daar zit nogal een verschil tussen.

kans is een stuk groter dat je pentium-d helemaal geen MCM is.
Volgens mij ben je nogal in de war.
De oude Pentium D (8xx serie, codenaam Smithfield) is een enkele die.
De nieuwe Pentium D (9xx serie, codenaam Presler) is twee dies in 1 package.
Ik heb beiden getest, en hoewel de 9xx op een stuk hogere kloksnelheid liep, merkte ik relatief gezien weinig verschil.
met die gedeelde L2 win je wat, niet gigantisch veel.
Zo'n 30% ten opzichte van een Athlon X2 in mijn applicatie.
en dat er kwa latancy en overhead niks veranderd is natuurlijk onzin. de communicatie tussen de dies, die over de FSB moet gaat, heeft gewoon een hogere latency, zelfs jij snapt dat.
Ik bedoelde ten opzichte van de Pentium D uiteraard.
De Pentium D was in mijn tests zo'n 5% langzamer dan een Athlon X2. Gezien het feit dat de Core2 Duo zo'n 30% sneller was, ben ik geneigd om te zeggen dat de twee shared L2-caches meer winst boeken dan dat je verliest in de FSB bij de quadcore, dus win je nog steeds tov de Athlon. En dan hou ik nog niet eens rekening met het feit dat de FSB van de Pentium D nog een stukje trager is.
daarbij dat intel 2 tot 4 MB aan cache heeft wil niet zeggen dat AMD dat ook nodig heeft. sterker nog, we zien al tijden dat elke cache verdubbeling steeds minder effect heeft op de prestaties.
Het is niets nieuws dat je 'diminishing returns' krijgt bij cache. Verder is tot op heden Intel altijd de betere geweest als het op caching aankomt, dus ben ik geneigd te zeggen dat AMD meer cache dan Intel nodig gaat hebben, niet minder. Je geeft zelf ook al aan dat AMD die grote cache niet krijgt, dus vergelijken met deze Xeons blijft lastig. Verder siert het je niet dat je wederom een verouderde productlijn van Intel nodig lijkt te hebben om je voorkeur voor AMD te rechtvaardigen.
Natuurlijk was Netburst een mislukking, maar dat is Core2 niet... en als AMD dezelfde strategie gaat toepassen als Intel met Netburst, lijkt het erop dat ze toegeven dat het ook een mislukking wordt.

Maar meer to the point: deze cache dient om de communicatie tussen cores te verbeteren, niet zozeer om de geheugentoegang van de applicatie zelf sneller te laten verlopen. Hiervoor is het dus wel een vereiste dat de L3-cache minstens even groot is als de caches van de cores tezamen, anders kun je nooit efficient communiceren, je moet immers alsnog geheugen gaan gebruiken.
Als ze bij K8L de L2-cache op 512 kb houden, zou de L3-cache op zich wel groot genoeg zijn, maar zul je er veel meer afhankelijk van worden, omdat je L2 zo klein is, zeker in verhouding tot de Kentsfield. Dat is dus geen voordeel.
maar die had de MCM pentium-d dus niet.
dat liep op precies de zelfde manier als het zou werken op een dual socket mobo met een intel chipset.
Volgens mij ben je hier echt in de war.
In het geval van de Pentium D zitten beiden op dezelfde FSB aangesloten: http://www.extremetech.com/article2/0,1697,1781864,00.asp
Het FSB-protocol zal wel zodanig werken dat de CPUs zelf voor de arbitrage zorgen, door met een bepaald bitje de bus te reserveren, of wat dan ook, en verder via snooping een beetje voorspellen wat de andere core gaat doen, etc. Ze kunnen natuurlijk niet allebei tegelijk gaan werken. Dus zit er op de CPUs iets van een arbitrator ingebouwd.
Hoe het op een dual socket mobo werkt, zou ik op moeten zoeken... Maar volgens mij bestaan er chipsets die voor iedere CPU een eigen FSB hebben, waardoor er dus niet gedeeld hoeft te worden, en de chipset alleen voor zichzelf arbitrage moet uitvoeren voor de geheugencontroller en andere zaken.. maar dan nog zul je iets moeten hebben om te zorgen dat de caches gesynchroniseerd blijven.
Zo'n 30% ten opzichte van een Athlon X2 in mijn applicatie.
zucht.
dit begint erg irritant te worden.
we hebben het over die quad cores en hoeveel die 2 keer gedeelde L2 cache helpt bij zo'n quadcore om de communicatie tussen de 2 die's te verminderen, en dan kom jij als antwoord met zo'n een statement, met een TOTAAL ander onderwerp, een andere contects, en iets wat ik niet eens in twijfel trek.
als het nou de eerste keer was ok, maar sorry het begint HEEL irritant te worden.

jij pakt losse zinnen uit mijn antwoorden en laat daar je pro-intel chechlijstje op los en vergeet totaal het geheel, of het huidige onderwerp.
'Het algemeen' bestaat niet.
Zou je toch moeten weten... Herinner je je niet een tijd waarin Pentium 4 meestal sneller was met media-encoding en dergelijke, maar waar Athlon sneller was in spelletjes? Welke processor was er dan sneller 'in het algemeen'? Kun je niet zeggen.
Hier hetzelfde verhaal.
en om precies die reden kan je weinig zeggen met maar 1 type protocole als vergelijkings materiaal. zelfs als je 2 verschillende versies hebt gebruikt focusten ze nogsteeds maar op een paar onderdelen van het CPU ontwerp.

daarbij kan ik bij de netburst vs athlon dat vrij makelijk zeggen. in het algemeen zal software zonder vergaande SSE optimalizaties het beste werken op een athlon en software met die optimalizaties het beste werken op de netburst.
Maar volgens mij bestaan er chipsets die voor iedere CPU een eigen FSB hebben,
ja bestaan, de meeste mensen gebruiken die echter niet.
ze zijn ERG duur, (zowel chipset als mobo) en erg zeldzaam.
maar zul je er veel meer afhankelijk van worden, omdat je L2 zo klein is, zeker in verhouding tot de Kentsfield. Dat is dus geen voordeel.
L2 te klein?
wel eens het verschil bekeken, clock voor clock, tussen een 1mb k8 en een 512kb k8?.
net als bij de core2 (verschil tussen 2mb en 4mb) is het verschil in eigenlijk alle gevallen erg marginaal.
caches zijn voor de huidige software gewoon duidelijk groot genoeg in bijna alle gevallen.

zoals ik al zei, netburst is de enige archtectuur die nog veel aan grote caches heeft vanwegen de erg grote pennalty for cache misses en de argresive prefetching die nodig is om dat gevaar zo veel mogenlijk te beperken.

zowel core2 als k8 hebben lang niet zo'n grote cache nodig.
Verder siert het je niet dat je wederom een verouderde productlijn van Intel nodig lijkt te hebben om je voorkeur voor AMD te rechtvaardigen.
waar zeg ik dat ik een voorkeur voor AMD heb?
ik zeg alleen dat het allemaal lang niet zo benard is voor AMD als jij lijkt te denken.
daarbij geeft het onomstotelijk aan dat gedeelde L3 cache een zeer possief effect kan hebben op de prestaties, net als L2 dat kan.
Maar meer to the point: deze cache dient om de communicatie tussen cores te verbeteren, niet zozeer om de geheugentoegang van de applicatie zelf sneller te laten verlopen. Hiervoor is het dus wel een vereiste dat de L3-cache minstens even groot is als de caches van de cores tezamen, anders kun je nooit efficient communiceren, je moet immers alsnog geheugen gaan gebruiken.
als het vooral als doorgeefleuk gebruikt word, en even veel bandbreedte heeft als de L2, dan hoeft de L3 helemaal niet groter te zijn als de L2.
daarbij is het dat wel dus is er zowizo geen probleem,
en aangezien we al weten dat 512KB meestal genoeg is voor de K8 hoeft AMD daar ook niks aan te veranderen voorlopig.
Het is niets nieuws dat je 'diminishing returns' krijgt bij cache.
ja, en daarom is er ook een punt waarop het extra investeren die je moet doen voor grote caches het niet meer waard voor het klein verschil in preformance die je ervoor terug krijgt.

zowel AMD als intel zitten al ruim over dat punt.
wat dus wil zeggen dat de grotere cache van de core2 maar heel weinig invloed heeft op het prestatie verschil tussen core2 en k8
Verder is tot op heden Intel altijd de betere geweest als het op caching aankomt, dus ben ik geneigd te zeggen dat AMD meer cache dan Intel nodig gaat hebben, niet minder.
de core2 doet het idd beter als de k8 als het op cachehits aan komt.
maar AMD zit al boven de 90% en er valt dus niet veel te winnen door het beter te doen. (netburst zat 4 jaar lang onder de k8 dus "altijd beter" is onzin)

ik zou daarom zelfs zeggen dat, zeker de branchpredictors, van de core2 gewoon overengineerd zijn.
ze waren ontworpen voor een ontwerp met meer als 30 pipeline stages en word nu gebruikt voor eentje met 14.
het is een beetje als een porch met een 12 speed vrachtwaren versnellings bak.
ja daardoor kan je efficienter rijden, maar het verschil is gewoon te klein om all dat silcium oppervlak en development tijd die er in geinvesteerd moest worden te rechvaardigen.
voor die paar procenten hogere cachehit rate als de K8 moet intel gewoon vele malen meer investeren in de predictors en prefetchers als AMD.
Volgens mij ben je hier echt in de war.
In het geval van de Pentium D zitten beiden op dezelfde FSB aangesloten: http://www.extremetech.com/article2/0,1697,1781864,00.asp
Het FSB-protocol zal wel zodanig werken dat de CPUs zelf voor de arbitrage zorgen, door met een bepaald bitje de bus te reserveren, of wat dan ook, en verder via snooping een beetje voorspellen wat de andere core gaat doen, etc. Ze kunnen natuurlijk niet allebei tegelijk gaan werken. Dus zit er op de CPUs iets van een arbitrator ingebouwd.
juist, maar dan zitten er dus 3 partijen op de FSB die allemaal afentoe de FSB willen gebruiken (biede cpu's en de chipset)
bij de versies die in 1 die zit, zitten er maar 2 partijen op de FSB wat dus voor minder overhead en minder werkt zogt. de cpu hoeft niet meer te gokken of de FSB vrij zal zijn, maar weet dat dat zo zal zijn, omdat de arbitrator in de FSB dat bepaald.
we hebben het over die quad cores en hoeveel die 2 keer gedeelde L2 cache helpt bij zo'n quadcore om de communicatie tussen de 2 die's te verminderen, en dan kom jij als antwoord met zo'n een statement, met een TOTAAL ander onderwerp, een andere contects, en iets wat ik niet eens in twijfel trek.
Hoezo totaal ander ontwerp? Kentsfield is gewoon twee Conroe-achtige cores aan elkaar geplakt. Het communiceren tussen de twee cores binnen 1 die is dus precies hetzelfde. Het enige dat anders is is dat de twee L2-caches nu onderling gesynchroniseerd moeten worden, en dat is weer vergelijkbaar met de Pentium D (want zelfde socket, zelfde FSB, zelfde chipset, zelfde protocol etc).
zelfs als je 2 verschillende versies hebt gebruikt focusten ze nogsteeds maar op een paar onderdelen van het CPU ontwerp.
De een focust op een ontwerp dat efficient kan communiceren tussen twee cores, de andere focust er juist op om zo veel mogelijk die communicatie te mijden. Kortom, ideaal om te zien hoe goed die communicatie is, lijkt me.
wel eens het verschil bekeken, clock voor clock, tussen een 1mb k8 en een 512kb k8?
Kijk maar in mijn topic op GOT, daar staat een 4600+ en een 4800+, enige verschil is de cachegrootte. Verschil in prestaties van de multithreaded-versie is behoorlijk, 200 fps om 250 fps.
net als bij de core2 (verschil tussen 2mb en 4mb) is het verschil in eigenlijk alle gevallen erg marginaal.
Diminishing returns, van 2 mb naar 4 imb s dus heel anders dan van 512 kb naar 1 mb.
caches zijn voor de huidige software gewoon duidelijk groot genoeg in bijna alle gevallen.
Volgens mij zijn quadcores dan ook vooral interessant voor toekomstige software. Er is nog maar weinig software die al gebruik kan maken van meerdere cores.
Meer threads betekent ook meer data per thread, en dus ook meer cache benodigd.
daarbij geeft het onomstotelijk aan dat gedeelde L3 cache een zeer possief effect kan hebben op de prestaties, net als L2 dat kan.
Dat ontken ik ook niet, ik geef alleen aan dat het positieve effect volgens mijn tests met K8 en Core2 naar alle waarschijnlijkheid niet genoeg gaat zijn om op het niveau van de Kentsfield te komen.
(netburst zat 4 jaar lang onder de k8 dus "altijd beter" is onzin)
Volgens mij verwar je de algemene prestaties met de cache.
De cache van de Pentium 4 was wel degelijk beter (betere associativiteit, lagere latency, hogere bandbreedte, groter).
ik zou daarom zelfs zeggen dat, zeker de branchpredictors, van de core2 gewoon overengineerd zijn.
ze waren ontworpen voor een ontwerp met meer als 30 pipeline stages en word nu gebruikt voor eentje met 14.
Hoe kom je erbij dat de Core2 de branch predictors van de Pentium 4 zou hebben? Die zijn gewoon opnieuw ontworpen en geoptimaliseerd voor de Core2. En hoogstwaarschijnlijk ook kleiner, want de transistorcount van de Core2 is een behoorlijk stuk lager dan die van de Pentium. Dat terwijl de cache groter is geworden, en er meer en bredere execution units toegevoegd zijn. Er is dus een hoop gestript aan complexiteit.
juist, maar dan zitten er dus 3 partijen op de FSB die allemaal afentoe de FSB willen gebruiken (biede cpu's en de chipset)
bij de versies die in 1 die zit, zitten er maar 2 partijen op de FSB wat dus voor minder overhead en minder werkt zogt. de cpu hoeft niet meer te gokken of de FSB vrij zal zijn, maar weet dat dat zo zal zijn, omdat de arbitrator in de FSB dat bepaald.
Dat is niet zo. De versie op 1 die is fysiek niet anders dan de versie met 2 dies. In beide gevallen zitten ze als een Siamese tweeling op de FSB, en in beide gevallen zit er een arbitrator op iedere core om de FSB efficient te kunnen delen. De link die ik postte, die gaat juist om de versie op 1 die (Smithfield).
En nogmaals, ik heb zowel de 8xx als de 9xx getest, en er is geen significant verschil in prestaties in beide situaties (zowel sharen van cache als niet sharen van cache), dus ook dat wijst er niet op dat de 8xx efficienter is.
Kortom, je zit er helemaal naast.
Hoezo totaal ander ontwerp? Kentsfield is gewoon twee Conroe-achtige cores aan elkaar geplakt. Het communiceren tussen de twee cores binnen 1 die is dus precies hetzelfde. Het enige dat anders is is dat de twee L2-caches nu onderling gesynchroniseerd moeten worden, en dat is weer vergelijkbaar met de Pentium D (want zelfde socket, zelfde FSB, zelfde chipset, zelfde protocol etc).
dan hebben we het toch over de communcatie tussen de die's en niet die tussen de 2 al aanelkaar geplakte cores.
op welke manier is het dan interestant om te weten dat die 2 aan elkaar geplakte cores 30% sneller zijn daardoor? dat heeft toch helemaal niks met het onderwerp te maken.
Volgens mij verwar je de algemene prestaties met de cache.
De cache van de Pentium 4 was wel degelijk beter (betere associativiteit, lagere latency, hogere bandbreedte, groter).
zeer zeker niet.
en dat was misschien allemaal wel zo maar ondanks dat had de K8 een hogere cache hit rate.
intel had al die voordelen hard nodig om nog een beetje bij te kunnen blijven.
Hoe kom je erbij dat de Core2 de branch predictors van de Pentium 4 zou hebben? Die zijn gewoon opnieuw ontworpen en geoptimaliseerd voor de Core2. En hoogstwaarschijnlijk ook kleiner, want de transistorcount van de Core2 is een behoorlijk stuk lager dan die van de Pentium. Dat terwijl de cache groter is geworden, en er meer en bredere execution units toegevoegd zijn. Er is dus een hoop gestript aan complexiteit.
ja maar hij is wel gebazeerd op die van de P4, en nogsteeds rijkelijk overdreven omdat intel niet al het werk dat ze in de ontwikkeling ervan weg wilde gooien.
daarbij komt het grootste deel het transistorcount verhaal voor rekening van de meer als gehalveerde pipeline lengte.
daarmee valt niks zinnigs te zeggen over de grote van de branchpredictors
Dat ontken ik ook niet, ik geef alleen aan dat het positieve effect volgens mijn tests met K8 en Core2 naar alle waarschijnlijkheid niet genoeg gaat zijn om op het niveau van de Kentsfield te komen.
misschien niet misschien wel, ik ben van mening dat het dicht bij genoeg zal zijn voor AMD om competatief mee te kunnen draaien.
dan hebben we het toch over de communcatie tussen de die's en niet die tussen de 2 al aanelkaar geplakte cores.
Ja, en die is dus in principe niet anders dan bij een Pentium D. Dus hoe jij komt bij een totaal ander ontwerp, snap ik niet. Dat licht ik dus toe.
op welke manier is het dan interestant om te weten dat die 2 aan elkaar geplakte cores 30% sneller zijn daardoor? dat heeft toch helemaal niks met het onderwerp te maken
Tuurlijk wel, dat is een voordeel, omdat je 4 cores hebt, maar nog steeds maar 1 link hebt die niet zo efficient is. In het slechtste geval had je tussen alle cores zo'n link.
De efficientie is dus relatief aan de Pentium D omhoog gegaan per core.
en dat was misschien allemaal wel zo maar ondanks dat had de K8 een hogere cache hit rate
Hoe kom je daar in godsnaam bij? Heb je daar enig bewijs voor?
Ja maar hij is wel gebazeerd op die van de P4, en nogsteeds rijkelijk overdreven omdat intel niet al het werk dat ze in de ontwikkeling ervan weg wilde gooien.
Nogmaals, bewijs?
En wat bedoel je met 'gebaseerd op'?
Natuurlijk zijn er overeenkomsten, het is immers allebei x86. De P4 is ook weer 'gebaseerd op' de P3, dat zegt allemaal zo weinig in dit verband.
daarbij komt het grootste deel het transistorcount verhaal voor rekening van de meer als gehalveerde pipeline lengte.
Je halveert de lengte van de pipeline, maar maakt wel je execution units twee keer zo groot, en voegt er extra units aan toe. De verwachting lijkt me dan toch dat je weer ongeveer gelijk uitkomt, even simpel geredeneerd.
Het verklaart in ieder geval niet waarom het verschil in transistors zo enorm groot is.
misschien niet misschien wel, ik ben van mening dat het dicht bij genoeg zal zijn voor AMD om competatief mee te kunnen draaien.
Ik niet, voornamelijk omdat AMD z'n prijzen niet laag genoeg zal kunnen krijgen, net zoals dat op dit moment is. Ik denk dat we AMD de eerstvolgende jaren niet meer in de high-end markt mee zullen zien draaien. De Core2-lijn ontwikkelt zich nu met een sneltreinvaart, dat haalt AMD niet meer in totdat ze met een nieuwe core komen (niet K8L dus, iets dat echt nieuw is).

Ik hoor je nu trouwens ineens niet meer over die FSB?
Op z'n minst zou je een "Sorry, je hebt gelijk" neer kunnen zetten.
k hoor je nu trouwens ineens niet meer over die FSB?
Op z'n minst zou je een "Sorry, je hebt gelijk" neer kunnen zetten.
o tuurlijk heb je gelijk, intel wil er zelf ook zo snel mogenlijk van af maar verder heb je helemaal gelijk en is de FSB helemaal geen probleem, nergens niet nooit.
Ik niet, voornamelijk omdat AMD z'n prijzen niet laag genoeg zal kunnen krijgen, net zoals dat op dit moment is.
nee natuuuuuuurlijk niet, ze gaan nu ongeveer 3 keer zo veel CPU's produceren in de zelfde tijd maar dat leverd ze natuurlijk helemaal geen enkele productie kosten besparing op (sarcasme).
Ik denk dat we AMD de eerstvolgende jaren niet meer in de high-end markt mee zullen zien draaien. De Core2-lijn ontwikkelt zich nu met een sneltreinvaart, dat haalt AMD niet meer in totdat ze met een nieuwe core komen (niet K8L dus, iets dat echt nieuw is).
who cares!
K8L is voldoende om het huidige gat te dichten, ze nemen waarschijnlijk niet de leiding over maar komen dicht bij genoeg om er geen problemen van te ondervinden doordat ze, zoals ze altijd doen, onder de prijzen van intel te gaan zitten.
Ja, en die is dus in principe niet anders dan bij een Pentium D. Dus hoe jij komt bij een totaal ander ontwerp, snap ik niet. Dat licht ik dus toe.
o god.
nee precies die is in principe niet anders als bij de pentium-D
waarom is het dan interestant om te weten dat shared L2 cache dat 30% sneller kan. dat heeft er toch geen zak mee te maken.
Tuurlijk wel, dat is een voordeel, omdat je 4 cores hebt, maar nog steeds maar 1 link hebt die niet zo efficient is. In het slechtste geval had je tussen alle cores zo'n link.
De efficientie is dus relatief aan de Pentium D omhoog gegaan per core.
per core ja, per die, nee omdat er nu meer gecommuniseerd moet worden (meer cores meer communicatie, vrij simple principe)
totaal sneller? ja, efficient ontwerp? nee.
En wat bedoel je met 'gebaseerd op'?
Natuurlijk zijn er overeenkomsten, het is immers allebei x86. De P4 is ook weer 'gebaseerd op' de P3, dat zegt allemaal zo weinig in dit verband.
http://arstechnica.com/articles/paedia/cpu/pentium-m.ars/2
"the PM takes the P4's branch prediction and does it not one but two better; the next section tells how."

en die van de p3 lijkt totaal niet op die van de p4. biede x86 misschien maar die van de p4 is vele vele malen ingewikkelder.
Je halveert de lengte van de pipeline, maar maakt wel je execution units twee keer zo groot, en voegt er extra units aan toe.
ze maken de SSE unites breder, en niet alle unites, nogal een verschil. (zeker omdat SSE redelijk compact zijn in vergelijking met de general exectution unites)
o tuurlijk heb je gelijk, intel wil er zelf ook zo snel mogenlijk van af maar verder heb je helemaal gelijk en is de FSB helemaal geen probleem, nergens niet nooit.
Dat bedoel ik niet, ik bedoel dat je foutief geinformeerd bent over de Pentium D, wat betreft arbitrators en FSBs.
Natuurlijk wil Intel van de FSB af. Maar dat is in de toekomst. Nu is het nog geen probleem, want ze zijn met FSB nog competitief met AMD (wat heet).
nee natuuuuuuurlijk niet, ze gaan nu ongeveer 3 keer zo veel CPU's produceren in de zelfde tijd maar dat leverd ze natuurlijk helemaal geen enkele productie kosten besparing op (sarcasme).
We zullen zien wie gelijk krijgt.
K8L is voldoende om het huidige gat te dichten, ze nemen waarschijnlijk niet de leiding over maar komen dicht bij genoeg om er geen problemen van te ondervinden doordat ze, zoals ze altijd doen, onder de prijzen van intel te gaan zitten.
Het huidige gat, dat zeg je goed. In 6 tot 9 maanden is dat gat natuurlijk een stuk groter.
Als ze het huidige gat al kunnen dichten, kunnen ze dus nog steeds niet over de hele breedte competitief zijn... En of ze in de rest wel competitief zijn, valt te betwijfelen, omdat Intel dan alweer naar 45 nm gaat, en AMD weer achterloopt.
nee precies die is in principe niet anders als bij de pentium-D
waarom is het dan interestant om te weten dat shared L2 cache dat 30% sneller kan. dat heeft er toch geen zak mee te maken.
Natuurlijk wel, dankzij die shared L2-cache is het niet anders dan de Pentium D. Anders zouden er 4 cores over de FSB moeten communiceren, en dat zou een probleem zijn.
per core ja, per die, nee omdat er nu meer gecommuniseerd moet worden (meer cores meer communicatie, vrij simple principe)
Beetje kort door de bocht. Er zijn genoeg toepassingen te bedenken waar de cores sowieso geen communicatie nodig hebben (precies dat soort waar AMD geen last van z'n NUMA-architectuur heeft).
En in de gevallen waar meer gecommuniceerd moet worden, kan een deel daarvan via snelle L2-cache ipv via de bus. Als je dat handig aanpakt, kun je daar veel voordeel uit halen.
Moet je wel goed quoten:
The PM takes the P4's scheme and builds on it by adding two new, more specialized branch predictors that work in tandem with primary, P4-based branch predictor: the loop detector and the indirect branch predictor.
Er staat dus scheme, niet branch prediction.
Scheme vertaalt min of meer naar aanpak/methode.
Die zal ongetwijfeld hetzelfde zijn, maar daar ging het niet om. Jouw argument is dat het overbemeten was... En dat heeft te maken met de grootte van de tabellen, en daar zegt het artikel nou net niks over.
ze maken de SSE unites breder, en niet alle unites, nogal een verschil. (zeker omdat SSE redelijk compact zijn in vergelijking met de general exectution unites)
Er zitten nu wel 4 (64-bit) ALUs op, ipv 2.
En SSE compact? Je maakt een grapje.
Die dingen zijn floating point en SIMD... Zo'n beetje de grootst mogelijke transistorslurpers die je je kunt voorstellen.
En of ze in de rest wel competitief zijn, valt te betwijfelen, omdat Intel dan alweer naar 45 nm gaat, en AMD weer achterloopt.
dat is altijd zo, en dat heeft AMD er nog nooit van weerhouden competatief te zijn.
daarbij gaan ze hun achterstand op intel terug brengen tot een maand of 6-8, omdat ze nu ze meer produceren de extra investering er wel uit kunnen halen.
Het huidige gat, dat zeg je goed. In 6 tot 9 maanden is dat gat natuurlijk een stuk groter.
dat valt nog te bezien.
en behalve een upgrade naar een FSB van 1333 (joepie weer een nieuw mobo kopen) en 70mhz extra staat er niet veel op de planken bij intel voor H1-07
"stuk groter" is dus redelijk overdreven.
Dat bedoel ik niet, ik bedoel dat je foutief geinformeerd bent over de Pentium D, wat betreft arbitrators en FSBs.
goed jij je zin de pentium-d is nog slechter als ik dacht en nog nuttenlozen in multi-socket systemen als ik al dacht.
En in de gevallen waar meer gecommuniceerd moet worden, kan een deel daarvan via snelle L2-cache ipv via de bus. Als je dat handig aanpakt, kun je daar veel voordeel uit halen.
dus nog meer specialistische programeer werk?
dat is altijd zo, en dat heeft AMD er nog nooit van weerhouden competatief te zijn.
Sorry hoor, maar dit is totale onzin.
AMD is nooit competitief geweest met Intel, met uitzondering van de Athlon-familie.
Ze waren altijd aan het prijsvechten aan de onderkant van de markt.
De topmodellen van Intel werden nooit bedreigd. Intel had daar vrij spel, en dat hebben ze momenteel weer.
en behalve een upgrade naar een FSB van 1333 (joepie weer een nieuw mobo kopen) en 70mhz extra staat er niet veel op de planken bij intel voor H1-07
"stuk groter" is dus redelijk overdreven.
45 nm is wel gepland voor volgend jaar, evenals de Yorkfield, een single-die quadcore (wat waarschijnlijk inhoudt dat er ook weer een MCM octacore komt van komt).
goed jij je zin de pentium-d is nog slechter als ik dacht en nog nuttenlozen in multi-socket systemen als ik al dacht.
Nog slechter? Hij is ineens langzamer geworden nu je dit weet? Flauwekul... Die processor is nog net zo snel, en benchmarkresultaten zijn precies hetzelfde.
En een Pentium D kan niet in multi-socketsystemen, dus hoe ie daar zou presteren is niet relevant.
dus nog meer specialistische programeer werk?
Niet zo veel als met NUMA.
De topmodellen van Intel werden nooit bedreigd. Intel had daar vrij spel, en dat hebben ze momenteel weer.
zoals al vele vele vele malen eerder gezegt
who cares! de high end markt zit niet het meeste geld.

daarbij is "de athlon" familie al bijna 8 jaar op de markt, wat meer als de helft van de tijd is dat AMD zijn eigen chips maakt op zijn eigen platform en geen intel clonen meer.

daarbij wat heeft competatief zijn met de high end markt te maken. competatief zijn heeft er mee te maken dat je ongeveer een gelijke hoeveelheid bang voor buck kunt leveren als je concurrent. en dat heeft AMD altijd gekunt.
als dat niet over de hele linie kan doet daar niks aan af.
Niet zo veel als met NUMA.
met als voordeel dat numa wel goed door blijft schalen naar 4 of meer sockets.
en dat numa, straks met HTT 3.0 vele malen effectiever word
en dat intel als ze eindelijk ook van hun FSB af zijn ook iets dergelijks als NUMA gaat doen.
al het programeer werk wat doet voor numa is een investering in de toekomst, alles wat je doet voor MCM is alleen nuttig voor die enkeling die MCM's CPU's gaat gebruiken.

daarbij hoef je voor desktop applicaties helemaal niet aan numa te doen, omdat het daar niet word toegepast, MCM wel.
Nog slechter? Hij is ineens langzamer geworden nu je dit weet? Flauwekul... Die processor is nog net zo snel, en benchmarkresultaten zijn precies hetzelfde.
En een Pentium D kan niet in multi-socketsystemen, dus hoe ie daar zou presteren is niet relevant.
om jouw te quoten

"Dus de Althon is nog slechter dan ik dacht."

ik zeg het om de zelfde redenen dat jij dat zei.
de athlon64 is toen ook niet ineens langzamer geworden maar toch vond je het nodig het zeggen, waarom zou ik dat dat niet mogen?
45 nm is wel gepland voor volgend jaar, evenals de Yorkfield, een single-die quadcore (wat waarschijnlijk inhoudt dat er ook weer een MCM octacore komt van komt).
allemaal in de 2de helft or later ja.
en dan zit AMD ook niet stil.

single die quad core H207 : check.
45nm : 6 maanden later : check
echte octacore : 9 maanden later : check.
en voor dat alles geen nieuwe mobo nodig.
daarbij is "de athlon" familie al bijna 8 jaar op de markt, wat meer als de helft van de tijd is dat AMD zijn eigen chips maakt op zijn eigen platform en geen intel clonen meer.
Maar de Athlon is niet de hele tijd competitief geweest.
In het begin veel geplaagd door slechte chipsets en warmte, toen door de Northwood van de troon gestoten, en nu door de Core2 weer van de troon gestoten.
daarbij wat heeft competatief zijn met de high end markt te maken. competatief zijn heeft er mee te maken dat je ongeveer een gelijke hoeveelheid bang voor buck kunt leveren als je concurrent. en dat heeft AMD altijd gekunt.
als dat niet over de hele linie kan doet daar niks aan af.
Het doet een hoop af aan AMD.
AMD is nooit heel erg groot geweest, en heeft nooit echt winst gedraaid, en heeft ook nooit een goede reputatie gehad... behalve dan toen de Athlon goed ging draaien.
Toen konden ze ineens marktaandeel winnen, kwamen ze langzaam maar zeker uit de rode cijfers, en begonnen grotere bedrijven AMD ook langzaam maar zeker serieus te nemen.
Wanneer AMD dus de high-end laat vallen, lijkt het me logisch dat ook het marktaandeel weer krimpt, de reputatie minder wordt, en AMD misschien ook weer in de rode cijfers komt. Jij kunt dan wel zeggen dat ze gelijke bang-for-the-buck leverden als Intel, maar Intel was een gezond bedrijf met goede winstmarges, waar AMD in de rode cijfers zat. Als dat de enige manier is om competitief te zijn, dan ziet het er sneu uit voor AMD. Dat hou je geen jaren vol.
Kortom, wat mij betreft moet AMD wel meedraaien in de high-end, anders gaan ze er langzaam aan kapot, net als voor (en zelfs tijdens) de Athlon.
met als voordeel dat numa wel goed door blijft schalen naar 4 of meer sockets.
Alleen als je specifieke software hebt, wat dus op de desktop niet zo is. Daarom is de 4x4 ook geen serieuze concurrent voor de quadcores van Intel.
en dat intel als ze eindelijk ook van hun FSB af zijn ook iets dergelijks als NUMA gaat doen.
Natuurlijk, maar Intel heeft meer cores per socket op het moment, en efficientere communicatie tussen de sockets. Als je daar NUMA aan toevoegt door extra geheugencontrollers te gebruiken, is dat alleen een voordeel. Bij AMD is het NUMA in plaats van de efficiente communicatie en quadcore processors, en dat is niet altijd een goed alternatief.
al het programeer werk wat doet voor numa is een investering in de toekomst, alles wat je doet voor MCM is alleen nuttig voor die enkeling die MCM's CPU's gaat gebruiken.
Je bent wel hardleers he?
Ik heb al eerder gezegd dat MCM niet uitmaakt vanuit programmeertechnisch oogpunt. Het is hetzelfde als multi-CPU. Met multi-CPU zul je sowieso rekening houden in de gevallen dat je multithreaded optimalisaties doet (media encoding, rendering, wetenschappelijke berekeningen etc), omdat multi-CPU al langer bestaat, en je ook combinaties van multicore/MCM en multi-CPU hebt.
Ben je zo dom dat je dat niet snapt, ben je zo onbeleefd dat je mijn posts niet eens geheel doorleest, of ben je zo respectloos dat je gewoon mijn argumenten in de discussie negeert, en doodleuk met dezelfde onzin blijft komen, die al lang weerlegd is?
daarbij hoef je voor desktop applicaties helemaal niet aan numa te doen, omdat het daar niet word toegepast, MCM wel.
Hoe noem je 4x4 dan?
single die quad core H207 : check.
Die hooguit competitief gaat zijn met de Kentsfield, niet met zijn opvolger.
45nm : 6 maanden later : check
Voorlopig hebben ze 65 nm nog niet eens op orde. Ik garandeer je dat ze 45 nm niet op het geplande tijdstip af hebben.
en voor dat alles geen nieuwe mobo nodig.
Nodig niet, wenselijk waarschijnlijk wel, want dan gaat Am2+ en DDR3/Am3 komen.
Bij Intel zal een nieuw mobo waarschijnlijk ook niet nodig zijn, maar wel wenselijk.
Tot zover zal alleen de FSB veranderen naar 1333, maar de historie leert ons dat Intel bij een overgang de processors ook een tijdlang voor de oudere FSB of socket zal leveren, dus ik verwacht dat er ook modellen komen met 1066 bus, die op de huidige borden werken.
Je bent wel hardleers he?
hey je zei het zelf

"Als je dat handig aanpakt, kun je daar veel voordeel uit halen."

daarmee zeg je zelf dat je er rekening mee moet houden dat je programa draaid op een MCM + shared L2 cpu.
het is afentoe echt onvoorstelbaar hoe jij iets kan vergeten wat je zelf 2 a 3 poste geleden hebt gezegt.
Hoe noem je 4x4 dan?
de uitzondering die de regel bevestiged.
Die hooguit competitief gaat zijn met de Kentsfield, niet met zijn opvolger
zo interestant is die opvolger nou ook weer niet dus het verschil zal niet echt groot zijn.
Voorlopig hebben ze 65 nm nog niet eens op orde. Ik garandeer je dat ze 45 nm niet op het geplande tijdstip af hebben.
65nm is precies op schema, wat lul je nou?
Nodig niet, wenselijk waarschijnlijk wel, want dan gaat Am2+ en DDR3/Am3 komen.
voor het grootste deel van de gevallen met single socket zal DDR3 niet veel verschil maken zolang je er al ddr2-800 in hebt zitten.
en Am2+ doet zelfs nog minder voor de prestaties op single socket systemen.
Natuurlijk, maar Intel heeft meer cores per socket op het moment, en efficientere communicatie tussen de sockets. Als je daar NUMA aan toevoegt door extra geheugencontrollers te gebruiken, is dat alleen een voordeel. Bij AMD is het NUMA in plaats van de efficiente communicatie en quadcore processors, en dat is niet altijd een goed alternatief.
tegen de tijd dat intel ook numa(like) heeft is HTT3.0 al lang ingeburgerd, en zit AMD zelf waarschijnlijk al op 4.0 en hard aan het werk aan 5.0 en doet AMD dus niet onder voor intel (als intel zijn doelen met CSI haalt) als het op inter-socket communicatie aan komt.
Het doet een hoop af aan AMD.
AMD is nooit heel erg groot geweest, en heeft nooit echt winst gedraaid, en heeft ook nooit een goede reputatie gehad... behalve dan toen de Athlon goed ging draaien.
Toen konden ze ineens marktaandeel winnen, kwamen ze langzaam maar zeker uit de rode cijfers, en begonnen grotere bedrijven AMD ook langzaam maar zeker serieus te nemen.
economie is niet echt jouw sterkste kant of wel. er is meer dat komt kijken bij een bedrijf als alleen de "bottem line"
zeker als je een groeiend bedrijf bent wat een monopoly wil breken.
hoewel AMD niet heel vaak zwarte cijfers neer zet op het totaal, is hun bedrijfs resultaat wel altijd possitive gewest (HEB IK AL EENS UIT GELEGT!)

ze hebben alleen al hun verdiende geld meteen weer in het bedrijf geinvesteerd met als resultaat dat AMD nu veruit de meeste efficiente fabriek heeft ter wereld, ze net een nieuwe af hebben, nog een 3de aan het bouwen zijn, en hun eerste binnenkort gaan verbouwen om de capaciteid te verdubbelen door de overgang naar 300mm wafers.
hoewel er dus nog geen geld uit komt rollen is het wel velen malen groter geworden (net-worth gestegen).
dat er wat miljoentjes bij moesten is niet belangrijk al er miljarden aan net-worth worden bijgeschreven. (waarvan ze een deel net hebben gebruikt om ATI te kopen bijvoorbeeld door aandelen over uit te geven)
Wanneer AMD dus de high-end laat vallen, lijkt het me logisch dat ook het marktaandeel weer krimpt, de reputatie minder wordt, en AMD misschien ook weer in de rode cijfers komt.
onzin, ze hebben nu alle grote OEM's als klaten en kunnen vanwegen hun (binnenkort) flink vergrote productie capacitijd altijd leveren waardoor ze nu een betrouwbare partner kunnen zijn waar dat voorheen een stuk minder het geval was.
dat ze een tijd lang de high end markt hadden zal de meeste van die OEMS een zorg zijn.
(als intel zijn netburst rommel kwijt kan raken aan ze kan AMD verkopen wat ze maar willen.)
Jij kunt dan wel zeggen dat ze gelijke bang-for-the-buck leverden als Intel, maar Intel was een gezond bedrijf met goede winstmarges, waar AMD in de rode cijfers zat.
maar AMD is procentueel gezien harder gegroeid als intel, en dat doen ze al jaren.
daarbij is AMD niet ongezond, het bedrijfs resultaat van AMD is gewoon goed, en is dat al jaren.
"Als je dat handig aanpakt, kun je daar veel voordeel uit halen."

daarmee zeg je zelf dat je er rekening mee moet houden dat je programa draaid op een MCM + shared L2 cpu.
het is afentoe echt onvoorstelbaar hoe jij iets kan vergeten wat je zelf 2 a 3 poste geleden hebt gezegt.
Er staat dat je er voordeel uit kunt halen.
Dat is wat anders dan rekening houden met iets omdat het anders nadelig is.
Als je de shared cache negeert, en gewoon doet alsof het 4 aparte CPUs zijn, dan heb je daar geen nadeel van, ten opzichte van een echt systeem met 4 CPUs (normale gang van zaken).
Maar je kunt eventueel optimalisaties maken die specifiek gebruik maken van de shared L2-cache, waarmee je dus winst boekt ten opzichte van zo'n systeem.

Bij NUMA is het verhaal anders. De normale gang van zaken is dat je ervanuitgaat dat de CPUs allemaal hetzelfde geheugen aanspreken, dus ga je niet specifiek rekening houden met bepaalde ranges van geheugen voor bepaalde CPUs, of dat het sharen van geheugen met meerdere cores nog eens extra duur kan zijn (de scheduler zal gewoon processen en threads schedulen op de cores die vrijkomen).
Dat is bij NUMA wel zo, dus krijg je onverwacht ineens allerlei extra overhead waardoor je systeem slecht schaalt. Daar word je dus eigenlijk verplicht om maatregelen te treffen, anders verlies je ten opzichte van een conventioneel multi-CPU systeem.
zo interestant is die opvolger nou ook weer niet dus het verschil zal niet echt groot zijn.
Als het betekent dat er octacores komen, vind ik het een heel behoorlijk verschil.
65nm is precies op schema, wat lul je nou?
Dat dat schema bijzonder ver achterloopt bij dat van Intel. En dat ze dat niet even snel gaan inlopen met een overgang naar 45 nm.
Sowieso gaan ze de eerste maanden nog niet eens high-end produceren op 65 nm, dat schiet ook niet echt op. Intussen blijven de 90 nms verder afglijden naar de budget-markt, zeker als in januari de 'betaalbare' quadcores van Intel komen, en de dualcores daardoor ook weer wat in prijs verlaagd worden.
voor het grootste deel van de gevallen met single socket zal DDR3 niet veel verschil maken zolang je er al ddr2-800 in hebt zitten.
en Am2+ doet zelfs nog minder voor de prestaties op single socket systemen.
Waarom introduceren ze die sockets dan zo snel?
tegen de tijd dat intel ook numa(like) heeft is HTT3.0 al lang ingeburgerd, en zit AMD zelf waarschijnlijk al op 4.0 en hard aan het werk aan 5.0 en doet AMD dus niet onder voor intel (als intel zijn doelen met CSI haalt) als het op inter-socket communicatie aan komt.
We zullen zien. Voorlopig heeft AMD de verkeerde prioriteiten op de verkeerde momenten. Intel heeft dan wel geen HTT en geen integrated controller... maar ze hebben wel shared L2-cache en een quadcore. De benchmarks spreken boekdelen.
Dat dat schema bijzonder ver achterloopt bij dat van Intel. En dat ze dat niet even snel gaan inlopen met een overgang naar 45 nm.
hoe vaak moet ik het nog zeggen zeg, achter lopen is een bewuste keuze van AMD. en 45nm lopen ze wel in, omdat ze er het geld erin stoppen omdat ze vanwegen de verhoogde productie het extra geld dat dat kost er wel uit kunnen halen.

en waarom ze de high end nog niet op 65nm over zetten ga ik niet eens over beginnen. (trouwens in h107 willen ze alles tot 2.8ghz op 65nm overhebben, high end genoeg.
we zien het wel bij de eerste overclock resultaten van 65nm wel hoe AMD er voor staat.)

en bij "betaalbaar" versta ik iets heel anders.
Waarom introduceren ze die sockets dan zo snel?
waarom niet, kost bijna niks, backward compatible, verlaag verbruik, en zorg sneller voor goede chipsets die het ondersteunen voor bv ook in workstations (en eventueel servers) waar het wel voordeel heeft.
We zullen zien. Voorlopig heeft AMD de verkeerde prioriteiten op de verkeerde momenten. Intel heeft dan wel geen HTT en geen integrated controller... maar ze hebben wel shared L2-cache en een quadcore. De benchmarks spreken boekdelen.
en AMD heeft 9 maanden na intel shared L3 cache en een echte quadcore.
dat AMD's nieuwe argetectuur wat later komt als die van intel betekend niet dat AMD zijn priorititen verkeerd heeft. het zegt alleen dat hun ontwikkelings cycle niet syncroon loopt met die van intel.
Tsja, je vervalt wel heel erg in herhalingen.
als jij de zelfde al verworpen feiten blijft aandragen heb ik niet veel keuze.
Tsja, jouw argumenten zijn niet genoeg om mij te overtuigen... en mijn argumenten blijkbaar ook niet genoeg om jou te overtuigen.
We zullen zien wie gelijk krijgt.
Ik weet in ieder geval al wel zeker dat m'n volgende CPU geen AMD wordt.
Ik weet in ieder geval al wel zeker dat m'n volgende CPU geen AMD wordt.
o dat weet je nu al? en waneer ben je die van plan te kopen.

ik heb er nog geen idee van bij wie ik mijn volgende CPU ga kopen, mijn huidige gaat nog wel even mee. tegen de tijd dat ik een nieuwe wil ga ik pas kijken. eerder heeft het geen enkele zin.
o dat weet je nu al? en waneer ben je die van plan te kopen.
Binnen nu en 1-2 jaar.
Zodra de prijzen van quadcore laag genoeg zijn (500e ofzo), ga ik over. Dat is waarschijnlijk nog voordat AMD z'n quadcore uberhaupt op de markt heeft.
Of de octacores moeten zich alweer aankondigen voor redelijke prijzen, dan wacht ik daar nog even op.
Ik wil in ieder geval goed bijblijven in de multicore-revolutie, als software-ontwikkelaar.
grof gezegd ben je 233-154 = 79M transistors kwijt aan 1 MB cache extra
En binnenkort kan AMD dit met slechts 10 M transistors, aangezien z-ram slechts 1 transistor per geheugencel vraagt. Intel zal 45 nm inderdaad nodig hebben om met dergelijke technologie te kunnen concurreren.
Ik heb het duidelijk uitgelegd in dat topic, dus ik ben benieuwd wat jouw theorie dan is, als het niet de cache zou zijn.
Ik ben ook benieuwd hoe jij denkt dat een Quadfather of een K8L in dit plaatje gaan passen.
jij lijkt te denken dat er ongelimiteerde verwerking eenheiden in de CPU zitten en dat de cache de enige limiterende factor is.
echter voor zover ik kan nagaan zijn de Cache en de verwerkings eenheden van de k8 goed op elkaar afgestemd en heeft AMD niet onnodig veel resources aan de een of de ander besteed.
het is dus complete onzin om te zeggen dat het enkel een alleen aan de cache ligt.
sterker nog, hoeveel bandbreedte de cache krijgt laten ze geheel afhangen van hoeveel de CPU zelf kan verwerken.
meer bandbreedte geven is onzin.

bij de core2 is de "bandbreedte" van de verwerkings eenheden verdubbeld en daarom de bandbreedte van de cache ook tov de core1.
de K8L doet het zelfde bij de k8.

zoals al eerder gezegt
http://www.firingsquad.co...l_core_conroe_benchmarks/
onderste 2 benchmarks

die 2 benchmarks laten zien wat de voornaamste reden is dat de core2 sneller is nu, zeker in media encoding, rendering, en low-res (640x480) game benchmarks.
en daar zit nu dus ook het voornaamste tekort van de huidige k8.
ik zeg niet dat k8 geen andere dingen heeft die beter kunnen maar dit is de groteste reden voor het verschil.
Dan kun je de Pentium D wel een hackjob noemen
ik heb nergens gezegt dat de pentium D een hackjob was. ik had het over MCM. (ik zie echt niet hoe je van MCM pentium-D kunt maken)
de huidige pentium D's hebben al een tijdje aan arbitrator unit, die vrij goed te vergelijken is met crossbar uit de athlon64. niet zo gek dat ze dan vrij vergelijkbaar presteren.
de MCM versies van de pentium-D, hebben die echter niet, en presteren navernant ook minder.
(je weet trouwens wat MCM is? zo niet dan zou dat je reactie wel verklaren eigenlijk)

de MCM versie van de core2 heeft die arbitrator unit ook niet, en zal naar alle waarschijnlijkheid de zelfde software hacks nodig hebben als de MCM versie van de pentium-D om met 1 programa goed gebruikt te kunnen maken van alle 4 de cores.
en die MCM software hacks zullen waarschijnlijk nog een stuk ingrijpender zijn als die nodig zijn in de pentium-D of de athlon64. (meer overhead en latency op de FSB en minder bandbreedte over, en de daarbij horende hogere latency tussen de core's/die's)

ook als software engineer ben je dus niet blij met MCM.
gelukkig voor jullie komen ze niet zo veel voor en zijn ze meestal een vrij kort leven beschoren omdat een echte dual of quad cores gewoon superius is op bijna elke manier, behalve de snelheid waarmee hij op de markt gezet kan worden.

p.s. ja ik was even weg, druk met kamers verhuizen, werd hier nieuwe vloer gelegt kon dus een tijdje maar sporadies bij mijn internet.

edit :
deze vond ik ook wel interesant.
http://www.anandtech.com/IT/showdoc.aspx?i=2872&p=2
xeon netburst die "zich behelpt" en "pleisters plakt" met shared L3 cache.

en voor je gaat zeuren, nee de K8L's L3 word niet zo groot, maar als een xeon zijn score hiermeer meer als kan ver dubbelen in sommige programas moet er voor de K8 toch ook wel ergens iets tussen de 20 en 40% te winnen zijn met een paar MB aan shared L3.
jij lijkt te denken dat er ongelimiteerde verwerking eenheiden in de CPU zitten en dat de cache de enige limiterende factor is.
Nee, ik denk dat er voldoende verwerkingseenheden in de CPU zitten voor dit algoritme, en dat het daarom vooral aankomt op de hoeveelheid data die ze kunnen ontvangen.
Ik heb het algoritme immers geimplementeerd. Ik heb een aardig idee over de verhouding tussen geheugentoegang en verwerking in de code.
sterker nog, hoeveel bandbreedte de cache krijgt laten ze geheel afhangen van hoeveel de CPU zelf kan verwerken.
Dit is pas onzin. Voor de L1-cache gaat dit wel redelijk op (als we even negeren dat de CPU zowel kan lezen en schrijven tegelijk, maar de AMD-cache niet), maar L2-cache is een stuk langzamer... en natuurlijk past nooit alles in L1 (vaak ook niet in L2)... 'de cache' omvat natuurlijk zowel L1 als L2 (alsmede L3 of hoger, mits aanwezig).
zoals al eerder gezegt
http://www.firingsquad.co...l_core_conroe_benchmarks/
onderste 2 benchmarks
Ik heb het nu over mijn code, en dat is geen synthetische SSE2-benchmark, maar een high-performance multithreaded visualisatie-algoritme uit de medische wereld. Er wordt maar zeer beperkt gebruik gemaakt van floating-point getallen, die hebben geen invloed op de prestaties, dus aan die supersnelle SSE2-units heb je in dit geval niet veel.
Sowieso gaat het me helemaal niet om de goede performance van de Core2... het gaat me om het feit dat de Athlon64 niet of nauwelijks beter schaalt dan de Pentium D als twee cores af en toe data moeten sharen.
De Core2 is alleen een referentiepunt dat aangeeft dat het wel goed *kan* schalen. Maar ik ben niet geinteresseerd in absolute presatieniveaus. En voor het relatieve prestatieniveau maken die SSE2-units niet uit. Beide cores hebben die units, dus dat zou het relatieve verschil tussen singlethreaded en multithreaded niet veranderen.
Kortom, je dwaalt enorm af.
ik had het over MCM. (ik zie echt niet hoe je van MCM pentium-D kunt maken)
...
de MCM versies van de pentium-D, hebben die echter niet, en presteren navernant ook minder.
Deze dus?
MCM betekent niets meer of minder dan multichip-module, meerdere dies in 1 package dus.
Verder was de Pentium-D de enige MCM-processor die ik getest had, dus lijkt het me nogal logisch dat ik aannam dat je die ook bedoelde.

Ik snap trouwens niet waarom je over een arbitrator begint, maar als je twee of meer agents op een enkele bus zet, zul je per definitie een arbitrator nodig hebben. Je kunt niet zomaar alle spoortjes aan elkaar knopen en hopen dat het toevallig werkt.
Verder kan ik me niets herinneren van een significant verschil tussen de single-die en de dual-die versies van de Pentium-D, qua prestatiekarakteristiek bij het gebruik van multithreading.

Dus misschien kun je je argumenten staven met links naar informatie over deze vermeende verschillen qua arbitrator?
en die MCM software hacks zullen waarschijnlijk nog een stuk ingrijpender zijn als die nodig zijn in de pentium-D of de athlon64. (meer overhead en latency op de FSB en minder bandbreedte over, en de daarbij horende hogere latency tussen de core's/die's)
Lijkt me absoluut niet. Ten eerste heb je shared L2-cache tussen de twee paren cores, dus daar win je gigantisch veel. Ten tweede hoef je nog steeds maar tussen twee caches te communiceren(!!!!), dus eigenlijk verandert er qua overhead en latency niets.
Ik weet zeker dat hij gehakt gaat maken van de K8L als het om communicatie tussen alle 4 de cores gaat. De L3-cache van de K8L is te klein (geruchten zijn 2 tot 4 mb, waar Intel al 4 mb shared L2-cache per 2 cores heeft), te langzaam (L3 is per definitie langzamer dan L2, en zit een niveau lager, dus ook meer overhead en latency), en AMD kennende ook te inefficient om de Intel-oplossing te bedreigen.

Afgezien daarvan is het zeer waarschijnlijk dat Intel rond die tijd ook een quadcore op een enkele die heeft, die naar alle waarschijnlijkheid nog efficienter gaat communiceren.
ook als software engineer ben je dus niet blij met MCM.
Voor een software-engineer maakt het niet uit. Het is vergelijkbaar met een multi-CPU opstelling, en die komen wel heel vaak voor. Dus als je je applicatie wilt schalen naar grote systemen, ontkom je sowieso niet aan multi-CPU.
Gezien de lagere kosten zijn ze juist wel interessant.
gelukkig voor jullie komen ze niet zo veel voor en zijn ze meestal een vrij kort leven beschoren omdat een echte dual of quad cores gewoon superius is op bijna elke manier, behalve de snelheid waarmee hij op de markt gezet kan worden.
Dat moeten we nog bezien. De Core2 Duo is pas de eerste multicore chip waarbij we echt specifieke optimalisaties kunnen uitvoeren (afgezien van de Core Duo, maar die wordt zelden of nooit ingezet voor rekenintensieve taken, gezien z'n beperkte prestaties vanwege de eisen voor de mobiele markt). Voorheen moesten we sowieso multi-CPU code schrijven.
Het zou op dit moment niet echt slim zijn om al je code specifiek op de Core2 Duo te richten, omdat nog teveel mensen gebruik maken van multi-CPU of dualcores met vergelijkbare prestatie-karakteristieken als de Pentium, Xeon, Athlon en Opteron.
Kortom, voor de software-engineer zit alles van AMD ook nog hard in de 'MCM-hoek'.
Ja, maar dit kan er ook voor zorgen dat de AMD chips voor de gewone man moeilijker te krijgen zijn, wat er op zijn beurt weer voor kan zorgen dat diezelfde man voor een Intel kiest.
de ideale situatie is degene waarin je 100% van je productiecapaciteit benut en ook alles verkocht krijgt
zolang AMD daar in slaagt is er vrij weinig aan de hand hoor

ze zitten nu op 25% marktaandeel, maar dit wil niet zeggen dat ze opeens 40% moeten hebben
integendeel, een bedrijf dat te snel groeit heeft veel meer kans om zichzelf kapot te maken

niet echt een probleem voor AMD (hoewel), maar stel dat AMD binnen 2 jaar 40-45% marktaandeel zou verwerven, dan zou het goed kunnen dat intel in de problemen komt doordat deze dan teveel productiecapaciteit zou hebben en dus minder opbrengst en dezelfde vaste kosten
Dit is niet geheel waar, als een bedrijf op 100% zit betekent dat feitelijk dat nieuwe klanten ergens anders hun producten vandaan moeten halen of dat ze moeten wachten. Vaak betekent dit juist dat je onnodig klanten verliest. Het is voor een bedrijf als AMD zaak om er voor te zorgen dat ze een manier vinden om hun klanten tevreden te houden en een stabiele groei vast houden.
Een grebrek aan productie is ook een groot probleem als je grote computer leveranciers aan je wilt binden. Stel je staat op het punt een contract met HP aan te gaan, dan moet je wel genoeg produceren. Door een tekort kan een dergelijk contract op de lange baan geschoven worden en verlies je dus feitelijk een kans om je marktaandeel aanzienljik te vergroten.
Het is heel simpel:

Veel aanbod versus weinig vraag is slecht
Genoeg aanbod versus genoeg vraag is goed
Weinig aanbod versus veel vraag is slecht

Als je als bedrijf niet de aantallen kan leveren die de markt vraagt, dan gaat de markt echt niet op je zitten wachten.

En de wet Hoge vraag, laag aanbod -> hogere vraagprijs gaat ook niet, omdat je concurrent, met hoge vraag, hoog aanbod -> marktconforme prijs, je zo kapot concurreert.

AMD zit dus met een flink probleem.

Niet alleen is hun huidige aanbod mogelijkheid ontoereikend, ook voor toekomstige processen, 65nm en 45 nm hebben ze niet het voortouw in handen maar volgen ze.

Intel heeft het slim gespeelt, die heeft z'n verlies genomen met de P-IV en ondertussen keihard gewerkt aan een substantieel beter ontwerp, de Conroe.

AMD is in die situatie dus een beetje in slaap gesust en schrikt nu wakker.

Voorlopig lopen ze dus achter de feiten aan en zien ze gebeuren wat Intel laat gebeuren.

Het momentum ligt nu duidelijk bij Intel.
Als Intel gewoon zijn verlies had genomen met de PVI dan was dat monstrositeit van een P D er ook nooit gekomen en hadden ze wel gewacht op de C2D. Dit konden ze echter niet veroorloven daar ze wisten dat ze dan te ver achter zouden komen te lopen!

Zowel de Athlon 64 als de X2 hebben Intel flink schrik aangejaagd terwijl de plannen voor multicores al klaarlagen bij AMD bij de introductie van de X2. Hierop is Intel, al zou je dit niet denken door hun reclame machinerie, nog steeds bezig om dit in te halen. Dit blijkt wel uit het feit dat ze de eerste quadcores uitbrengen die er hetzelfde uitzien als de eerste P D's: twee cores aan elkaar gelijmd!
Kortom: dat is gewoon haast en vliegwerk om toch de eerste te zijn.

Jarenlang werd er door Intel fanboys geroepen dat de on-die mem controller niet echt gunstig was en daar hadden ze zo veel gelijk in dat Intel hem in de nieuwere uit te brengen cores ook integreert!
Intel is dus eigenlijk nog steeds bezig AMD in te halen want zeg eens eerlijk:
De betere prestaties van de C2D zijn naar verhouding niet eens zo geweldig als je dit gaat vergelijken met de prestaties van de Athlon X2's EN je bedenkt dat deze op 90 nm ipv 65 nm worden gebakken!
De die-shrink naar 65 nm had veel betere prestatieverbeteringen moeten laten zien van Intel terwijl het verbruik ongeveer even hoog ligt als de 90 nm (2 x zo groot dus) Athlon CPU's.

Begrijp me niet verkeerd: De C2D presteren momenteel echt wel beter dan de Athlons en ik zou als ik nu zou moeten kiezen er echt wel een kiezen, maar naar verhouding valt het eigenlijk best wel tegen zeker als je bedenkt wat de voordelen van de die-shrink zouden moeten zijn volgens wat er eerst werd verteld!
Niet alleen is hun huidige aanbod mogelijkheid ontoereikend, ook voor toekomstige processen, 65nm en 45 nm hebben ze niet het voortouw in handen maar volgen ze.
AMD volgt intel op dat gebied altijd. en dat komt omdat de eerste zijn het meeste geld kost.
geld dat AMD er gewoon niet mee terug verdiend omdat hun productie er lang niet hoog genoeg voor is.
vroeger liepen ze altijd 1 jaar tot 18 maanden achter op intel kwa productie process.
nu ze hun productie hebben uitgebreid met een nieuwe fabriek gaat ze dat terug brengen tot 6 maanden to 1 jaar, gewoon omdat ze nu het extra geld dat dat kost er wel weer uit kunnen halen.
achter lopen is gewoon een strategische keuze van AMD.
Intel heeft het slim gespeelt, die heeft z'n verlies genomen met de P-IV en ondertussen keihard gewerkt aan een substantieel beter ontwerp, de Conroe.

AMD is in die situatie dus een beetje in slaap gesust en schrikt nu wakker.
intel is koppig geweest en heeft 3 jaar lang de netburst door ontwikkeld terwijl iedereen kon zien dat het niks meer zou worden met netburst.
er moest een kleine israelische zijtak aan te pas komen (met de pentium-m) om de bazen bij intel in te laten zien dat het ook anders kon, en wel op een manier die verbazend veel lijkt op die AMD al sinds de k7 volgt.
slim gespeeld mijn kont dus, dit hadden ze 3 jaar eerder moeten doen.
het is juist intel die nu eindelijk weer eens een beetje wakker begint te worden.

AMD heeft in de tussentijd echt niet stil gezeten hoor, alleen hun plannen voor een nieuwe CPU lopen gewoon toevallig niet synchroom met die van intel (goh wat gek).
met de K8L zal AMD in grote lijnen met de k8 doen wat intel deed met de penium-m om er de core2 te maken.
daar werkt AMD nu al een heel tijdje aan, ver voor de introductie van de core2 al. niks in slaap gesust dus.
halverwegen 2007 ligt de k8L al in de winkel.

edit :
Intel's researchers verwachtten dat de pentium 4 kon opschalen tot 10GHz.
maar als je daar nog maar net 1/3 van kunt halen mag het duidelijk zijn dat je fout bezig bent geweest.

daarbij was de lekstroom niet de oorzaak van het hoge gebruik van de prescott, maar het feit dat een groot deel van de chip op dubbel de snelheid loopt als de standaard klok. om dat te kunnen doen heeft intel andere transistors gebruikt als gebruikelijk, maar die transistors verbruiken ook een flink stuk meer stroom als de normale transistors.
daarom ook dat het verbruik later nog vrij veel is gedaald met latere revisies zonder dat het productie process werd aangepast..
Intel's Yorkfield/Wolfdale is ook gepland voor 2H07. Intel's 2e generatie. The K8L better be good.
ik heb datums gezien van 2h08 tot 2h07. welke het uiteindelijk zal zijn is dus afwachten.
verder veracht ik niet zo veel verschil te zien met de huidige core2 en gaat het vooral om een die shrik en extra cache, en een echte quad core. maar AMD heeft er dan ook al een.
Dat Israel-Haifa een zijtak is van Intel is natuurlijk ook onzin. De daadwerkelijke zijtak (met veel analog designers)heeft geholpen met het creeren van het mobiele platform centrino, waarmee Intel daadwerkelijke dominantie heeft op t mobiele front. Beetje t klok en klepel verhaal hier dus.
met zijtak bedoelde ik dus niet afkomstig van de hoofd ontwerp afdelingen.
en die dominatie op het mobile front zijn ze al een tijdje kwijt hoor, sinds de turion met 25watt er zijn.
en die core2 is een rechstreekse afstammeling van de pentium-m, niks klok klepe dus.
...terwijl iedereen kon zien dat het niks meer zou worden met netburst.
Zucht... iedereen met profetische kunsten?

Intel's researchers verwachtten dat de pentium 4 kon opschalen tot 10GHz. Als je jezelf hebt verdiept in de architectuur van de P4 dan begrijp je dat men 10GHz in gedachten had. Lol misschien een IPC die 1,2x langzamer is maar met een clock die 3x hoger is, dan hoef ik je niet uit te leggen welke sneller is... :7. Echter, door t achterlopen van de vorderingen aan t dielectricum, werd deze steeds dunner -> ergo meer lekstroom. Het bekende presscot eindstation. Binnenkort zal ipv t SiON ook iets anders gekozen moeten worden (HfO2 is een van de gefavoreerde kandidaten).

Dat Israel-Haifa een zijtak is van Intel is natuurlijk ook onzin. De daadwerkelijke zijtak (met veel analog designers)heeft geholpen met het creeren van het mobiele platform centrino, waarmee Intel daadwerkelijke dominantie heeft op t mobiele front. Beetje t klok en klepel verhaal hier dus.

halverwegen 2007 ligt de k8L al in de winkel.
Intel's Yorkfield/Wolfdale is ook gepland voor 2H07. Intel's 2e generatie. The K8L better be good. :)
misschien een stomme (offtopic) vraag, maar waarom typ je steeds iNtel?
Offtopic antwoord: intel heeft altijd een i met een puntje erop als beeldmerk gehad, een kleine letter dus. Om dat te benadrukken werd het traditioneel wel eens met hoofdletters elders in de naam geschreven.
Een luxeprobleem is geen probleem. ;)
Jawel hoor. Als de productie niet kan volgen krijg je een slechte reputatie en een slechte reputatie kwijt geraken is moeilijker dan een goede opbouwen.
Als elke cpu die je maakt direct verkocht is heb je inderdaad een luxeprobleem, als je daarentegen zoals bij Intel 75% van je stock uit obsolete Netburst cpu's bestaat heb je pas een echt probleem.
Ik denk dat dit capaciteitsprobleem ondertussen zo goed als opgelost is. Een 65 nm X2 sempron zal allicht maar 90-100 mm2 groot zijn, terwijl deze chip qua prestaties niet veel moet onderdoen voor de grotere broertjes. Een X2 met 2x512 kB L2 zal trouwens niet veel groter zijn (ik schat 110 mm2, 90 nm momenteel 183 mm2).
Een 300 mm wafer levert bovendien meer dan 2 maal zo veel chips tov een gelijkaardige 200 mm wafer.
Maw, AMD kan in principe de markt flooden met goedkope, zuinige en relatief goed presterende dual core chips; tenminste als de yields goed zijn.
Maw, AMD kan in principe de markt flooden met goedkope, zuinige en relatief goed presterende dual core chips; tenminste als de yields goed zijn.
Dan zit je met twee problemen:
1) Op die goedkope chips zal een lage winstmarge zitten, dus AMD wordt daar niet zo veel wijzer van.
2) Die relatief goede prestaties zijn relatief aan AMD z'n processors. Door de komst van de Core2 Duo is het hele idee over wat goede prestaties zijn, totaal omgegooid. De snelste Core2 Duo is immers tot 40% sneller dan de snelste Athlon64. Die goedkope Athlon64s en Semprons zullen dan dermate traag zijn dat ze niet meer interessant zijn voor de consument. Op de korte termijn kan het nog wel even... maar binnen niet al te lange tijd zal de Core2 ook de budgetmarkt van de Celeron en Pentium overnemen, en dan zijn Athlons en Semprons echt te traag. De goedkoopste Core2 Duo is nu de E6300 van ongeveer 170e. Als de Core2 straks onder de 100e zakt, zal AMD toch echt z'n snelle Athlons in moeten gaan zetten in het prijssegment van 100e, en dat gaat ze geld kosten.
Van zodra SiGe gebruikt wordt, zal de snelheid van de x2's ook wel gevoelig kunnen stijgen. Een 3+ GHz x2 kan zich makkelijk meten met een E6600 en hoger. Zo rampzalig is het dus allemaal niet.
Core 2 kan nog lang niet zakken in prijs; in dat geval zou Intel zijn netburst processoren bijna gratis moeten weggeven. Tegen dat het zo ver is, heeft AMD trouwens ook zijn nieuwe core.
ik vind makkelijk een beetje,.. ja kort door de bocht. De C2D's zijn als toch wel stukje beter denk ik, ook qua energie gebruik en tevens niet te vergeten dat je die X2's wel kan oprekken naar hogere snelheden maar de C2D's kunnen nog veel en veel verder, alleen intel brengt dat nog niet uit omdat ze toch al marktleider zijn en de zo meer geld kunnen verdienen. Ik denk dat hoe je het ook went of keert zolang AMD met niks nieuws komt zijn de C2D's heer en meester qua high end.
Dat core2 in het high end segment heerst (en nog even blijft heersen) is zeker, en ze zijn zeker beter. Ik geef enkel aan dat het allemaal niet zo dramatisch is als velen het doen lijken. Het grootste deel van de markt zit immers bij de low-mid end processoren, in die volgorde. En daar kan AMD nog vlot mee.

En van zodra AMD met zijn nieuwe architectuur komt... Wat zou je zeggen van een 4x4 opstelling met 1 Barcelona en 1 Cell bv?
Van zodra SiGe gebruikt wordt, zal de snelheid van de x2's ook wel gevoelig kunnen stijgen.
Zo werkt dat niet. Transistors gaan niet sneller schakelen, en van extreme overklokpogingen weten we al dat het ontwerp van de Athlon64 gewoon niet veel verder kan. Zelfs al zet je er vloeibare stikstof op (met onderkoeling gaan transistors wel sneller schakelen), dan nog kom je amper aan de 4 GHz.
Op lucht ga je dat nooit redden.
Hooguit worden de CPUs zuiniger... wat maar interessant is voor een beperkte markt. De C2D is best acceptabel met z'n 65w, en hij levert wel veel meer prestaties, en dat zal voor veel mensen de doorslag geven.
Een 3+ GHz x2 kan zich makkelijk meten met een E6600 en hoger. Zo rampzalig is het dus allemaal niet.
Jawel, want een Core2 Duo kan nu al op luchtkoeling makkelijk 3 GHz halen (mijn eigen E6600 doet 3.3 GHz met de stock cooler zonder het voltage zelfs maar te verhogen)... de Extreme kan zelfs wel op 3.6 GHz. Engineering samples heb ik al over de 4 GHz gezien.
Er zit dus veel meer rek in de architectuur.
Misschien dat de Extreme 'toevallig' 2.93 GHz is omdat dat net een fractie sneller is dan de snelste AMD, op 2.8 GHz. Zo heeft Intel alsnog de hoogste kloksnelheid in huis. Het is in ieder geval zeker niet het eindpunt qua kloksnelheid voor de Core2, het is slechts het begin.

Als AMD de kloksnelheid omhoog gooit, kan Intel dat makkelijk pareren. Door de langere pipeline zal Intel sowieso de langste adem hebben in de race om de kloksnelheid. En daarbij heeft Intel ook nog eens de hoogste IPC, dus ze hoeven niet zo nodig.
Voorlopig zal een 3+ GHz X2 ook nog veel meer kosten dan een E6600 (AMD kan immers z'n topmodellen voorlopig nog niet op 65 nm maken, die blijven op 90 nm, dus de huidige prijzen zullen ongeveer gelijk blijven... 700e voor een FX tegenover 300e voor een E6600), dus ook daar heeft Intel geen problemen.
AMD heeft de high end desktop markt opgegeven, en richt zich voornamelijk op de mobiele en servermarkt. Ze zullen wel meekunnen met de low-mid end, en dat zonder erop in te schieten.
Zo werkt dat niet. Transistors gaan niet sneller schakelen, en van extreme overklokpogingen weten we al dat het ontwerp van de Athlon64 gewoon niet veel verder kan.
bij elke die shrik hebben we gezien dat de k8 hoger kon worden geklokt. de overgang naar SiGe zal een vergelijkbaar effect hebben, waardoor je met het zelfde ontwerp gemiddeld verder kunt overklokken als voorheen.
hoe groot het verschil zal zijn moeten we zien, maar dat AMD met SiGe makelijker hoger klokkende chips kan producren is een feit. en dat AMD ze dan ook goedkoper kan aanbieden is het logische gevolg daarvan.
gaan ze daar de 4ghz mee halen? denk het niet maar dat hoeft ook niet.
daarbij laat AMD's nieuwe ontwerp ook niet zo lang meer op zich wachten.
bij elke die shrik hebben we gezien dat de k8 hoger kon worden geklokt. de overgang naar SiGe zal een vergelijkbaar effect hebben, waardoor je met het zelfde ontwerp gemiddeld verder kunt overklokken als voorheen.
Nee, je begrijpt het verhaal niet.
Je *kon* hoger klokken met een dieshrink, maar nu zitten ze aan de grens. De overgang van 130 nm naar 90 nm was al niet zo groot (200 MHz), en 65 nm gaat voorlopig nog niet eens gebruikt worden voor high-end, dus sowieso is het niet van toepassing op high-end op het moment. Verder zitten ze overduidelijk aan het eind.
Met de Core Duo hetzelfde verhaal. Die gaat gewoon niet harder op 65 nm, de pipeline is te kort, einde verhaal, al maak je hem op 45 nm of minder.

Wederom vind ik je blinde vertrouwen in AMD zeer vermakelijk :)
1) Op die goedkope chips zal een lage winstmarge zitten, dus AMD wordt daar niet zo veel wijzer van.
dat is helemaal niet gezegt
het maken van 65nm chips uit een 300mm wafer is per chip echt stukken goedkoper als 90nm's uit een 200mm wafer.
zelfs met een lagere prijs kan de winst marge hoger zijn.
ik verwacht dat AMD gewoon de prijs omlaag gooit tot de marges weer ongeveer het zelfde zijn als voor de omschakkeling.
en dan word AMD er dus wel wijzer van want ze kunnen er meer verkopen met de zelfde winst.
dat is helemaal niet gezegt
het maken van 65nm chips uit een 300mm wafer is per chip echt stukken goedkoper als 90nm's uit een 200mm wafer.
Behalve dan dat Intel al veel langer op 65 nm zit met 300 mm, en hogere yields heeft... en daarbij een ontwerp met hogere IPC.
Die laten het niet over hun kant gaan als AMD de prijzen omlaag gooit. Intel kan makkelijk mee, en daarom kan Intel de marges van AMD de grond in drukken. Dus wordt AMD er niet wijzer van.
Je vergeet dus even dat AMD concurrentie heeft, en de zaken momenteel niet zelf in de hand heeft.
Het bouwen van een extra productielocatie is een dure, maar vooral langzame, bezigheid. Als ze nu beginnen met ontwerpen dan is die fabriek af tegen de tijd dat de hele hype al weer voorbij is.

Hoe gespecialiseerd moeten die productiefaciliteitein zijn? Kan de gemiddelde aziatische chip-bakker ook (onderdelen van) processors produceren?

Want als dat niet zo is dan is er maar een klein aantal bedrijven bij wie ze productiecapaciteit zou kunnen inhuren: Sun, IBM en Intel. Mis ik er eentje?
Volgens mij is het zo dat AMD maar een beperkt percentage van zn processorproductie mag uitbesteden aan andere bedrijven. Dat staat dacht ik in het contract dat ze hebben met intel waarin staat dat ze x86 processors mogen maken.
Ik dacht ook gelijk aan die Taiwanese bakkers. 90nm is bij zo'n uitbesteding waarschijnlijk juist een voordeel, omdat ze dat daar goed aankunnen en er juist veel produktiecapaciteit voor hebben staan.

@brute51: dat gaat dan over de x86 instructieset? Zou me verbazen als dat (nog altijd) zo is. Is daarover (en over hoeveel % ze nu zitten) ergens iets te vinden?
MCM zorgt er tevens voor dat, indien een dualcore er wegens een defect uitgegooid moet worden, niet de hele productielijn geschaad wordt.
AMD kan de CPU dan toch gewoon als dual-core in plaats van als quad-core verkopen?
het probleem daarvan is dat er weer een andere productie naast moet komen om de 2 andere cores te disablen ;)
Ik begrijp het probleem niet.
Het is toch alleen maar goed dat AMD maar net kan voldoen aan de vraag ? het zou erger zijn moest AMD ze niet kwijt raken aan de straatstenen.
Intel heeft op het moment de beter CPU met hun C2D, maar eer zij voldoende kunnen produceren verlaagt AMD hun prijs gewoon, zodat je nog steeds veel bang voor weinig bucks krijgt.
En niet lang daarna komt AMD al met een antwoord, ik zie het probleem dus echt niet.
AMD heeft echt al veel ergere tijden meegemaakt.
Weer een AMD fanboy met een glazen bol:
En niet lang daarna komt AMD al met een antwoord
Hefitge discussie zeg :P
AMD is en blijft voorlopig gwoon de underdog, maar hebben al bewezen dat ze intel de baas kunnen met innovaties. De core 2 is nu idd beter als de athlon (eindelijk), maar das ook niet meer dan logisch (zie rest, geld, waffer enz). Klok voor klok is hij niet veel beter trouwes( geen zin links te zoeken, maar vooral idd qua bandbreedte dat idd bij veel cores echt wel een heftige bottleneck geeft zoals we al gewend waren v/d p4). Amd is steeds duidelijker prestatieleider in de low/mainstream markt en intel in nu eindelijks weer in de highstream. Ik denk dat amd het nu lekker voor elkaar heeft en als ze de produktie hoog/hogerhouden dan kan de marktpositie weleens sterk verbeteren. AMD heeft en houdt de troefen qua stroom verbruik/prestatie per watt, maar vooral hun naam wordt steeds beter en meer bekend.
Laat je niet ook misleiden door de intel TDP!!! (dat is een gemiddelde en bij amd is het de maxxx.)
Klok voor klok is hij niet veel beter trouwes( geen zin links te zoeken,
Die zul je ook niet makkelijk vinden, want de nieuwe C2D's (Conroe/Woodcrest/Merom) zijn juist wél beter klok-voor-klok dan K8. De eerdere Core Duo's (Yonah) daarentegen zijn ongeveer gelijkwaardig klok-voor-klok aan k8, maar hadden in bepaalde benchmarks op de desktop nog last van de beperkingen die hun Mobile achtergrond met zich meebracht. Het klinkt alsof je Core Duo en Core 2 Duo doorelkaar haalt :) .
Laat je niet ook misleiden door de intel TDP!!! (dat is een gemiddelde en bij amd is het de maxxx.)
Klopt niet; Intels TDP wijst naar een praktisch maximum opgenomen vermogen voor een serie, AMD's TDP beschrijft een theoretisch haalbaar maximum. Zie
http://www.hardforum.com/...?p=1028592944&postcount=2
Wat ik me nou afvraag is waarom ze als er bij een quadcore een core het niet doet ze hem gewoon niet gaan verkopen als een triple core :P
je hoort wel van alles over dual en quad maar nooit over triple zou toch ook moeten kunnen (A)

hierboven was ook een discussie gaande over dat AMD in de problemen zou komen omdat ze te weinig aan de OEM's zouden kunnen leveren, een tijdje terug was hierover een artikel dat AMD de OEM's 'voortrok' ten opzichte van de retail markt wat economisch gezien ook zeer logisch is. één OEM is gelijk aan duizenden consumenten. Als ze nu bijvoorbeeld Dell zouden verliezen (om nog maar te zwijgen over de boetes wegens contractbreuk) denk ik dat ze dat heel lang niet meer goed kunnen maken, wat dus ook ervoor zorgt dat ze minder winst kunnen maken.

@duploxxx: Sorry dat ik het zeg voel je niet meteen beledigd ofzo maar vind je jou verhaal niet enorm druipen van: ik hou van AMD!!!!!???
oftewel in alle gevallen moeten er prijzen zakken dus ideaal voor de consument (wij) dus ideaal tenzij je aandelen in AMD hebt. Ik heb liever een goedkope processor om mijn sempron am2 (40 euro) te vervangen door een betere, ik denk trouwens dat AMD met de semprons van nu wel erg sterk staat, de 3500+ kost 80 euro ofzo en heeft alleen wat minder cache maar is beslist geen superbudget processor met afgekapte prestaties.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True