Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: Bare Feats

Bare Feats heeft een aantal benchmarks gepost waarin de prestaties van de nieuwe PowerPC 7450 aka G4+ wordt vergeleken met de oude PPC 7400/7410. De resultaten geven een tamelijk zorgwekkende situatie weer waarin de G4+ op 733MHz in sommige gevallen trager is dan een single G4 op 533MHz en in vrijwel alle gevallen een dual G4 op 533MHz voor zich moet dulden. De redenen voor deze teleurstellende prestaties zijn nog onduidelijk. Sommigen beweren dat de on-chip full-speed L2 cache en extra execution units niet voldoende zijn om het performance verlies goed te maken dat wordt veroorzaakt door de diepere pipelines van de PPC 7450. De korte pipelines van de huidige G4 zijn een belangrijke reden voor de relatief goede IPC performance van deze processor, maar zijn tevens oorzaak van de het feit dat de G4 naar huidige maatstaven een erg lage kloksnelheid heeft. Een vergelijkbaar problemen zagen we in het verleden voorkomen bij de Cyrix 6x86, die weliswaar een 25% hogere integer-performance had dan de Pentium, maar op termijn niet in staat bleek om de Pentium qua kloksnelheden (of kromme 'PR-ratings') bij te houden.

Het lijkt onwaarschijnlijk dat de langere pipeline ondanks de nieuwe features van de PowerPC 7450 een dermate groot verlies van relatieve performance zullen opleveren. Andere meningen zeggen daarom dat OS 9.1 niet efficiŽnt overweg gaat met het nieuwe L2 en L3 cache architectuur van de PowerPC 7450. Dit probleem zou opgelost moeten worden in MacOS X. Onderstaand het commentaar van MacOS Rumors:

Realistically, the verdict is still out....but the numbers so far do look bad. All of the information we've seen on the PPC 7450 suggests that the added processing units, better data paths, and on-chip full-speed L2 cache should offest the deeper pipelines which are designed to trade off raw performance for higher clock rates. The 7450 should -- and this is backed up entirely by Motorola and Apple sources who have never had trouble calling their employers on hiding problems or flaws -- perform better than the 7400/7410 at the same clock rate for some operations (Altivec, Integer) and only slighly slower for others (Floating Point math, gaming) -- under no circumstances should it be having trouble competing with 533MHz 7400s, which according to some of the benchmarks coming out these days it is.

The consistent statement from sources is that the current Mac OS doesn't make the right assumptions in its memory management code to properly use the 7450's new on-chip L2 and backside L3 cache architecture, nor make the best use of its improved on-chip data paths or Altivec units. Mac OS X will do much better at this, but there are still changes Apple may need to make to its hardware (128-bit MaxBus support would be cool, but 128-bit memory is presently too expensive for Apple's taste) to really make the most of the 7450.

G4+ / PPC 7450 Photoshop performance
Moderatie-faq Wijzig weergave

Reacties (38)

Het kan aan mij liggen, maar dat een dual configuratie sneller is dan een single vind ik nog niet zo gek...namelijk wanneer de SMP goed wordt toegepast heb je met een Dual G4 533 gewoon bijna 1066 Mhz, en ja dat is sneller dan een 733...

Dat een enkele 533 nauwelijks 10 procent langzamer is dan een 733 (welke bijna 50% hoger geklokt is) is uiteraard wel gek, maar goed - wanneer er een "nieuwe techniek" toegpast wordt (in dit geval langere pipelines en sneller L2 cache etc - dat wat in de tekst staat) is de snelheids toename natuurlijk altijd minder dan de toename in kloksnelheid.
Ik verwacht hier weinig zinnige opmerkingen over dit onderwerp, daarom adviseer ik iedereen die geÔnteresseerd is in de achtergrond van dit verhaald een bezoek te brengen aan bbs.xlr8yourmac.com/ubb/Forum3/HTML/000660.ht ml. Daar wordt het hele verhaald en mogelijke oorzaken uitgebreid besproken.

* 786562 stof
Wat me opvalt is het grote performance verschil tussen de dual 500 en dual 533!

Heeft dit ook met de FSB te maken?
Mooi grafiekje, maar wat heb ik daar aan? Ik zie een Pentium 4 met 1300 MHz het afleggen tegen een G4 met 733 MHz. Missen we dan niet iets over de rest van de configuratie (HD, geheugen, etc.). Je vergelijkt nu de architectuur in combinatie met de hele installatie met elkaar, dat lijkt me geen bijzonder eerlijke vergelijking.
Bewijst alleen maar dat ze photoshop nog steeds niet geoptimaliseerd hebben voor een pentium. Pak dan een programma wat niet de voorkeur heeft voor een bepaald OS als je quake benchmarks ziet heeft de pentium nl. weer het voordeel.

Wel grappig het lijkt wel een beetje op het P4 verhaal die had ook een diepere pipeline (was nodig voor de hoger klokfrequentie dacht ik). En deze legde het ook af tegen z'n voorganger. We zijn denk ik op het punt beland waarbij de nieuwe optimalisatie ten koste gaat van een voorgaande optimalisatie. Als je nagaat dat al dit soort processoren meerdere instructies in 1 clockcycle uit te voeren dan begrijp je ook een beetje hoe complex zo'n processor wordt en dat de techneuten niet meer goed kunnen beoordelen of iets nou snelheidswinst of verlies oplevert.
Bewijst alleen maar dat ze photoshop nog steeds niet geoptimaliseerd hebben voor een pentium
Daar geloof ik dus helemaal niets dan! Een groot deel van de klantenkring van Adobe gebruikt PC's en daar zullen ze dus echt wel voor optimaliseren. Adobe is echt niet meer het bedrijf dat zich enkel met Apples bezighoudt. De nieuwste versies van PS hebben echt wel optimalisaties voor het platform waar de op draaien.

Er wel eens bij stil gestaan dat de G4 CPU's snelheidsmonsters zijn? Heb je je ooit afgevraagd waarom die G4's niet naar landen als Irak of Iran ge-exporteerd mogen worden van de Amerikaanse regering?
Er wel eens bij stil gestaan dat de G4 CPU's snelheidsmonsters zijn? Heb je je ooit afgevraagd waarom die G4's niet naar landen als Irak of Iran ge-exporteerd mogen worden van de Amerikaanse regering?
Volgens de Amerikaanse regering is alles met een performance van meer dan 1 Gigaflops een 'supercomputer' en daar bestaan export restricties voor. Een Athlon doet tegenwoordig in theorie meer dan 3 Gigaflops. Het hele verhaal van Apple slaat dus weer nergens op en is puur bedoeld als misleidende marketing.

SPEC benchmarks bewijzen dat de G4 op een gelijke kloksnelheid maar enkele procenten sneller is dan een Athlon (Classic). Dat verschil heeft de G4 hoogstwaarschijnlijk te danken aan de korte pipeline. De lage kloksnelheden en het feit dat de G4 nu pas on-die full-speed L2 cache krijgt, geeft ook wel aan hoe ver Motorola in feite achterloopt.
Photoshop is toch juist een van die applicaties die juist geoptimaliseerd is voor de pentium...de meeste testen tussen x86 procs laten dat namelijk heel duidelijk zien..
Photoshop heeft wat SSE optimilisaties (dat is iets dan optimaliseren voor de 'Pentium' want er zijn heel veel Pentiums die nog nooit van SSE hebben gehoord bdw...). Algemeen wordt aangenomen dat Altivec wat sneller is dan SSE (en dat Photoshop ws beter is geoptimaliseerd voor Altivec dan voor SSE). SSE2 optimilisaties zouden trouwens ook kunnen helpen bij de P4.

Bovenstaande benchmark is niet realistische als je de G4 met de PIII en P4 wilt vergelijken. Als ik de geheugenperformance van een P4 vergelijk met die van een G4 kan ik ook concluderen dat de P4 'vier keer zo snel' is, maar dat is in de praktijk dus niet het geval.
Puzzeloplosser schreef... en dat de techneuten niet meer goed kunnen beoordelen of iets nou snelheidswinst of verlies oplevert.
Geeft wel een nog triester beeld van de Intel technokids weer, als wij d'r met een paar test finaal doorheen prikken, waar zijn die Intel boys dan mee bezig??

Vindt dat deze test en de eerdere test Intel v/s AMD toch wel een redelijk beeld geven van hoe we er "NU" voorstaan met deze chips en platvormen.
en dat de techneuten niet meer goed kunnen beoordelen of iets nou snelheidswinst of verlies oplevert
Sorry hoor maar wat jullie twee nu allemaal zeggen, is volgens mij echt totaal niet waar. Die 'intel boys' (en de mensen bij Motorola net zo goed) weten heus wel wat sneller en wat minder snel is. Dat is echt niet een gokje zo van 'laten we dit eens proberen Fritz, kijken wat dan gebeurt', 'Oh Jake dat is dus wel wat langzamer, had ik niet gedacht maar we zijn nu al ff bezig, laten we maar lekker zitten en die processor nou maar gauw releasen want ik heb het nou wel weer gezien hoor' :Z

De oud architectuur en ideeŽn daarachter gaan in de toekomst niet meer voldoen. De ingenieurs konden de processors op de lange termijn gewoon niet meer sneller maken mťt die oude architectuur. Ze moesten met totaal nieuwe ideeŽn komen, in het oog houdend dat deze nieuwe processorarchitectuur zeker vijf jaar mee zou kunnen gaan (de P6 architectuur gaat nu al dik 6 jaar mee).

De nieuwe generatie processoren is daarom substantieel anders dan de vorige generatie (dit is zeker het geval voor de P4 en in mindere mate ook het geval met de G4+, die wordt ook gehinderd door een gedateerd OS). Echter, aangezien alle software op dit moment nog geoptimaliseerd is voor die vorige generatie presteert de nieuwe lichting veel minder dan de vorige, zeker omdat de kloksnelheden nog niet erg veel hoger zijn dan bij de vorige generatie

Je moet echter kijken naar de lange termijn. Op de lange termijn zullen vrijwel alle compilers en daarmee software geoptimaliseerd worden voor de nieuwe generatie en zullen de nieuwe ontwerpen verder doorontwikkeld kunnen worden en op die manier zullen hogere reŽle snelheden (dus niet zozeer het aantal megahertz) mogelijk worden, terwijl de oudere architectuur al aan zijn eind zat. De trade-offs die gemaakt moesten worden om later hogere snelheden mogelijk te maken, mogen er nķ dan wel verantwoordelijk zijn dat de processor niet al te best presteert, maar in de nabije toekomst zullen ze hogere snelheden juist mogelijk maken.

Als je iets wil opruimen, wordt moet je er eerst altijd een rotzooi van maken om het opgeruimd te krijgen. Maar die rotzooi was nodig om alles goed geordend te krijgen. Wat jullie doen is bij iemand die midden in het opruimproces zit binnenwandelen en roepen: "Jeetje zeg jij weet ook niet hoe je moet opruimen", terwijl de persoon nog volop bezig is. Het is een beetje een krom voorbeeld, maar ik denk dat je de point wel ziet. Rome is ook niet in ťťn dag gebouwd. Die nieuwe architecturen zijn niet leuk voor de pioniers die ze nu voor veel geld kopen en er weinig extra voor terug krijgen, maar zijn nodig voor extra snelheid in de toekomst.

Dit is in ieder geval mijn visie, ik heb de indruk dat dit meer opgaat voor de P4 dan voor de G4+, maar wilde het toch even kwijt want dit wordt in mijn ogen te vaak vergeten
Wij doen de tests achteraf en de intel "techneuten" bedenken iets vooraf. Achteraf concluderen dat het inderdaad langzamer is is niet moeilijk. Maar ze moeten ook verder en de kloksnelheid moest omhoog dus wordt dit design toch doorgevoerd omdat ze waarschijnlijk geen betere oplossing hebben. Mischien wordt het gewoon tijd om de computer van te voren in z'n geheel te simuleren inclusief nieuwe proc. Probleem is dat ze dit waarschijnlijk ook al doen en dat het gewoon teveel tijd kost. Eerst een ID hebben dan uitwerken dan testen... hmm werkt niet goed ander ID hebben uitwerken etc. etc. weer een half jaar verder. Op laatst wordt het gewoon kiezen welke de minst slechte is. Daarna komen de praktische dingen om de hoek kijken als "die size" en andere kosten en wordt er nog weer wat dingen op het laatste moment weg bezuinigd.
Ik denk dat je teveel conclusies uit m'n verhaal trekt die ik helemaal niet bedoeld heb. De P4 (x86) en de G4 (68000) architectuur valt niet veel meer te optimaliseren wou ik alleen maar ff kwijt. Ze hebben bijde erg diepe pipelines nodig om de processor van instructies te kunnen blijven voorzien wat weer erg ten koste gaat van een mislukt branch predictie. De P4 is niet een nieuwe concept maar intels laatste noodgreep om de stap naar de IA64 (itanium) te kunnen overbruggen, het blijft een opgekrikte pentium pro core. De Itanium is inderdaad een gehele opruimactie en een nieuw opgebouwde architectuur waar nog veel in geoptimaliseerd kan worden. En nee de techneuten doen niet zo laks als jij hier boven schets en dat heb ik ook helemaal niet gezegt. Het blijkt alleen naarmate iets complexer wordt achteraf je goede ID ergens anders een vertraging opleverd die je van te voren niet kon voorspellen oftewel "Back to the drawingboard" zoals ze in amerika zeggen......
De P4 (x86) en de G4 (68000) architectuur valt niet veel meer te optimaliseren wou ik alleen maar ff kwijt.
De architectuur valt misschien niet meer te optimaliseren, maar vůůr de architectuur valt nog een hele hoop te optimaliseren. In het geval van de Pentium4 geldt dat deze zo afwijkt van eerdere ontwerpen dat oude bekende programmeertrucs om de processor instructies snel te laten verwerken (zoals de 4-1-1 techniek), op de Pentium 4 een negatieve invloed hebben op de snelheid. Vergeet niet dat de Pentium 4 in feite inwendig bijna een RISC processor is, met een CISC instructie set. Dit itt eerdere Pentiums, die volledig CISC waren. Software moet aangepast worden om de werkelijke snelheid van de P4 te laten zien.
Ze hebben bijde erg diepe pipelines nodig om de processor van instructies te kunnen blijven voorzien wat weer erg ten koste gaat van een mislukt branch predictie
Deze zin klopt niet helemaal, maar ik denk dat ik snap wat je bedoelt. Volgens mij bedoel dat de P4 en de G4+ door de langere pipelines bij een branch misprediction een grotere vertraging oplopen dan hun voorgangers, of niet? Dat klopt inderdaad, maar aangezien de kloksnelheden hoger liggen valt deze hogere latency op een gegeven moment weg. Zo gauw de Pentium 4 2 GHz haalt, is de latency bij een branch misprediction hetzelfde als bij de P3 :)
het blijft een opgekrikte pentium pro core
Onzin. De Pentium 4 is van de grond af opnieuw ontworpen en is het eerste echte nieuwe ontwerp van Intel sinds de P6 (=P Pro, P2, P3 en Celeron). Het enige wat ze echt gemeen hebben is de x86 instructieset en de naam (die gewoon om marketingreden is gekozen).
En nee de techneuten doen niet zo laks als jij hier boven schets en dat heb ik ook helemaal niet gezegt
Weet ik wel, was een beetje gekscherend bedoeld :)
Het blijkt alleen naarmate iets complexer wordt achteraf je goede ID ergens anders een vertraging opleverd die je van te voren niet kon voorspellen oftewel "Back to the drawingboard" zoals ze in amerika zeggen......
Verschil is echter dat bij de Pentium 4 veel van die 'vertragende dingen' moedwillig zo gekozen zijn door de ingenieurs, wat ik al bedoelde te zeggen in mijn vorige post. De langere pipeline bijvoorbeeld zorgt nķ voor vertragingen, maar maakt in de toekomst hogere snelheden mogelijk en de vertraging die de lange pipeline oplevert valt dan weer weg. Simpele trade-off.
Ik denk dat als de Itanium (die al sinds sep 99 bestaat als werkend test exemplaar) eerder had gedaan wat ie had moeten doen dat ze geen P4 hadden gemaakt. Het probleem bij bijna alles is dat er hercompilaties nodig zijn in de vorm van branch predict instructies herstructuring van de asm code om nog optimaal te kunnen zijn de IA64 architectuur speelt hier perfect op in.

In ieder geval niets aan te merken op je verhaal dit keer bevat veel info. Nu moeten we de volgende keer dit soort discussies houden bij een P4 bericht dan is het iets minder off-topic. Bedankt voor de reactie :)
De 68000 (68k procs) zijn de voorlopers van de PowerPC (en hebben overigens niets te maken met x86), beginnen met de PPC601 -geloof ik-, PPC 603, PPC604, PPC604e waarna de PPCG3, de G4 en de G4+ volgden. G staat voor Generation...

De oorspronklelijke PowerPC 7400 - G4 - heeft een 4 stage pipeline, de 7450 heeft een diepere pipeline, namelijk 7 stages. De Pentium 4 heeft een 20 stage pipeline om 'm voorbij de 1 Ghz te laten lopen. Vrij vertaalt van The Register...
Test machines:
G4/733 Power Mac (256M of RAM, GeForce2 MX, Mac OS 9.1)
Dual G4/533 Power Mac (256M of RAM, GeForce2 MX, Mac OS 9.1)
Single G4/533 Power Mac (256M of RAM, GeForce2 MX, Mac OS 9.1)
Dual G4/500 Power Mac (256M of RAM, ATI RAGE 128 Pro, Mac OS 9.04)
Radeon AGP graphics card provided courtesy of ATI Technologies

Pentium 3 866MHz (512M of RAM, GeForce2 MX, Windows ME)
Sony VAIO Pentium 3 1.0GHz (256M of RAM, GeForce2 MX, Windows ME)
Sony VAIO Pentium 4 1.3GHz (256M of RAM, GeForce2 MX, Windows ME)
Sony VAIO Pentium 4 1.5GHz (256M of RAM, GeForce2 MX, Windows ME)
Wat vreemd dat ze Windows ME gebruiken als test platform. In real-life draaien vormgevers toch ook geen Windows ME maar NT (of w2k tegenwoordig dan maar dat weet ik niet uit eigen ervaring).
Niet dat het de benchmark op z'n kop zou zetten maar de windows 9x varianten hebben behoorlijk last van diskactiviteiten (heeft iets te maken met de multitasking engine ;)
De oplichters! Testen ze op een Sony Vaio, dat zijn laptops!
Wat is dat een stomme opmerking! Een P4 in een portable, een Geforce 2MX in een portable? Alle computers van Sony heten Vaio!!

Zou eerst eens zelf nadenken als je zo'n opmerking maakt! Denk je dat de mensen in zo'n vergelijking zouden trappen?
Ik ben zelf van meening dat je dit soort dingen niet moet vergelijken met elkaar. Je kan dit toch nooit goed vergelijken omdat de ene machine met hele andere software draait als de andere en het ene OS misschien wel beter met de architectuur van de CPU om kan gaan als de ander. |:(

En dan is dat nog maar een klein voorbeeld uit de lijst der verschillen in performance van het OS. Neem bijvoorbeeld het gebruik van geheugen, chipsets en noem er zo nog maar een paar op.
Je hebt helemaal gelijk maar Apple-klanten kunnen dankzij dit soort benchmarks met een goed gevoel hun PowerMac van fl 6000,- mee naar huis nemen, en op de eerstvolgende gelegenheid dat er over computers gepraat wordt kunnen ze jou dan gaan zitten vertellen dat ze zoooo'n snelle Mac gekocht hebben, die's toch wel zoveel sneller dan jouw PC :Z ....

* 786562 mr_a
Andere meningen zeggen daarom dat OS 9.1 niet efficiŽnt overweg gaat met het nieuwe L2 en L3 cache architectuur van de PowerPC 7450.
Dat is een feit. De architectuur is grotendeels veranderd waardoor MacOS 9.1 en daarvoor niet optimaal gebruik maakt van de features van de nieuwe CPU. Tevens is MacOS 9.1 en daarvoor, is gebasseerd op een single CPU architectuur. Dus zullen alleen maar 1 CPU aanspreken in een dual CPU systeem. Dit heeft natuurlijk ook weer invloed op de resultaten. :z

Deze review wordt pas interressant als ze het gaan testen met MacOS 10. Bij deze is de dual CPU feature wel geimplementeerd.

Ik vind het wel leuk om te zien hoe de Mac het kan opnemen tegen een intel. Jammer genoeg zit er geen AMD tussen }>. Het grote verschil tussen Windows en MacOS is, dat MacOS de CPU aanstuurd en dat Windows de CPU ondersteund. In Windows Blackcomb komt er verandering in, maar tja dan moet je wel een 64 bit CPU hebben :(

<'k was nog wat vergeten>
<Bedankt femme>
Dat ging over support van de nieuwe PPC 7450, die heeft nu on-die L2 cache + backside L3 cache ipv off-die (backside) L2 cache. Ook heeft de 7450 extra execution units (o.a. extra Altivec unit) waar de bestaande software geen weet van heeft.
Mag ik wellicht ten overvloede er op wijzen dat Photoshop voor win32 wordt gebouwd mbv een Mac layer op win32, en dus niet een native win32 applicatie is? (dus benchmarken met photoshop op win32 is niet correct).

Beter zou zijn geweest als ze gewoon SPEC benchmarks hadden gedraaid. Die zijn immers wel erkend op meerdere platforms.
Mag ik wellicht ten overvloede er op wijzen dat Photoshop voor win32 wordt gebouwd mbv een Mac layer op win32, en dus niet een native win32 applicatie is? (dus benchmarken met photoshop op win32 is niet correct).
Zulke grote onzin heb ik nog nooit gehoord. Photoshop is gewoon een native win32 applicatie. De hele onderliggende techniek is gewoon algemeen geschreven. Ik moet toegeven dat Photoshop 2.5 niets anders was dan een quick en dirty port, maar we zijn inmiddels al bij versie 6. Als er al gedeelte's van de Mac layer overgebleven zijn, zal dat alleen betrekking hebben op de GUI, maar aangezien Photoshop nu gebruik maakt van haar eigen nieuwe AGM/cooltype library, zal het me verbazen dat die specifiek voor Mac geschreven is met een Mac layer.
Beter zou zijn geweest als ze gewoon SPEC benchmarks hadden gedraaid. Die zijn immers wel erkend op meerdere platforms
Alleen zeggen SPEC benchmarks niets over de snelheid van een compleet systeem. Een Mac wordt nou eenmaal verkocht als compleet systeem. Een SPEC benchmark zegt een Mac gebruiker niets, omdat de meeste gebruikers alleen maar willen weten of Photoshop sneller draait op die gloednieuwe Mac.
Otis, leuter niet zo.

Als Apple (en andere subsidiary partijen) het leuk vindt om reclame te maken met de prestaties van een Mac op pakket waar Mac-gebruikers vrij veel mee werken (lijkt me trouwens aardig overschat), wat loop jij (en Femme) dan te zeiken over die SPEC-zooi. Daar is niemand in geÔnteresseerd.

Het is reclame, geen waarheid. Worden jullie niet een beetje moe van jullie zelf met al dan kinderachtige gekweel om 'de waarheid'?

Denk je dat er ene hond op de wereld is die z'n computer koopt om wat dat ding kan? Nope, dat wordt braaf gebaseerd op wat het nieuwe baasje _denkt_ dat het machientje kan. En nu begint Apple eindelijk allerlei geloofwaardige flauwekul wereldkundig te maken (wat andere bedrijven al tot kunst hebben verheven), is het weer niet goed...
Ik vind het verschil tussen de dual en de single 533 niet eens zo groot.. komt dat door de doorvoersnelheid naar/van het geheugen? op is die bandbreedte 2 keer zo groot bij een 533?
Ik denk dat er niet zo veel waarde gehecht moet worden aan MacOS 9.x benchmarks. MacOS 9 is een verouderd systeem dat in feite hetzelfde werkt als Windows 3.0: geen preemtive multitasking en ook geen protected memory (en zelfs dat hadden we volgens mij onder Windows 3.0 al).

Bij Apple zijn ze al meer dan 10 jaar bezig met de opvolger die MacOS X gaat heten (in feite een echt Unix systeem!).

Alhoewel nog veel mensen MacOS 9 of ouder zullen blijven gebruiken lijkt het erop dat ze bij Apple toch alles richting MacOS X willen gooien en dat is een totaal andere wereld. Zodoende maak ik me (als vaste Apple-klant) niet druk over deze benchmarks.
Ik denk dat de teleurstellende resultaten van de G4+ vooral te wijten zijn aan die diepere pipelines. Hetzelfde zie je immers nu ook gebeuren met de P4. Door die pipelines wordt de processor trager dan z'n voorganger op dezelfde kloksnelheid. Echter, dankzij die diepere pipelines, kan de processor wel veel beter 'gescaled' worden en op veel hogere kloksnelheden draaien dan z'n voorganger. Op die manier zal de nieuwe generatie processoren het uiteindelijk dus tůch winnen van zijn voorgangers...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True