Intel introduceert acht nieuwe desktopprocessors

Intel heeft acht nieuwe op de Haswell-architectuur gebaseerde processors aan zijn prijslijst toegevoegd. Het gaat om vier Core i3's en vier Pentiums. Bij zowel de Pentiums als de Core i3's zijn er twee zuinige modellen met tdp van 35W.

Alle nieuwe processors zijn dualcores, maar alleen de Core i3's hebben zoals gebruikelijk ondersteuning voor HyperThreading. Zes chips zijn nieuwe versies van bestaande Haswell-chips, met kloksnelheden die 100MHz hoger liggen dan de processors die al op de markt zijn.

Bij twee modellen gaat het om varianten met lagere tdp. Dit zijn de Pentium G3450T en de Core i3-4360T. De prijzen van de bestaande non-T-modellen zijn verlaagd van 149 naar 138 dollar bij de Core i3-4360 en van 86 naar 75 dollar bij de Pentium G3450, dezelfde prijs als de nieuwe T-modellen.

De prijzen van de overige modellen zijn gelijk aan die van de processors die ze opvolgen, blijkt uit de prijslijst van Intel, waar Cpu-world uit citeert.

ModelCores /
Threads
Kloksn.L3
cache
GpuGpu-kloksn. (max.)GeheugenTdpPrijs
Pentium G3250 2 / 2 3,2 GHz 3MB HD 1100MHz DDR3-1333 53W $64
Pentium G3250T 2 / 2 2,8GHz 3MB HD 1100MHz DDR3-1333 35W $64
Pentium G3450T 2 / 2 2,9GHz 3MB HD 1100MHz DDR3-1600 35W $75
Pentium G3460 2 / 2 3,5GHz 3MB HD 1100MHz DDR3-1600 53W $86
Core i3-4160 2 / 4 3,6GHz 3MB HD 4400 1150MHz DDR3-1600 54W $117
Core i3-4160T 2 / 4 3,1GHz 3MB HD 4400 1150MHz DDR3-1600 35W $117
Core i3-4360T 2 / 4 3.2GHz 4MB HD 4600 1150MHz DDR3-1600 35W $138
Core i3-4370 2 / 4 3,8GHz 4MB HD 4600 1150MHz DDR3-1600 54W $149

Door Olaf van Miltenburg

Nieuwscoördinator

21-07-2014 • 09:27

83

Reacties (83)

83
83
46
13
3
25
Wijzig sortering
Eigenlijk wel apart dat we nog steeds rondom de 4 GHz grens blijven steken. Waarom verandert hier zo weinig ? Een hogere kloksnelheid is toch van waarde voor software die voor single-core toepassingen (grofweg de meeste volgens mij) is geoptimaliseerd ?
Dit heeft met 2 (verwante) dingen te maken:
  • Het vermogen dat door een processor wordt gebruikt is evenredig met de kloksnelheid. Dat betekent dus dat als je de kloksnelheid met een factor twee verhoogt, je ook voor *twee* keer meer koeling moet zorgen. Aangezien het hier gaat om TDP's tussen de 35 en 50 Watt (op een oppervlakte van enkele cm2 is dat een gigantische aanslag op de warmte huishouding.
  • Een transistor kan gemodelleerd worden als een kleine condensator die opgeladen wordt ("aan" zetten / "1") en ontladen wordt ("uit" of "0"). Omdat op en ont-laden van een condensator tijd kost is dat een beperkende factor. Je kunt dit sneller laten gaan door een hogere spanning aan te bieden, maar de crux is dat de spanning kwadratisch evenredig is met het gebruikte vermogen!
Conclusie: je kunt niet de kloksnelheid zomaar verhogen zonder dat het meer energie kost in dezelfde tijdspanne.

Edit: als toevoeging op degenen die zeggen dat software is geoptimaliseerd voor multi core:
De multicore/many-core architecturen zijn een gevolg van bovenstaande observaties en niet de oorzaak dat kloksnelheden niet meer hoger worden. Simpel gezegd is het zo gegaan: Kloksnelheid kan (fysiek) niet meer hoger zonder het procede aan te passen --> multi core architecturen worden bedacht en geimplementeerd --> software wordt hiervoor geoptimaliseerd.

edit2: *twee* toegevoegd

[Reactie gewijzigd door itcrowd op 23 juli 2024 02:36]

Wat ook nog een reden is waarom de kloksnelheden niet blijven oplopen is dat je niet zomaar alleen de kloksnelheid kunt verhogen, omdat je daarmee ook weer tegen andere bottlenecks oploopt die je op moet lossen, en die zelf weer negatieve effecten kunnen hebben voor bepaalde usecases. Zo had de Pentium 4 destijds bijvoorbeeld idioot lange instruction pipelines (20 stages in plaats van 11 voor de Pentium 3), omdat elke stage dan met minder transistors gebouwd kon worden en dus sneller kon switchen. En ook dingen als shared (L2/L3) cache kunnen bottlenecks worden als je 'alleen maar' de kloksnelheid verhoogd.

Alles bij elkaar is het gewoon een veel betere trade-off om je power budget, die area en R&D budget voor andere dingen te gebruiken dan een CPU maken die op 5 Ghz kan draaien.
Klopt. Moraal van het verhaal is eigenlijk dat klokfrequentie een slechte indicator is van performance.
Stel je hebt 2 processoren die verder identiek zijn maar als volgt verschillen:
  • Processor 1 heeft een klokfrequentie van 10 GHz en heeft 10 klok cycles nodig om een bepaalde operatie (bijv. optellen) te doen
  • Processor 2 heeft een klokfrequentie van 5 GHz en heeft 5 klok cycles nodig om dezelfde operatie te doen
In dit geval is op basis van klokfrequentie processor 1 "sneller" maar voor deze operatie hebben beide processoren even veel tijd nodig. Kortom: kloksnelheid alleen zegt helemaal niks. (Maar dat wisten de meeste tweakers wel)
Geef eens een voorbeeld van een proces dat 10 klok cycli nodig heeft bij 10 GHz en de dezelfde instructie opeens maar 5 bij 5GHz?

4GHz vs 2GHz would do als voorbeeld...
Geef eens een voorbeeld van een proces dat 10 klok cycli nodig heeft bij 10 GHz en de dezelfde instructie opeens maar 5 bij 5GHz?

4GHz vs 2GHz would do als voorbeeld...
Dezelfde instructie kan ik zo even niet verzinnen, maar bij een nieuwere instructieset kun je bepaalde taken wel een stuk sneller uitvoeren.
Denk aan SSE1/2/3/4 instructiesets. Een processor die dergelijke instructies niet heeft, moet dan wel (voor die specifieke taak waar die instructies ingezet kunnen worden) een stuk hogere klokfrequentie hebben.
Maar goed, dat geldt dan voor dat stukje code wat heel erg leunt op die instructies.

Als je puur en alleen kijkt naar het aantal instructies per kloktik, dan zie je ook al een groot verschil tussen bijvoorbeeld een Pentium4 en de huidige CPUs. Misschien wel meer dan een factor 2 (per core), dus dan zit je al op een dergelijke verhouding als genoemd.
O.t.w. de klokinstructies worden complexer als ik je goed begrijp?
In basis klopt dit inderdaad, maar een kleine toevoeging: het extra verstookte vermogen is ongeveer evenredig met kloksnelheid, maar er zit een stevige offset in. Laten we zeggen: Vermogen = offset + a*kloksnelheid
Dus ook idle is er een flink vermogen dat opgestookt wordt, als je van 0.5 GHz naar 1 GHz gaat dan zal je vermogen NIET verdubbelen omdat de offset significant is in je verstookte vermogen.
Als je van 4GHz naar 8GHz gaat dan zit je al meer tegen verdubbeling aan.
Agreed. Voor de geinteresseerde tweakers is in deze post op stackexchange veel informatie te vinden.
Mee eens.

De processoren in het artikel kunnen niet overgeklokt worden en dat heb je ook niet beweerd.

Mocht er toch iemand geintereseerd zijn om de kloksnelheid te verhogen bij dit soort goedkope processoren, dan kan dat met de "nieuwe" Pentium-K (2 cores, Haswell) met een TDP van 53W. De processor is voor zo'n 6 tientjes te koop.

Intel kondigt unlocked Pentium en Core i7-4790K-quadcore op 4GHz aan - update.

Standaard draait deze processor op 3.2GHz, maar haalt 4.8Ghz met een overclock (als je mazzel hebt in de "silicon lottery"). Het verbruik zal dan wel met 75W (overall) toenemen. In de volgende review is dat gedaan:

Pentium 20th Anniversary G3258 Processor Review.

De vraag is of je er echt wat mee opschiet. Mogelijk dat spellen er wat soepeler door werken, maar wat ik heb gezien aan vergelijkingen met 4 cores elders, lijkt het er op dat die laatsten toch wat beter lopen. Dit heeft te maken met het feit dat veel nieuwere spellen toch meerdere cores zijn gaan gebruiken en dan met vergelijkbare snelheid op 4 cores een hogere minimum framerate halen.

Wel aardig is dat je natuurlijk weer terug kunt naar de standaardfrequentie en dan een relatief zuinige processor hebt.

[Reactie gewijzigd door MadIceXIII op 23 juli 2024 02:36]

Met een hogere yield in het productieproces moet je deze processoren op de markt kunnen zetten zonder al te veel risico. Een iets hogere klok dat verder geen invloed heeft op verbruik.

Vermoed dat het eerder een marketing-trucje is. Je laat rondgaan dat je nieuwe processoren in de markt zet.

Een ander scenario is dat de nieuwe processoren van de I3 op 14nm vertraging hebben opgelopen. Die werden verwacht aan het eind van het jaar.
Inderdaad op een bepaald moment was het voordeliger, goedkoper om extra cores op de die te steken dan om de kloksnelheid te verhogen. Met andere woorden: Ze gingen dus ergens anders mijnen.
@itcrowd, je bedoelt het goed maar schrijft het fout op.

Stroomverbruik is niet evenredig met kloksnelheid.
Het is namelijk een macht van 3 wat erin zit:

stroomverbruik = C * (D * kloksnelheid * kloksnelheid * kloksnelheid)
Als je als bron mijn gelinkte artikel hebt: dat gaat over een extreme overclock, van 1GHz naar 5 (niet een standaard scenario). Anders zou ik je bron wel willen lezen. Ik heb hier nog een boekje liggen waarin het eenvoudige model wordt aangenomen, voor kleine overclocks komt dat uit op een lineair verband.
"Het vermogen dat door een processor wordt gebruikt is evenredig met de kloksnelheid. Dat betekent dus dat als je de kloksnelheid met een factor twee verhoogt, je ook voor *twee* keer meer koeling moet zorgen. Aangezien het hier gaat om TDP's tussen de 35 en 50 Watt (op een oppervlakte van enkele cm2 is dat een gigantische aanslag op de warmte huishouding."

Je refereert aan deze cpu's waar gros boven de 3Ghz van zit.
Kloksnelheid tot de macht 3 speelt dan een cruciale rol in het totale stroomverbruik.

Die tot de macht 3 is ook aanwezig op lagere kloksnelheden maar speelt een kleinere rol in 't totaal van het stroomverbruik. Andere factoren overheersen dan.
Ik snap wel wat je bedoelt, maar kan daar (behalve een soort voetnoot in het door mij gelinkte artikell) geen onderbouwing voor vinden. Tevens is het -voor mij- tegen intuïtief. Zie ook http://forums.anandtech.com/showthread.php?t=119229
Het is geen onderbouwing, het zijn feiten ;)

Zie het zo, als je zelf een processor bouwt dan tot 300Mhz red je 't wel. Daarboven is LASTIG.

[Reactie gewijzigd door hardwareaddict op 23 juli 2024 02:36]

Volgens mij is bijna elk OS van het afgelopen decennium geoptimaliseerd voor multi-core usage. De OS bepaalt dus impliciet welk single-core proces op welke core komt te draaien. Hierdoor hoef je dus helemaal geen hoge snelheden per core te hebben; zeker niet als het om instap-CPU's gaat die vaker in "gemiddelde" consumenten-produkten worden geleverd.

Pas als je single-core processen hebt die dusdanig zwaar/inefficient zijn geprogrammeerd, ga je 4GHz gebruiken. De vraag is dan of je niet een andere/zwaardere CPU had moeten kopen of dat er geen vergelijkbare software is die efficienter dezelfde taak kan uitvoeren.
Sorry maar dat slaat werkelijk op alles. De voornaamste reden waarom we zoveel cores per processor hebben is omdat ze moeite hebben de snelheid per core op te krikken (anders dan de frequentie op te voeren, mhz/ghz zegt namelijk niet alles) de meest logische stap is gewoonweg om het aantal cores uit te breiden. Tuurlijk geeft dat in bepaalde situaties een grote verbetering qua performance.

Verder kan een OS niet magisch er voor zorgen dat een applicaties al je cores benut, helaas kom ik nog zat applicaties/games tegen die CPU bottlebecked zijn op mijn i7 4.5ghz omdat deze niet multi threaded zijn geprogrammeerd. Waar je dus weinig hebt aan je multi core processor :)

Kijk een naar de laatste generatie processoren die uitgekomen zijn, de IPC heeft de laatste jaren weinig vooruitgang geboekt.

[Reactie gewijzigd door Marctraider op 23 juli 2024 02:36]

Hierdoor hoef je dus helemaal geen hoge snelheden per core te hebben
Dat ligt wel een beetje aan je toepassing natuurlijk. Sommige rekenintensieve taken zijn erg lastig op te splitsen of te optimaliseren voor meerdere cores. In dat geval kun je er echt last van hebben!! Maar het gaat hier dan ook om een desktop processor, waar je vaak veel onafhankelijke taken kunt verdelen over de beschikbare cores.

Helaas is de trend van stagnerende kloksnelheid ook zichtbaar in de server markt waar dit wel belangrijk is. En dan kan het heel lastig zijn!
Helaas is de trend van stagnerende kloksnelheid ook zichtbaar in de server markt waar dit wel belangrijk is. En dan kan het heel lastig zijn!
De nieuwe Landing Knight Xeons komen in zeer hoge "density" waar de E7-8880 v2 komt met 15 cores/30 threads op 3.1GHz/core. Aangenomen dat Intel niet dom doet, zullen er server-boards uitkomen waar je dus 2 of 4 van die CPU's in een 2U to 4U chassis kan plaatsen.

Verder komen de Phi co-processoren eraan die nog eens 60GHz per socket kunnen voorzien.

Ik weet niet hoe/of je een Xeon met een co-processor kan pairen op 1 board maar dan kom je grofweg op 48GHz base-clock + 60GHz extra.

/edit: https://www-ssl.intel.com...on-e7-v2-family-brief.pdf
The Intel Xeon processor E7 v2 family represents a dramatic improvement in memory, with triple the memory capacity of previous versions. It delivers up to 6 TB in a four-socket platform and up to 12 TB in an eight-socket platform and you can even scale beyond 8 sockets by using innovative OEM-developed node controllers

[Reactie gewijzigd door MAX3400 op 23 juli 2024 02:36]

[...]
Verder komen de Phi co-processoren eraan die nog eens 60GHz per socket kunnen voorzien.

Ik weet niet hoe/of je een Xeon met een co-processor kan pairen op 1 board maar dan kom je grofweg op 48GHz base-clock + 60GHz extra.
[...]
Het hele punt is natuurlijk dat je die parallelle kloktikken niet zomaar bij elkaar kunt optellen zoals jij nu doet.
Als het gaat om een webserver die gemiddeld meer dan 100 requests tegelijk moet verwerken, dan zou je de GHz'en bij elkaar kunnen vegen om een 60-core CPU te kunnen vergelijken met een andere configuratie om in te kunnen schatten hoeveel winst je kunt verwachten. Alleen moet dan de CPU-familie wel gelijk zijn.
1 GHz van een Core i7-familie kun je niet vergelijken met 1 GHz van die phy-familie of met een 1 GHz van een pentium-4.

Voor alle andere toepassingen kun je dat soort vergelijkingen op kloksnelheid niet zomaar maken, omdat zaken mee gaan spelen als I/O, lengte van de pipeline, cache-grootte, hoe de cache is opgedeeld over de cores, etc.
En last-but-not-least hoe parallelliseerbaar je taak is.

[Reactie gewijzigd door TD-er op 23 juli 2024 02:36]

Laten we wel wezen, als we het hebben over 15-60 core/ghz cpu opstellingen hebben we het niet meer over single-threaded photoshop renders of zo.

Spul dat dusdanig veel cycli nodig heeft is echt wel parallel te draaien en zo niet dan draai je gewoon 100 van zulke taken/programma's tegelijk (laten we voor het gemak maar gewoon even uitgaan van big-data als gebruiksscenario wat het meest aannemelijk is).

In het geval van grote websites is dat dus geen enkel probleem.. enige bottleneck die je dan kunt krijgen is wanneer je een (slecht geprogrammeerde) statistieken algoritme/programma loslaat op de database welke niet/slecht geparalleliseerd is en dus een core een tijdje op 100% zal laten werken tot het klaar is.
60 * 1GHz != 60GHz. Je kan wel 60 single threaded processen naast elkaar laten lopen - echter 1 enkele thread zal niet meer dan 1GHz pakken, hij kan immers niet op meerdere cores tegelijk lopen.

Daarbij kost synchronisatie tussen processen ook performance.
Titan fox heeft gelijk. De meeste toepassingen zijn single threaded omdat nou eenmaal de probleemstelling parallellisme niet toelaat. Daarnaast is multi-threaded / asynchroon / parallel programmeren weer een niet triviale complexiteit waar je als programmeur niet op staat te wachten (tenzij het zich op het niveau OpenMP / TBB bevindt).

Overigens zijn kloksnelheden niet heilig. De Pentium 4 had ook hoge kloksnelheden gerealiseerd door een diepe pijplijn wat tot gevolg had dat branches in code al heel gauw tot performance verlies leiden.

[Reactie gewijzigd door gast128 op 23 juli 2024 02:36]

Zolang ik mijn CPU nog 100% kan belasten (en hierdoor moet wachten op iets) kan het sneller en wil ik het sneller.
Intel Core i5 4670K Boxed heb je volgens je profiel, dus je hebt nog zat upgrade ruimte ;)

http://www.anandtech.com/...ming-cpu-september-2013/5
Ik heb het niet over mijn PC, die is snel zat waarvoor hij gebruikt wordt. :+ Over CPU's in het algemeen, onze servers staan vaak zat 100% CPU te draaien bij een intensieve SQL query bijvoorbeeld. Dat kan dus nog steeds sneller! (En daar plukken we als PC gebruiker weer de vruchten van.) :)
Ik denk dat de huidige stagnatie momenteel veroorzaakt wordt door de temperatuur in samenhang met het stroom verbruik. Hoe hoger de GHz hoe meer stroom er wordt verbruikt en hoe warmer de CPU wordt. Verlaag je 1 van deze beide factoren dan verlaagt de andere automatisch mee en kun je de snelheid opvoeren.

We zitten nu in een fase waarop cpu's als maar zuiniger en efficienter omgaan met energie. de volgende stap is weer verhogen naar hogere kloksnelheden. Maar ik denk dat we kleinere procedés nodig hebben hiervoor. En dat kost tijd en veel geld om te ontwikkelen. Huidige technieken verbeteren en efficienter maken zal minder opleveren maar is waarschijnlijk een stuk goedkoper
Anoniem: 415197 @MAX340021 juli 2014 17:36
Volgens mij is bijna elk OS van het afgelopen decennium geoptimaliseerd voor multi-core usage. De OS bepaalt dus impliciet welk single-core proces op welke core komt te draaien.
Euh, en sinds wanneer draait alles om het OS? Bij mij zijn het juist de afzonderlijke programma's die belangrijk zijn, en die zijn vaak niet voor multi-cores geschreven (!)
Volgens mij heeft dit te maken met de warmte die geproduceerd wordt bij deze snelheden. Ik heb hier vrij weinig verstand van, dus ik denk dat iemand dit wel kan ophelderen.
Anoniem: 456571 @Zayl21 juli 2014 10:27
Ik kwam het volgende artikel (november 2013) tegen waarin het eea wordt uitgelegd. Er schijnen meerdere factoren te zijn.

Why haven't CPU clock speeds increased in the last 5 years?

[Reactie gewijzigd door Anoniem: 456571 op 23 juli 2024 02:36]

De belangrijkste reden wordt volgens mij achterwege gelaten, namelijk de latency die onstaat door de fysieke afstanden.
Processors (in ieder geval de productiemodellen) werken met een centrale "klok", feitelijk is het een soort wekker. Iedere keer dat de wekker gaat, moet iedere transistor zo snel mogelijk de berekening uitvoeren, en daarna het resultaat op de uitgaande lijn zetten en dat vasthouden tot de volgende wekker gaat. Die wekker gaat met een frequentie, de klokfrequentie. Bij een frequentie van 3 GHz zijn er dus 3,33 ns om de berekening uit te voeren.
Maar dat is niet alles. In diezelfde tijd moet het signaal van de klok ook nog aankomen bij de transistor, en het resultaat moet niet bij het eind van de transistor bekend zijn, maar iets verderop - bij de binnenkomende poort van de volgende transistor die een volgende bewerking doet.
De meeste processors zijn gebakken op een stukje silicium van 10 bij 10 mm. Stel nu dat de afstand tussen de klok-bron en de verste transistor 6 mm is, en dat uitgaande signalen weer 4 mm moeten reizen - dat is samen 10 mm. Stel dat de snelheid gelijk is aan de lichtsnelheid, dan kost dat transport 0,3 ns. Nu weet ik niet wat de snelheid door silicium is, maar laat het 25% langzamer zijn - dan zit je op 0,4 ns. Dus, in het eerdere voorbeeld van de 3 GHz processor heeft de transistor slechts 2,9 ns.
Een high-end processor als de IBM POWER8 draait op 5 GHz en dan zie je het probleem: Een kloktik duurt nog maar 2 ns en er gaan nog steeds 0,4 ns verloren aan transport - er is nog maar 1,6 ns over. En bij de theoretische snelheid van 25 GHz heeft de transistor geen tijd meer om te rekenen - alle tijd gaat op aan transport.

TLDR: zolang de fysieke afmetingen van een processor (al tientallen jaren 10x10 mm) niet drastisch verminderen blijven we in de buurt van de huidige grenzen.
Anoniem: 456571 @Free rider21 juli 2014 17:51
Ik vraag me eigenlijk af waarom een desktop CPU (op dit moment) perse kleiner moet worden. Dat ding is al niet echt groot te noemen. Ik zou het niet erg vinden als de CPU een x-aantal nanometer groter wordt. Ik zie het probleem niet direct.

Miniaturization blijft een mooi iets en dat hoeft ook niet te stoppen. Maar als je meer power wil hebben hoef je niet perse constant te verkleinen, lijkt mij.
Als je het lange verhaal had gelezen dan had je antwoord op je vraag :X
Groter oppervlak betekend meer latency en dus een tragere cpu en ook nog eens duurder omdat het meer grondstoffen kost...

Tnx Free rider erg interessant stukje, weer wat geleerd :)
Ach, je hebt gelijk. Ik zie de laatste tijd van alles over het hoofd. Gooide gister een prima kussensloop in de vuilnisbak, kwam ik later achter. Geen herinnering van. Excuses.

Latency door fysieke aftstand idd. Niets tegen te doen?

[Reactie gewijzigd door Anoniem: 456571 op 23 juli 2024 02:36]

Lijkt me inderdaad nogal een bottleneck. Maar ik zie nog niet echt veel chips die de hoogte ook gebruiken en daarmee enorm veel afstand kunnen winnen. Ik begrijp dat koelen dan wel weer lastiger zal zijn dan een plat vlak, maar daar zullen toch wel mogelijkheden voor zijn.
Het is een beetje ingewikkelde manier om een simpel probleem uit te leggen.

Namelijk dat een hogere kloksnelheid onevenredig veel meer stroom vreet.
Ik denk niet dat warme iets uit maakt, ze zouden dan een andere standaard koeler kunnen leveren.
Een probleem van een hogere klok is dat de spanning ook omhoog moet om de klokpuls op tijd door de CPU te krijgen. Gezien in meeste gevallen meer gekeken wordt naar energie verbruik en efficientie en minder naar rauwe kracht (zeker bij dergelijke low-end cpu's) is er weinig winst te behalen door de klok omhoog te doen, maar veel meer door de cpu beter te laten werken.

Bij de oude netburst CPU's was de klok zo hoog omdat de pipeline veel langer was. Het probleem hiervan is dat bij een foute branch prediction je veel langer bezig bent met het flushen en opnieuw vullen van je pipeline. Hierdoor waren de CPU's uiteindelijk behoorlijk inefficient.
En hogere spanning betekend hoger stroomverbruik (de weerstand in een halfgeleider blijft gelijk) dus meer vermogen wordt de CPU ingepompt en dus zal de temperatuur ook toenemen. En bij een koeling kan je ook maar tot zo ver gaan.
Als je kijkt hoe kolossaal CPU koelers nu al zijn, dan kan je bij nog hoger stroomverbruik zometeen een nieuw kast ontwerp moeten gaan maken om e.e.a. nog dusdanig te koelen zodat de soldeertin op het mainboard niet smelt.
En hogere spanning betekend hoger stroomverbruik (de weerstand in een halfgeleider blijft gelijk) dus meer vermogen wordt de CPU ingepompt en dus zal de temperatuur ook toenemen.[...]
De "weerstand" blijft ook nog eens niet gelijk.
De lekstroom is namelijk ook een stuk groter bij hogere temperaturen en dus bij hogere frequenties en spanning.

Puur gelet op het aantal schakelingen van registers, dan is het energieverbruik lineair met de frequentie.
Per cycle van een condensator in een register heb je N joules aan energie nodig om 'm op te laden en dat gaat weer weg als die condensator leeggetrokken wordt.
Dus hogere frequentie wil zeggen vaker N joules aan energie om een bitje te zetten.

Hogere frequentie is dus hogere stroom omdat je vaker een bitje moet zetten.
Hogere stroom betekent hogere temperatuur (want verliezen door weerstand van geleiders)
Hogere frequentie betekent hogere spanning nodig om de klok een mooie blokgolf te houden.
Hogere spanning betekent hogere stroom en dus hogere temperatuur.

Dat bij elkaar geeft een bijna exponentiële toename in energie bij hogere klokfrequentie.

De enige manier om de frequentie dus omhoog te krijgen is de noodzaak voor hogere spanning weg te nemen.
Dat kun je doen door minder per kloktik te doen, zoals de Pentium4 deed. (N.B. bepaalde delen van de P4 draaide al op 2x de klokfrequentie) Of je zorgt dat de hele chip niet dezelfde klok hoeft te hebben. Dus dan ga je naar een klok-loos design. Dat is echter niet zo simpel, dus ik denk dat we daar nog wel een jaar of 10 op moeten wachten.
Dan kunnen we sneller, zonder er een GHz-label aan te kunnen hangen ;)
Omdat de CPU tegenwoordig bij normaal gebruik de bottleneck niet meer is. Vaak is dit de HDD (waar nog geen gebruik gemaakt word van SSD's).
Wat je zegt, klinkt heel erg logisch maar praktisch gezien zit je er bijna een factor 20 naast. Een SATA3-SSD doet maximaal 600MB/s doorvoer; de communicatie tussen CPU & DDR3-RAM loopt "ongeveer" op 12GB/s. De bottleneck is inderdaad het opslag-device maar ook de bus waarover de data wordt verstuurd.

Door de introductie van M.2 SSD's en tegenwoordig ook meer PCI-e SSD's, zie je de doorvoer van deze SSD's oplopen tot "ongeveer" 1.5GB/s afhankelijk van de investering die je erin wil doen. Dan zit je nog steeds op een factor 8 tussen SSD en RAM.
Ik draai al jaren een FreeBSD-systeem dat van USB-stick boot, alles naar een RAM-disk gooit en het bootmedium vervolgens weer los laat. De bottleneck hier ligt volgens mij bij de (malloc-based) filesystem-layer voor die RAM-disk of de kernel<->userland data-overdracht. Echt heel veel sneller dan mijn SSD-tje is het niet, alleen bij beroerd geschreven programma's die de hele tijd disk access nodig hebben.
Een voordeel is dat je je OS nooit meer hoeft te installeren, wat eigenlijk ook nergens op slaat.

[Reactie gewijzigd door blorf op 23 juli 2024 02:36]

Anoniem: 67950 @MAX340021 juli 2014 11:53
Als men non-volatile geheugen ontwikkeld dat net zo snel is als het huidige geheugen voor gebruik in SSD,s dan zou er helemaal geen bottleneck meer zijn. Sterker nog, de externe opslag zou dan vervangen kunnen worden in interne opslag, als werkgeheugen.

Ik zien de SSD trouwens niet als de echte bottleneck. Een game 'laden' wanneer men genoeg intern geheugen heeft kost weliswaar een paar seconden maar daarna ben je toch echt overgeleverd aan wat je CPU i.c.m je GRAKA presteert.
Een goed voorbeeld hoeveel sneller RAM is tegenover een SSD is wanneer je bijvoorbeeld BF3 speelt en je de game voor het eerst start. je bent dan bijvoorbeeld 20 sec aan het laden met een snelle SSD. speel je vervolgens de volgende pot dezelfde map. dan laadt deze binnen 3 seconden opnieuw in.

Het zou mooi zijn als we ooit betaalbare ssd's gaan zien met de snelheid van DDR3 RAM. Maar ook vind ik het soms vreemd waarom games en andere zware programmas soms dom lijken om te gaan met geheugen. Stel je hebt 32 GB ram geheugen. Als ik dan BF3 opstart dan zou deze theoretisch gezien zowat de hele game in de RAM kunnen laden zonder problemen. Vervolgens zou ik ongeacht welke map ik ga spelen deze binnen 3 seconden moeten kunnen laden. Als onder het spelen op de achtergrond de game wordt ingeladen in de ram dan merkt de gebruiker er niets van. Ook zou de game kunnen communiceren met de server en alvast opvragen welke game data er na de huidige speel sessie nodig is en deze op voorhand inladen. waarop je niet steeds een minuut zit te wachten maar game sessies naadloos op elkaar aansluiten.

Ik heb me altijd afgevraagd waarom zo onefficient om wordt gegaan met recources en deze dus niet preloaded zijn maar eigenlijk altijd on demand waardoor je eigenlijk altijd zit te wachten.
Ik denk dat je hier inderdaad wel een punt hebt, Ik heb pas ( jaja ik loop achter ;) ) een SSD geïnstalleerd en dan merk je pas hoe snel een systeem eigenlijk is...
yup nog steeds is plaatsen van een SSD met straatlengte voorsprong de beste "bang for buck" computerupgrade die je kunt doen :)

Als ik het goed begrijp uit het artikel gaat het niet echt om 8 nieuwe processors maar eigenlijk om 8 al bestaande processors, waarvan er 2 een iets lagere TDP meekrijgen en 6 een iets hogere kloksnelheid. Een vrij beperkte update dus!
Dat valt wel mee, Een 3 GHz i3 in bij singlecore toepassingen ook 3 keer zo snel als een p4 3 GHz, niet alle snelheid vooruitgang zit hem in de multie core.
Ach, tien jaar geleden vroeg men zich dat ook al af; sneller gaat gewoon niet lukken met de huidige materialen.
Waarom verandert hier zo weinig ?
Omdat er zo ontzettend weinig vraag naar is. Applicaties die voorheen een snelle single core nodig hadden zijn in de meeste gevallen naar multicore toepassingen omgezet. In de meeste andere gevallen is de huidige single thread snel genoeg, gebruikers merken amper dat iets sneller is. En de applicaties die je overhoud worden relatief zo weinig gebruikt dat de vraag naar snellere procs relatief zeer laag is.
Het grootste probleem zit in de capaciteit van elk onderdeel van de CPU en de kleine stroombanen tussen elk onderdeel. Elke clock cycle moeten deze op spanning gebracht worden en terug naar 0 gebracht worden. Hoe hoger de frequentie hoe moeilijker dat wordt. 4GHz is zowat de grens dat nog zinvol is zonder al te veel warmte te produceren. Dat zal in de toekomst wel nog iets hoger kunnen met de huidige CPU techniek maar niet veel meer. Voor nog hogere frequenties zal een andere techniek moeten gebruikt worden (optisch?)

http://www.tomshardware.c...0325-28-limit-clock-speed
Simpel, AMD levert nauwelijks nog concurentie.

Toch ben ik al blij dat deze nieuwe CPU's sneller zijn de oudere die ze opvolgen voor dezelfde prijs. Zo is er toch nog een heel klein beetje vooruitgang in de desktop CPU markt.

Wel jammer dat het altijd van AMD moet komen voordat er grote vooruitgang wordt geboekt in prijs/prestaties. Logisch mischien omdat ze de kleinere speler zijn die marktaandeel probeert te veroveren. Sinds Sandy Bridge is er bij Intel eigenlijk geen vooruitgang geboekt.
Anoniem: 26447 @Titan_Fox21 juli 2014 11:11
Misschien omdat men de natuurlijke barrière heeft bereikt van het kleiner maken, op een zeker moment houdt het gewoon op :)
Goh 30 jaar geleden hoorde ik ook zo iets gezegd worden. 20 jaar geleden ook en 10 jaar geleden ook.

En toch is men in de HPC elk jaar weer stuk sneller :)
We gaan niet boven de 4 GHz omdat we dit simpelweg niet kunnen. Dit zou teveel warmte genereren om met de gebruikelijke middelen te koelen en de huidige stoffen waarmee processors worden gemaakt zijn hier ook niet bestand tegen.
We kunnen makkelijk boven de 4Ghz als het maar op een heel klein plekje gebeurt. Productie power6 processoren liepen zelfs op rondom de 5Ghz.

Het vreet alleen enorm veel meer stroom :)
Het draait niet om ghz maar om het aanal instructies dat per clock voltooid kan worden. De p4 zat ook al boven de 3ghz maar had meerdere clocks per instructie nodig, verder een enorme pipline en al met al niet er efficient. Maar marketing technisch deed deze het goed. Blijkbaar zijn er nog (te)veel mensen die alleen kijken naar mhz/ghz helaas en dus nog altijd een technisch zwakkere architectuur zouden prefereren. Het gaat om "instructions per clock". Dat zouden ze er bij moeten zetten ipv ghz en tdp (wat ook al en scheve eenheid is). Heel veel marketing eenheden waarvoor jammer genoeg heel veel mensen gevoelig zijn...
het gaat wel om de ghz en mhz hoor. Hoe wil je anders een AMD processor net zo snel draaien als een vergelijkbare intel van tegenwoordig? :9
Wat ik begrepen heb is men tegen een muur opgelopen is met kloksnelheden. Intel had het idee met zijn NetBurst processoren om heel snel te kunnen opschalen naar wel 10GHz, maar veel verder dan 4.5GHz zijn ze uiteindelijk niet gekomen. De IPC van de NetBurst architectuur lag lager dan bij AMD, maar men verwachte dat goed te maken met hogere kloksnelheden. Daarom kwam ook uiteindelijk de trend van de multicores en moest men als een dolle op een nieuwe architectuur overschakelen. Omdat de single-cores niet sneller wilden, begon men meer cores op een voet te plakken.

Waardoor veel sneller dan 4.5GHz op luchtkoeling niet mogelijk is weet ik niet. En met de huidige trend van meer cores en zuinigheid en door het gebrek aan concurrentie van AMD verwacht ik ook niet dat er heel veel R&D resources op dat gebied vrijgemaakt worden.

[Reactie gewijzigd door Killer op 23 juli 2024 02:36]

De netburst architectuur had een veels te lange pipeline, wat grote problemen oplevert bij een verkeerde branch prediction (zie http://www.pcper.com/news...-CPU-architectures-tested). Wat ze bij netburst deden was om 1 taak die normaal 1 klokslag van 0,8 GHZ gedaan werd, om te zeteen naar een 3 taken die in 3 Ghz gedaan werden. Effectief win je daar niet zoveel mee als dat het op basis van kloksnelheid lijkt.
Klopt. Het voordeel van een langere pipeline is echter dat je makkelijker op hoge snelheden kunt draaien. Dan maakt het niet meer zoveel uit als de processor per klokslag wat minder efficiënt is dan 1 met een korte pipeline, omdat je verwacht veel hogere kloksnelheden te kunnen draaien. Maar om de 1 of andere reden lukte dat Intel niet, terwijl ze dit wel verwacht hadden. AMD kon qua kloksnelheid redelijk meekomen met een kortere pipeline, waardoor hun processoren in die tijd sneller waren dan die van Intel. Het kleine verschil in kloksnelheid werd goedgemaakt door de hogere IPC van de AMD processoren.

Intel heeft toen een tour-du-force uit moeten halen om weer om te schakelen van architectuur. In Israël was men nog bezig met de doorontwikkeling van de oude Pentium-architectuur, voornamelijk voor mobiele toepassingen. Deze architectuur heeft men weer omarm en zo zagen de eerste Core processoren het licht, met een korte pipeline en geen extreem hoge kloksnelheden, maar met een goede IPC, waardoor ze weer mee konden met AMD en ze zelfs voorbij konden steken.
Toch zou ik eerder een AMD A8-5600K kopen dan een Core i3-4370. Je levert wel wat in op CPU-prestaties maar krijgt er een betere GPU voor terug. Bovendien kost de A8 grofweg de helft en zijn de moederbordjes veelal goedkoper, dus ben je lief voor je portemonnee. Het bespaarde geld kun je dan in een leuke SSD investeren.
Ik denk dat het maar net is wat je ermee doet, als bij jouw CPU power belangrijker is dan GPU dan neem je Intel en anders andersom. En bij velen is het ook een onderbuik gevoel van "ik moet Intel omdat...". Dat is vaak dan nog ingegeven door het verleden..
Het aantal gamers vs het aantal non-game PCs is enorm, dus in veel gevallen wordt er gekozen voor een Intel. In de gevallen waar GPU belangrijk is wordt meestal alsnog gekozen voor een aparte GPU en dus voor de CPU alsnog een Intel...
In de consumentenwereld misschien, maar in de zakelijke SFF desktops zul je eerder de i3 vinden, zoals in de dell optiplexen en hp elite SFF's. De reden hierachter is o.a. de CPU performance, een Haswell i3 3.8GHz biedt een hele pak meer performance voor de standaard bedrijfsapplicaties, nu en ook over 3 a 5 jaar., vergeleken met zo'n AMD A8-5600K, die eigenlijk alleen beter is voor multimedia toepassingen. Voor een HTPC'tje is zo'n A8 dus ideaal, voor een zakelijke desktop (=grotere markt) niet.
Is het niet omdat silicium op zijn maximum waarde zit of zoiets?
Nee, dat is het niet. Wel de electronmobility.
Deels heb je gelijk, al is de snelheid van een enkele core natuurlijk niet alleen afhankelijk van de kloksnelheid. Verder stel je dat de meeste software voor single core is geoptimaliseerd, het is eerder denk ik zo dat veel software niet voor meerdere core's is geoptimaliseerd.
Waarom de snelheid niet veel hoger gaat snap ik ook niet helemaal, terwijl het op zich niet een heel groot probleem is om ze sneller te clocken, zie onze actieve tweakers.

Ik kan me herinneren dat de 3ghz grens ook wel een poosje heeft geduurd..
Core i3-4370 met 54W TDP
Nu is dat misschien niet zijn werkelijk opgenomen, eerder koelingsrichtlijn, maar dat is me wel een vieze dualcore!

Verder zijn de MSRP's wel aan de hoge kant.
De kloksnelheden zijn WEL toegenomen

Al zie je het niet direct.

http://www.anandtech.com/bench/Product/92?vs=551

Bijv. moderne i7 3770K (3.5 GHz) heeft 3 keer meer perfomance op single thread (niet volledig gebruiken 1 van 4) dan Pentium 4 660 (3.6 GHz), 6 jaar geleden uitgebracht.

Wanneer je in rekening neemt dat meeste programma's multithreaded zijn, dan is de stijging in performance significant.
Bedoel je niet single-core performance in plaats van kloksnelheid?
Zover ik weet zijn er nog niet erg veel programma's die (goed) multi-core / threaded kunnen werken.
Er zijn zelfs nog steeds veel teveel games die nog single core geprogrammeerd zijn.! Meestal omdat "goede" multi-core implementatie voor velen nogsteeds te moeilijk te programmeren is of gewoon te duur. Dus slaan ze dat maar over. Daarom draaien veel "oudere" single / dual core pc's met hogere processor snelheden nogsteeds veel programma's en games beter dan de nieuwe cpu's.

Dus al deze nieuwe mult-core cpu's zijn imho nog een beetje teveel van het goede. Laat ze eerst de ondersteuning en het programmeren voor multi-core en hyper threading verbeteren.!
Sinds de dual en quad cores van 6 jaar geleden is de CPU de bottleneck al lang niet meer. Het enige wat deze snellere processors doen voor de modale thuisgebruiker is ze een maand of 2 extra geven voordat hun computer versleten is (traag door crapware of een habitat voor stof) en ze een nieuwe aanschaffen of een herinstallatie laten doen.
Voor een cheapo gamerig is de G3258 onverslaanbaar. Ding draait op 4.8GHz / 1.375V en dat op ongeveer 120 watt / 65 graden. Daarmee kun je wat betreft gamen gewoon mee komen met de duurdere i5/i7 qua performance. Wil je er andere zaken mee, encoden enzo moet je een andere CPU nemen maar gewoon puur om cheapass goed te gamen+wat licht desktopwerk is er echt niets beters :D

Op dit item kan niet meer gereageerd worden.