Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 134, views: 47.943 •

Het record van de hoogste kloksnelheid van een processor is dit weekend op 8,3GHz gezet. Vrijdagavond werd door overklokker TaPaKaH een Intel Celeron-processor van de standaardsnelheid van 3,2GHz naar 8,3GHz geklokt.

De singlecore Celeron D-processor werd in handen van overklokker TaPaKaH tot een wereldrecord overgeklokt. De op 65nm geproduceerde Cedar Mill-processor werd in een Asus P5E3-moederbord gestoken en met vloeibare stikstof gekoeld. De in 2006 geïntroduceerde processor tikt normaal op een kloksnelheid van 3,2GHz met een bussnelheid van 133MHz en een multiplier van 24x.

TaPaKaH wist de bussnelheid echter op te schroeven tot 345MHz, waarbij hij de multiplier ongemoeid liet. Dat resulteerde in de recordsnelheid van 8309MHz. De spanning op de core werd daarbij opgevoerd tot bijna 2V. De snelheid is de hoogst behaalde kloksnelheid, hoewel de processor met lga775-voet niet echt courant meer is. Celerons worden echter veelvuldig gebruikt voor recordpogingen: hun kloksnelheden zijn tot ver boven de standaard op te voeren.

Celeron D op 8,3GHz

Reacties (134)

Reactiefilter:-11340132+185+28+30
Gaat het hierbij puur om de overclock? of zitten er ook nog wat benchmarks aan vast?
Dit gaat duidelijk puur om de kloksnelheid, en het record. Omdat dit een singlecore celeron D is, zal je al snel met een high-end processor veel betere resultaten krijgen.
http://www.youtube.com/watch?v=hy3N-e5Hf8A (zap door naar 3:13)
Hier zie je zijn SuperPi 1M score van ~ 19.454 seconden op 8142.6 MHz
Maar het gaat hem natuurlijk om de hoge clock die hij behaalt, niet om de benchmarks van deze oude processor.
paar leuke stickertjes op z'n scherm xD zal een hoop processors gesloopt hebben dan? :)
nope, maar wel veel binning gedaan om tot deze cpu te komen.
Veel cpu's testen tot er een tussen zit die het net doet.

Hij zou nog horen kunnen , ligt eraan hoe cpu reageerd natuurlijk met 2.04Vcore.
dat is max met Vmod en OVP mod op mobo dat je kunt halen.
idd, mijn sandy bridge 2600k (standaard geklokt) op een halve core (hyper threading staat aan) haalt het in 10.6sec
Deze overclockers willen puur laten zien dat het mogelijk is om een erg hoge klok snelheid te behalen. Echter is de kloksnelheid lang niet zo belangrijk meer bij hedendaagse nieuwe processoren.
halve core? lol ten eerste zijn er meerdere rekeneenheden in een core. Bij de 2600k zijn dat er maar liefst zes die vrijwel nooit allemaal tegelijk gebruikt kunnen worden door één thread. De hyperthreading functionaliteit zorgt ervoor dat een tweede thread die eventueel wel kan gebruiken. Daarbij is het idd zo dat dat één van die, of beide threads minder presteren dan als ze de gehele core voor zichzelf hadden gehad.
Maar ten tweede is dit hele verhaal enkel van toepassing als er überhaupt threads zijn die rekenwerk te doen hebben. En tenzij je nog een heleboel andere dingen aan het doen was lijkt het me sterk dat dit het geval was tijdens je benchmark run.
Wat is precies het punt dat je wil maken? :/
Echter is de kloksnelheid lang niet zo belangrijk meer bij hedendaagse nieuwe processoren.
Wat ik probeer te zeggen is dat in tegenstelling tot oudere cpu's, nieuwere cpu's liever het werk willen opsplitsen aangezien een hoge kloksnelheid moeilijk (stabiel) te behalen is.
vroegah kon je gewoon als fabrikant de klok wat hoger gooien en het verschil met een lagere klok viel gelijk op bij een gemiddeld programma.

hoe komt dat ook alweer? dat komt door pipelines in de hedendaagse superscalar processoren. hoe meer hoe beter. en idd het ligt aan het type programma of dit allemaal veel sneller gaat aangezien niet alle instructies van een programma zo zijn gerangschikt dat ze het allemaal kunnen pipelinen.
Daarom hebben ze ook nog threads, waarbij de programmeur zelf iets kan verzinnen om iets sneller te maken.

Aangezien elke huidige cpu, zelfs de celerons, superscalar zijn mag ik gerust spreken van een core en een halve core als deze word opgesplitst door het hyperthreading truukje.

Tevens raad ik je aan om dit te lezen.

Voor de mensen die wat dieper in willen gaan op de ontwikkeling van de microprocessor is dit wellicht leuk leesvoer.
Hyperthreading werkt, omdat in een moderne CPU elke core het grootste gedeelte van zijn tijd spendeert met wachten op het geheugen dan wel de cache. Hyper threading benut die verloren tijd door terwijl de ene thread aan het wachten is een andere thread aan het werk te zetten. Dit in combinatie met out-of-order execution zorgt voor een optimalere benutting van je processor.

Van een halve core spreken is echter onzin, de hyper threading in de moderne Intel CPU's is zo ingericht, dat wanneer een thread elke cycle van een core kan gebruiken, dat ook gebeurd. Dat is juist het fijne aan hyper threading, op het moment dat je minder threads dan cores hebt kun je nog steeds volop gebruik maken van overtollige resources.

De vooruitgang in moderne processors zit veel meer in efficientere instructies, betere prefetchers en branch predicition, en uitgebreidere SIMD mogelijkheden (ahoewel ik niet weet of superpi die benut). Daarnaast heeft de celeron maar 1 core waar hij naast SuperPi ook alle systeem processen draaiende op moet houden.
Van een halve core spreken is echter onzin, de hyper threading in de moderne Intel CPU's is zo ingericht, dat wanneer een thread elke cycle van een core kan gebruiken, dat ook gebeurd. Dat is juist het fijne aan hyper threading, op het moment dat je minder threads dan cores hebt kun je nog steeds volop gebruik maken van overtollige resources.
zover ik weet moet het programma compatible daar mee zijn, anders zal hij een halve core gebruiken, wat windows dan ook aangeeft.
Superpi draait maar op 12% dus ja... :P
dit klinkt wel zo en wordt zo weergegeven maar is een vertekend beeld.
windows ziet dat core 0 volledig bezig is, en tekent die core op 100%
verder merkt windows dat er nog 7 andere cores zijn, telt op en deelt door 8.
windows weet niet dat core 1 resources deelt met core 0 en gaat ervanuit dat deze allemaal gelijk zijn,

er zijn echter wel een optimalisaties toegepast, taken worden bijv hyperthreaded quadcores automatisch als eerst verdeeld over de even cores, core 0-2-4-6, waardoor er geen resources verdeeld worden,

overclockers zetten overigends vaak wel hyperthreading uit aangezien het relatief veel stroom gebruikt en dus een hogere overclock tegen kan houden, echter hyperthreading aan of uit zou marginale impact moeten hebben op SuperPi, zolang er niets anders draait.
Mja, dat beweert intel ja.
Opzich vind ik hyperthreading een mooie techniek, en het kan met veel threads zeker een snelheidsverschil opleveren omdat windows dan minder process-switching hoeft te doen aangezien dit al voor een groot gedeelte word opgelost op hardware niveau.
Echter, als ik een benchmark singlecore draai met hyperthreading aan of uit zie ik toch wel de helft verschil in scores.
Daar laat ik het bij.
Dit valt me ook op, maar ik denk dat die 12% in werkelijkheid 25% moet zijn, echter kan windows niet herkennen dat de tegenhangende code eigenlijk ook voor 12% werkt.
@wootah
Als dat waar zou zijn dan zou het inschakelen van hyperthreading dubbele prestaties geven tov geen hyperthreading. Dat is natuurlijk onzin...

Windows laat natuurlijk virtuele cores zien en dat zegt dus niet 1 op 1 iets over het hardwarematige verhaal...

Overigens kan HT voor gaming zelfs negatief uitpakken.

http://www.hardwarecanuck...-processors-review-6.html
Het is misschien geen 100% correcte term maar Ik begreep 'em wel met z'n halve core.
Hyperthreading werkt, omdat in een moderne CPU elke core het grootste gedeelte van zijn tijd spendeert met wachten op het geheugen dan wel de cache. Hyper threading benut die verloren tijd door terwijl de ene thread aan het wachten is een andere thread aan het werk te zetten. Dit in combinatie met out-of-order execution zorgt voor een optimalere benutting van je processor.
is niet juist wat je zegt.
Wat als je cpu op alle core laat zeggen 2600k 4c/8t op 8treads laat werken 100%, waar zijn dan je verloren tijd en verdeling op treads? terwijl hij wel bijna 200% van zonder HT aan doet?
zo'n CeleronD op 3,2GHz is qua prestaties zeer matig
2,5 x matig zal nog steeds vrij matig zijn vrees ik
elke Conroe of nieuwer maakt er gehakt van
Het gaat hier ook niet over de prestatie's, maar dat hij z'n hoge clock snelheid heeft gehaald.
Zijn er ook benchmarks van deze prestatie?
8,3 Ghz klinkt veel, maar veel zegt het me niet
Bij een benchmark zal deze cpu het flink afleggen aan de nieuwe cpu's, het gaat meer om de overclock
Leuk, maar kan het ook Battlefield 3 maximaal draaien op 64man servers? :+
Is 2 volt eigenlijk niet gigantisch hoog voor een overclock? Ben er niet zo in thuis, maar die dingen zitten normaal toch rond de 1,2 ofzo, niet?
Ja, dat is ook bizar veel, maar dit soort setups zijn ook echt niet gebouwd voor 24/7 clocks en in de regel boeit het zo'n overclocker geen reet of z'n CPU het wel of niet overleefd (want ze hebben er vaakt toch een doos van vol als ze serieus willen kijken welke de beste is).
ja, maar het voordeel van een celeron is dat er enorm veel cache (hardwarematig) is uitgeschakeld en dat enkel de goeie cache overgehouden is, daardoor kan het zijn dat de cpu stabieler is op hogere snelheden, maar minder performant is, net omdat cache zoveel invloed heeft op de prestaties
goeie god 2v

die chip zal nu wel fried zijn...

mooie prestatie zou er graag wat foto's ed van zien

EDIt: @ hyper ach 2v is toch wat, normaal zitten chips tussen de 1.2-1.5v dat is dus wel even een verhoging die 30% die fataal kan zijn...

[Reactie gewijzigd door larsg op 21 augustus 2011 13:41]

Nee hoor die chip werkt waarschijnlijk nog prima, de processor word immers gekoeld tot ver onder nul. Waarschijnlijk een graad of -160 ~ -180.

Edit.
Heb net even gekeken naar zijn hwbot screenshots en hij koelde de processor tot -183 graden.

[Reactie gewijzigd door Ragdoll op 21 augustus 2011 13:46]

Chips heb je in allerlei vormen, smaken, en werk-spanningen. De eerste P4's werkte bijvoorbeeld standaard nog op 1.7-1.8V, maar elke nieuwe node brengt ook een lagere spanning met zich mee.

Hoewel de Cedar Mill processor inderdaad standaard rond de 1.3V zat, hoeft een verhoging naar 2V absoluut niet fataal te zijn. Dat zit nog ver onder de break-down spanning van dit soort CMOS structuren. Het grootste probleem met een hogere spanning is dat het vermogen gigantisch toeneemt, wat een hogere temperatuur tot z'n gevolg heeft.
Inderdaad, en vergeet daarbij niet dat de oude AMD AthlonXP's ook niet echt bepaald op een lage spanning werkten (en als je nog meer terug gaat in de tijd dan was 2V op CPU zetten niet abnormaal).

Trouwens, ik heb op mijn Barton XP 2500+ eens 2,25V gezet en 'k heb zelfs een tijd op 1,95V gewerkt en die CPU werkt nog altijd naar behoren.

Klein detail: er zijn inderdaad wel P4s die last hadden van het sudden-death-syndrome, maar dat kwam door chemische reacties in de CPU vanaf een bepaalde VCore werd overschreden.
Vergeet niet dat deze Celeron D op 65nm gemaakt is. 2V is in dat opzicht wel erg veel terwijl een 130nm (en zeker 180nm!) Athlon XP daar niet zoveel moeite mee heeft. Er spelen natuurlijk wel meer factoren een rol in dit opzicht maar alsnog is 2V erg veel voor deze Celeron D.

De NSDS trad bij 130nm 'Northwood' (Pentium 4 en Celeron op voornamelijk S423) op zodra er een te hoge vCore gebruikt werd.
Pfft, 2 Volt? Kijk eens naar een voeding: die levert 5 Volt en 12 Volt. Vroeger liepen de CPU's gewoon op die 5 Volt. IIRC begon de spanningsverlaging pas met de Pentium 1, die spreekwoordelijk heet was (AMD heeft nog eens laten zien hoe je een ei bakt op een Pentium - 60 Watt ! :P )
meer clock snelheid, om dat te laten werken meer stroom en spanning nodig.
dus Vcore omhoog, tot een punt dat hij eigenlijk zou verbranden, maar dan gaan ze gebruik maken van supergeleiding van metalen door de extreme koude van -170°C errond.

Door de koude zal hij niet verbranden en zal intern de cpu signalen bits 0 en 1 tjes beter versturen en kan hij blijven werken
Op weg richting de magische 10GHz! :9

Ik vraag me af wat huidige generatie processoren op een kleiner procedé zouden kunnen halen zonder de restricties die er tegenwoordig opzitten wegens ingebouwde controllers etc.
Ik weet niet of de 10GHz ooit gehaald gaan worden. Je gaat op die snelheid namelijk geen stroompjes meer schakelen, maar bijna aparte elektronen. Die zijn zo klein dat ze praktisch niet meer te meten zijn...

Ik denk dat processorfabrikanten meer met parallelle bewerkingen gaan werken om zo meer berekeningen uit 1 cpu te halen. Maar een goeie 2GHz zou wel een aardige snelheid zijn denk ik, in combinatie met een hele hoop parallelle processors is hier een hele hoge rekensnelheid te halen...
Het gaat dan ook om het idee wat meestal van toepassing is bij dit soort overkloks en niet of het praktisch haalbaar is. Inderdaad word er meer ingezet op parallel rekenkracht en niet puur op kloksnelheid.

Intel predicts 10GHz chips by 2011:
Grappig stukje hier overigens!
ErikF zat er niet ver naast overigens:
Personally, I think there will be problems making microprocessors go as fast as Moore's law would predict, due to RF interference generated by the ever shorter wavelengths of the data pulses internal to the processor, and due to excessive heat. My ideal view of a future computer would be massive multiprocessing – say, multiple 10-GHz chips each with their own memory and bus, working in parallel or each of them running different programs when I am multitasking.
De 10 GHz is natuurlijk overdreven, maar hij had als een van de weinige in dat draadje wel door dat je niet oneindig lang gigahertzjes kunt blijven tellen.
10GHz is dus vrij onmogelijk? Dat valt tegen !

In termen van GHz is het een beetje stilgevallen sinds 2005. Op zich zijn extra cores allemaal leuk, maar voor heel specifieke zaken die niet te paralleliseren zijn heb je toch extra snelheid nodig.

Voorbeeldje: live video monitoring.

Het continu vergelijken van opeenvolgende beelden van een videostream om beweging te detecteren. Op een Phenom II X4 905e 2,50Ghz duurt het vergelijken van 640p beelden nog tot 50ms. Zo'n vergelijking van de pixels loopt over één core, zoiets opsplitsen is moeilijk en zou meer werk kosten om alles weer bijeen te brengen vermoed ik. Of zo'n programma op een GPU kan lopen misschien wel, maar de software spreekt al de directe API's (GDI+ lockbits) aan. Als er dus een stream gemonitord wordt, wordt één core volledig belast. Door de 3 andere cores kan ik tegelijkertijd nog Modern Warfare of DNF spelen of 1080p HD film kijken, maar soms had ik liever gewoon een snellere CPU gehad om meer te doen op minder tijd.
Waarom de 10GHz niet gehaald kan worden is best simpel.

Lichtsnelheid = 300.000 km/s
1 Klokcyclus = 1 / 10.000.000.000 = 0,1 nanoseconde

De afstand die licht aflegt in 0.1 ns = 10-10 * 3*108 = 0,03m = 3 cm.
Als je je bedenkt dat de grootte van een hedendaagse processor in de buurt komt van 3cm, kun je je voorstellen dat electromagnetische straling gewoon te traag is om een 10GHz processor bij te benen.
De 3 cm is nog best veel hoor. Als je E-microscopische images bekijkt zie je dat het "bereken" gedeelte van de processor slechts een klein gedeelte van de processor is. Bovendien is 3 cm de heatspreader die je ziet. De chip daaronder is een stuk kleiner. Chipoppervlakten voor een i7 920 is bijvoorbeeld 263mm^2. 3 cm afleggen zal dus moeilijk worden :)
Ik heb het over de die. Als je je bedenkt dat de lichtsnelheid in de die zelf fors lager is dan in het luchtledige en dat de stroom tijdens één klokcyclus een bepaald traject aflegt in de die, dat langer kan zijn dan de diagonaal van de die, dan is het best mogelijk dat de kloksnelheid daardoor beperkt wordt.
Ik heb het over de die. Als je je bedenkt dat de lichtsnelheid in de die zelf fors lager is dan in het luchtledige en dat de stroom tijdens één klokcyclus een bepaald traject aflegt in de die, dat langer kan zijn dan de diagonaal van de die, dan is het best mogelijk dat de kloksnelheid daardoor beperkt wordt.
Maar elektrische signalen zijn geen lichtpulsen maar elektronen die elkaar aantikken. Dat gaat in het luchtledige (dwz in afwezigheid van vrije elektronen) juist heel wat trager dan in silicium. :)

[Reactie gewijzigd door Aham brahmasmi op 21 augustus 2011 19:31]

Sneller dan in het luchtledige kan niet. Gelukkig maar anders waren satelliet verbindingen nog trager.
Terechte oplossing, maar moderne CPU's hebben "klokdomeinen". De die is onderverdeeld in kleine stukjes (domeinen). Alle domeinen lopen wel synchroon met dezelfde klok, maar communicatie tussen 2 verschillende domeinen wordt niet binnen 1 klokcyclus afgehandeld. Dat wil zeggen dat data verzonden op kloktik T pas gebruikt kan worden in kloktik T+1 (ideale geval) of T+2 (iets verder weg). Dit kun je natuurlijk nog verder schalen.

Main memory ligt vaak vele centimeters verwijderd van de CPU, dus we hebben al heel lang ervaring met communicatie die niet "instantaan" (in dezelfde kloktik) is. Je ziet ook aan moderne CPU's dat ze deze klokdomeinen kunnen gebruiken om sommige cores in sleepmode te zetten. Dat zou niet lukken als de hele chip 1 klokdomein wass.
De die (feitelijke processor) is maar een vierkante centimeter, de heatspreader + contacten is idd bijna 3 cm

[Reactie gewijzigd door Asteryz op 21 augustus 2011 15:06]

Lol

Gelukkig is 8.3 Ghz wel al gehaalt, waarbij ik precies jouw "bewijs" kan gebruiken en toch is het gebeurd.

Een signaal hoeft gelukkig helemaal niet van de ene kant van de CPU naar de andere binnen 1 clockcycle, in een gesynchroniseerde processor hoeft een signaal alleen maar te schakelen van de ene stage naar de volgende stage in de pipe-line binnen 1 cycle.

Als de berekening voltooit is, dan is het helemaal geen probleem (alhoewel, liever niet natuurlijk) dan het 10 of zelfs 100 cycles duurt voordat het antwoord in een register staat.
Als de processor de lichtsnelheid benaderd gaat de klok juist trager lopen.
Wat maakt het nou uit dat het "qua GHz" een beetje is 'stilgevallen'?
Zolang het aantal instructies per clockcycle maar omhoog gaat heb je nu per saldo een (veel) snellere cpu in je systeem zitten!
De snelheid omhoog gooien is totaal onlogisch. Stel je een CPU voor op 1hgz. Als je de clock wilt verdubbelen moet het voltage omhoog, laten we zeggen, 30% hoger. Dan verbruik je (P = f * U2) 3.38x zoveel stroom. Bij een verhoging van de kloksnelheid gaat je efficientie dus gigantisch omlaag.

Bij meer cores heb je dit probleem niet, je kan in principe een tripplecore maken op 1ghz die zuiniger is dan bovenstaande singlecore, het is niet moeilijk om te bedenken welke sneller is.
heel erg vermulticoren gaat niet altijd. Als het antwoord van berekening 1 de input van berekening 2 is heb je niets aan de rest van je cores. Goed programmeerwerk kan dat tot een minimum beperken, maar helemaal uitbannen zal nooit lukken.
GPU's leunen juist heel erg zwaar op multi-threading software.
GPU's hebben veel paralelle verwerkingseenheden, dat heeft weinig te maken met threading.
euh, beeldverwerking is net wel paralleliseerbaar, je past constant dezelfde operatie toe op een groep subpixels in een of meerdere figuren

stel, ik wil een gekleurd vierkant tracken (= ik weet het staan op een beeld, nu moet ik het vinden op het volgende beeld)

dit gaat bijv met pattern recognition, je detecteert eerst randen, daarna vormen. randen vind je lokaal in de figuur door een overgang in intensiteit. Als je wilt kun je elke pixel apart gaan bekijken (=sequentieel) of die deel uitmaakt van een rand, maar aangezien dit voor elke pixel apart kan gebeuren, kun je het evengoed allemaal tegelijk doen (=parallel).

ter info: twee simpele manieren zijn zero-crossings van de laplaciaan detecteren of gradientvector maximaliseren

jouw live video monitoring is op dezelfde manier te behandelen: je wil beweging detecteren. simpele manier is om elke pixel te volgen in opeenvolgende beelden: je moet hem gaan terugzoeken. Dit gebeurt op basis van intensiteit van de pixel zelf, en met een kostfunctie op de correlatie van de neighbourhood van pixels. Allemaal paralleliseerbare operaties.

het wordt minder leuk als je niet-lineaire filters wil gebruiken, maar deze kunnen nog steeds lokaal op een groep subpixels worden toegepast en dus verdeeld over meerdere threads.

Kortom: in theorie gaat het, in praktijk is het lastig (omdat programmeren voor een parallelle architectuur gewoon nog niet mainstream is, of toch nog niet ingeburgerd). Maar het komt er wel, enkel nog ff wachten
Programmeren voor parallelle architecturen bestaat al decennia. Het probleem is (en blijft) dat er veel berekeningen gewoon niet paralleliseerbaar zijn.
meestal spreekt men over een algoritme (dat voor zijn werking berekeningen uitvoert) dat al dan niet parallelliseerbaar is.

Mijn punt was net dat beeldverwerking algoritmes doorgaans dit net wel zijn :+ Het blijft gewoon lastig om te implementeren omdat het meestal een combinatie is van parallel en sequentieel.
Beweging detecteren doen we met background substraction, simpele methode: maak een average beeld over n aantal frames en trek dit af van de huidige, indien een pixel intensiteit meer dan een grenswaarde overschreid maakt deze deel uit van de voorgrond (=beweging). Er zijn ingewikkeldere algoritmes zoals Mixture of Gaussians (10 feeds van 1080p/15fps op één top model gpu, MoG). Review of Background Substraction Methods.

Het is eigenlijk wachten todat libraries voor beeldverwerking zoals OpenCV gebruik maken van OpenCL.

[Reactie gewijzigd door analog_ op 21 augustus 2011 20:04]

Ik weet wel hoe ik beweging moet detecteren. Ik doe het op de meeste simpele/effectieve manier. Elke frame die te weinig verandering heeft, wordt weggegooid, de andere gesaved op disk. Momenteel draait de cam op 9fps, 2M frames analysed, 4,26% saved.

Elke frame moet vergeleken worden met de vorige. Dat doen we op basis van 3 eigenschappen:

1. pixel per pixel het kleurenverschil van de RGB waarden
2. het totale aantal verschillende pixels
3. de grootte van de verschillende regio's met die verschillende pixels

Voor 1 en 2 zou je de afbeelding in vieren kunnen knippen en er 4 threads van maken. Maar voor 3 is dat een probleem.

Maar hoe kan ik het vergelijken paralleliseren? OpenCV of een ander framework gebruik ik niet, ik doe het gewoon zelf. Het kan toch niet de bedoeling zijn om 4 threads per 50ms seconde te maken. Dat zouden 200 threads per seconde zijn?! Of moet ik het anders zien en regelt de G/CPU dan het verdeelwerk.
In termen van GHz is het een beetje stilgevallen sinds 2005.
Dat klopt, en er blijkt uit dat de rek er uit is wat betreft het opvoeren van kloksnelheid.


The Free Lunch Is Over
2004 (updated 2009)
http://www.gotw.ca/publications/concurrency-ddj.htm

The major processor manufacturers and architectures, from Intel and AMD to Sparc and PowerPC, have run out of room with most of their traditional approaches to boosting CPU performance.
...
CPU performance growth as we have known it hit a wall two years ago. Most people have only recently started to notice.
CPU performance growth as we have known it hit a wall two years ago.
En toch is de snelste standaard server processor qua Ghz (nl. 5.2Ghz) pas 1 jaar oud: http://engt.co/ivl2sT ;)
Bullshit. Als er iets goed te paralleliseren is is het wel video. Een video afbeelding is namelijk prima op te splitsen in meedere subbeelden. En ja, uiteindelijk moet je de boel weer op een hoop vegen, en moet je rekening houden met effecten aan de randen van de subbeelden, maar dat is ook niet zo moeilijk. Dat jij het niet geprogrammeerd krijgt betekent niet dat het niet kan...
Het is inderdaad de vraag of 10 GHz gehaald zal worden met de huidige silicium-based chips. Door het gebruik van 'nieuwe' materialen, zoals graphene, blijkt het wel mogelijk te zijn om hogere schakelsnelheden te halen. zie ook: http://www.itproportal.co...00ghz-graphene-processor/
Dude, het is een record poging die al 8.3 Ghz aan tikt, wat dus blijkbaar kan met consumenten apparatuur zij het tot het uiterste gepushed.

Als 8.3 haalbaar is, waarom zou 10ghz dan onmogelijk zijn, en we opeens "elektronen" aan het schakelen zijn. Zit die grens volgens jou exact bij 9 Ghz?

Trouwens een transistor wordt normaal gesproken "sneller" als je meer "elektronen" beschikbaar stelt (voltage verhogen = meer electronen per tijd/eenheid die zich verplaatsen)
Dus hoe groter de stroom electronen hoe sneller de transistor en daarmee de processor, tenzij hij door fikt uiteraard en daar is de giga koeling voor.

Het feit is dat met de constante lithographie verbeteringen steeds meer in de buurt komen van transistoren die met slechts een handje vol electronen schakelt. En dat fabrikanten er achter zijn gekomen dan meerdere cores op een lagere snelheid meer werk gedaan krijgen dan een single core op een hogere snelheid terwijl er minder energie voor nodig is.
Maar dat wil niet zeggen dat het niet mogelijk is om een single core verder te pushes tot gigantische snelheden.

Een "ouderwetse" F1 3.0L V10 kon ook 20.000 toeren draaien, dat het in de practijk handiger is om met een twin turbo V8 die slechts op "7000" rpm draait die hetzelfde werk verzet te werken doet niets af van het feit dat het ook kan zonder turbo's/multi-core als de omstandigheden het maar noodzakelijk maken.
Als 8.3 haalbaar is, waarom zou 10ghz dan onmogelijk zijn, en we opeens "elektronen" aan het schakelen zijn. Zit die grens volgens jou exact bij 9 Ghz?
Er is natuurlijk geen harde grens, maar sinds ca 2004 kost het steeds meer tijd om de volgende hogere kloksnelheid te bereiken.
Op een gegeven moment kost het zoveel tijd dat er intussen andere technieken worden ontwikkeld om de performance op te schroeven. Recent is dat multi-core, in de niet al te verre toekomst stappen we waarschijnlijk over op andere materialen en massively parallel CPUs, mogelijk inclusief kunstmatige neurale netwerken voor bepaalde taken.
Vooral voor die massieve parallele CPU's zie je wat mij betreft goed terug in de nieuwe weg die vooral AMD ingeslagen is w.b. de APU. Als er een component zwaar geschikt is voor parallel processing is het de GPU architectuur wel.
Ik denk dat de APU misschien wel een van de duidelijkste tekenen is dat er vooral daarop ingezet wordt.
Je krijgt bij het 'offloaden' van rekenbewerkingen naar simpelere parallele units (zoals in een GPU, maar ook in de Cell) natuurlijk ook meer ruimte om je eigenlijke rekencore een wat ander uiterlijk te geven, en misschien zelfs sneller te maken.
Misschien zou het dan ook niet zo vreemd zijn als we bij een verdere inburgering van de APU weer een steiging in kloksnelheid gaan zien voor de x86 core(s), al dan niet met geavanceerde turbomodi.
Informatie die met behulp van elektriciteit wordt doorgestuurd wordt niet doorgegeven door elektronen, maar door een elektromagnetische golf die in de kabel loopt en de snelheid heeft van het licht. De elektronen in de kabel zelf gaan maar enkele millimeters per seconde vooruit (ogenblikkelijke snelheid ligt veel hoger, 100.000 km/s). Sowieso kun je elektronen ook niet "schakelen" (tenzij je het over de spin hebt, maar dat is in de huidige computers irrelevant).
Die 8,3 GHz is een behoorlijke WOW-factor! Wat ik me afvraag is, als de processor al in 2006 is geintroduceerd, waarom is dit niet eerder gelukt? De 775-socket is al ver op zijn terugreis.
Ik denk omdat de 775 moederborden van tegenwoordig veel meer aan kunnen, vaak was dit toch een struikelblok bij dit soort OC's
@jumpman

Het probleem is dat "record chips" niet voor het oprapen liggen, soms hebben gewone consumenten superchips in huis zonder dat ze dat zelf weten, en die komen pas weer vrij als ze hun systeem aan de straat zetten of op de 2e hands markt. Eerdere clockpogingen met soortgelijke chips kwamen 'maar' tot 8100Mhz bijvoorbeeld en nu na lang zoeken zijn ze tegen een "golden" exemplaar aangelopen die hte nog net even wat beter doet.

Dus het is een combinatie van: kenns van zaken, goede randhardware en veel geluk met het zoeken naar de ultieme chip. Met sponsoring krijgen Oc'ers ook tientallen chips onder handen om de beste er tussenuit te zoeken.

Bij mijn wereldrecord chip liep ik er toevallig tegenaan, wat ik zeg, geluk moet je hebben. ;)

edit: offtopic?? waarom dat nou weer??

[Reactie gewijzigd door millman op 21 augustus 2011 15:26]

In 1 woord: wauw!
Onvoorstelbaar hoe hoog die snelheid is!
De lga775 voet mag dan wel niet meer zo nieuw zijn, maar dit opent wel nieuwe deuren voor processorfabrikanten. Zo kun je aantonen dat processors tot veel meer in staat zijn dan eigenlijk gezegd wordt.
fabriekanten weten al lang dat dit kan( flink overclocken), maar niet alle cpu's kunnen het hebben + niet alle cpu's kunen het 24/7 hebben draaien + je hebt een hele goede koeler nodig, of LN2
Geen enkele chip kan dit 24/7 draaien, naa een tijdje op die voltages en snelheden te hebben gelopen "degraderen" de chips met rasse schreden, zodat je ineens 2,1v nodig hebt om het zelfde resultaat te halen of dat ze ineens tot maaar 7Ghz kunnen komen.

Daarnaast is dit een "validatie" record, op deze snelheid is geen enkele Benchmark gedraait kan ik je verzekeren. Heeft ook geen zin, want echt zoden aan de dijk zet hey natuurlijk niet, een celeron uit 06..
Waarom opent dat deuren? Deze prestatie zegt niks over de headroom die een andere processor heeft. Daarbij hangt de maximale snelheid ook af van het ontwerp. De Pentium 4 en deze Celeron afgeleid is gemaakt om snel te zijn. Intel dacht dat ze met de architectuur in 2011 zelfs CPU's op 10GHz zouden kunnen draaien.
onzin, met een spanning van 2V gaat dat ding veel te snel kapot
dat intel sneller kan is wel geen geheim, maar dan zou AMD snel failliet zijn vrees ik...
overclock goed en wel, maar of dit stabiel blijft betwijfel ik.
Denk dat je niet moet proberen van cpu intensieve berekeningen uit te voeren met zo'n overclock, of toch niet lang in ieder geval
Dat is dan ook totaal niet de bedoeling. Als je intensieve berekeningen wil doen dan ga je over het alemeen niet bezig met stikstof en dan pak je wel een high-end processor zoals de Core i7's inplaats van een 5 jaar oude celeron.
Dit ging puur om het meeste aantal Ghz behalen. Waarschijnlijk houdt de processor deze snelheid dan ook alleen lang genoeg vol voor een screenshot en validatie, als je veel meer gaat doen dan crash'd die geheid. Wat dan ook geen probleem is, want het screenshot is het doel.
Benchmarks op een 5 jaar oude celeron zijn sowieso niet zinnig, puur hoge clocks halen is dat tot op zekere hoogte wel. Zie het als het landsnelheidsrecord. Je kan er niets mee, de auto is normaal gesproken ook totaal onzinnig, maar het is wel een prestatie. Ook gaat het ding net als bij het snelheidsrecord niet lang mee, je kan er van uit gaan dat er geen tweede poging meer mogelijk is met die processor.
Voor een record zijn meestal 2 succesvolle pogingen binnen een uur nodig. (in ieder geval met Guiness records (dus snelheidsrecord))
Blijft helaas een Celeron

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneiPhone

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013