Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 66 reacties
Bron: NordicHardware

Zweedse overklokkers zijn er in geslaagd om de 5GHz-grens met een Core 2 Extreme X6800 te doorbreken. Normaal gesproken doet deze processor zijn werk op 2,93GHz bij een voltage van 1,34V. Door het voltage echter naar 1,73V te verhogen en met behulp van vloeibare stikstof de processor naar -125°C te koelen was het in eerste instantie mogelijk om 4,95GHz te bereiken. Meer zat er niet in omdat de snelheid van de FSB in het BIOS van het gebruikte Asus-moederbord niet hoger dan op 450MHz (1,8GHz effectief) kon worden ingesteld. Asus was echter bereid om een speciaal BIOS voor de Zweden te ontwikkelen waar deze limiet naar 500MHz werd opgehoogd. Gewapend met dit BIOS bleek de maximale haalbare snelheid waarop nog een SuperPi 1M-benchmark kon worden gedraaid op 5040Mhz te liggen.

Helaas was de overklok niet voldoende om een nieuw SuperPi-wereldrecord te vestigen. De overklokkers moesten dan ook genoegen nemen met een tweede plek. De eerste plaats blijft in handen van de Japanner Tam die ook gebruik maakte van een Core 2 Extreme X6800 en hiermee 5013MHz bleek te halen. Tam is waarschijnlijk de eerste tweaker ter wereld die de 5GHz-grens met de X6800 wist te doorbreken. Om deze snelheid te bereiken schakelde hij echter wel de tweede core van de processor uit, iets dat de Zweden niet gedaan hebben. Uiteraard laten de Scandinaviërs het hier niet bij zitten. Ze zullen doorgaan met het tweaken van het systeem om het SuperPi-snelheidsrecord van de Japanner te doorbreken.

Intel Core 2 Extreme X6800 @ 5040MHz (klein)
Moderatie-faq Wijzig weergave

Reacties (66)

Lagere snelheid maar snellere superPI voor de Japanners? En superPI draait zo te horen maar op 1 core...

Dan vind ik superPI geen indicatie meer voor t meten van de Proc snelheid...
Superpi is ook geen "betrouwbare rekenmethode voor de snelheid van een processor maar wel voor de (wiskundige) rekenkracht (FPU) van de processor.

Hij zal waarschijnlijk op een of andere manier voordeel gehad hebben van het feit dat er maar 1 processor core werkte.
Aangezien superpi er toch maar 1 kan gebruiken kan dat best zo zijn.
Of hij heeft er gewoon 1 van een andere batch gehad die iets beter uitviel.
Of hij heeft op of andere manier zijn OS beter getweaked.
Superpi gebruikt afaik de hele fpu niet, maar doet het gewoon met integers en meet dus MIPS en geen MFLOPS.
Op zich wel gek dat ze niet even een multi-core versie maken; zelfs ik als C# noob kan een monte-carlo sampler maken die Pi met 2 cores berekent. Dat kost mij niet meer dan een half uurtje; dan moet het voor die mensen minutenwerk zijn...
1 core, waarbij die ene core de volledige cache ter beschikking krijgt ;)

Blijkbaar werkt superpi niet met meerdere cores, maar heeft het wel baat bij meer cache geheugen.
Heeft er dan niemand op de Frontpage gelet?

nieuws: Intel geeft opheldering over 'Core Multiplexing'
Volgens een woordvoerder van het bedrijf gaat het om het uitschakelen van één van de twee cores, zodat de andere het volledige L2-cache tot zijn beschikking krijgt.
:Y)
De Core2Duo zal dynamisch de cache per core aanpassen. Als SuperPi dus op 1 core draait zal die core het leeuwendeel van de cache gaan gebruiken.... Er is dus weinig verschil met 2 cores of 1 core actief...
Maar wel een meting voor de snelheid van één Core. En daardoor, indirect, dan weer een meting van de snelheid van meerdere Cores.
het is zelfs niet eens een goede meeting voor de snelheid een core.
het is veel afhankelijker van geheugen latency en cache grotes als van reken kracht.
superpi heeft over het algemeen ook vrij weinig met de realititeid te maken als het om preformance gaat.
Niet iedere core is toch altijd precies even snel?? Minieme verschillen zullen er altijd zijn. Bovendien kun je de werking van het temperatuursverschil ook niet terugvinden in het verslag of wel dan? Ik neem aan dat dit ook gevolgen heeft voor de verwerkingssnelheid van een Superpi calculatie. Mischien zat die jap net iets beter met zn temps??
Op een synchrone processaor gebeurt alles met exact de kloksnelheid. Er gebeurt nooit iets als de klok niets doet. Dus, de snelheid van de klok bepaalt *inherent* hoe snel iets is (op de processor), het kan *niet* dat een lagere kloksnelheid zomaar een snellere verwerkingssnelheid behaalt. Of ie nou -200 of 90 graden is.

Wel kunnen er aan de hand zijn: meetfout in de kloksnelheid, snelheidsverschil van de betreffende moederborden en geheugenchips, meetfout in de realtimeclock (waardoor de uitkomst van berekeningen per seconde ook de mist in gaat).
Waarvan hoogstwaarschijnlijk verschillen in memory latency ivm het verschillende moederbord+bios+memory etc de oorzaak is in dit geval. De klok is zeer precies; de foutmarge is veel minder dan een procent... dus onmogelijk is het niet maar ik denk dat het hier om een echt snelheidsverschil gaat. Tevens; als je maar een core hebt is de cache ook ongedeeld, en de core 2 heeft een gedeelde cache: dus met een core uit gaat de cache mischien lichtelijks beter presteren (veel zou het niet moeten schelen maar goed...), vooral als ie ook door het uitschakelen mischien ook cache-synchronizatielogica helemaal kan omzijlen en de daarbij behorende latency (onwaarschijnlijk, behalve als dat al impliciet ingebakken is)
Maar die verschillen vallen onder marge van de uitkomst.
Die verschillen zijn niet te meten met superpi. ;)
Ja de temp zal idd lager geweest zijn omdat ie maar één core gebruikte :)
Wachten op een SuperPi MultiCore versie?
de jappanners zijn koningen op het gebied van windows tweaks :)
Hoe kan een langzamere maar exact dezelfde processor nou sneller zijn dan de 27 mhz snellere versie? Moederbord? RAM?
Misschien was de CPU al in slaap gevallen. Het was dan ook al bijna 4 uur 's nachts aan het screenshot te zien :) Die (Noren |:( ..) Zweden wilden zeker kosten wat het kost deze test uitvoeren .
Goedkope stroom :+
Of misschien omdat het kouder is 's nachts.
De natuur kent geen knopje om te schakelen tussen zomer en winter.
Maar waarom doen ze het dan niet in de winter?
Of het was al 3:49 minuten na installatie van een schone niet aangepaste windows :+
Nieuwe BIOS stond waarschijnlijk op Factory Defaults... :P
Het waren Zweden ^^
Ander mobo met andere chipset.. sneller geheugen / betere timings, beter getweakt OS... Opties genoeg.
Waarshijnlijk net omdat ze die 2 cores aan hebben staan waardoor het uitvoeren van hetprogramma nogal een svan core wisselt (met verlies van tijd dus). Eigenlijk hadden ze, als ze tijd hadden, alle processen met affinity op core 1 moeten zetten en SuperPi op core 2. Dan hadden ze waarschijnlijk wel een iets hogere score kunnen halen.

Ook SuperPi een 2e keer draaien zou helpen (omdat dan de cache niet een 2e keer gevuld hoeft te worden).
Asus was echter bereid om een speciaal BIOS voor de Zweden te ontwikkelen waar deze limiet naar 500MHz werd opgehoogd.
Of hoe je met dure woorden kan vertellen dat er 1 of 2 bytes zijn aangepast ;)
Zie je dat Asus het wel kan. Kortom ze kunne met gemak alles aanpassen. Niet zo verwonderlijk natuurlijk , maar als ze dat nu eens op alle borden deden dan hadden ze denk ik een grote aanhang voor Overclockers.

Wat extra voltage mogelijke heden hogere FSBs.

Dit is natuulijk ook een leuke marketing stunt van Asus. Maar ze kunnen het das belangrijk natuurlijk :)
Ik denk dat ze dat simpelweg niet doen omdat het stabiliteitsproblemen met het MoBo met zich meebrengt.
Da's het risico van overclocken he?

Mogen we dus aub zelf bepalen tot hoever een bord stabiel is?
En dan toch garantie claimen als het bord stuk gaat zeker?
Ik denk niet dat Asus zin heeft in een hoop kapotte moederborden omdat je het voltage toch net iets te hoog voor de meeste moederborden kan instellen bijvoorbeeld.

Ja, een ervaren overklokker weet (meestal) wel hoe ver hij kan gaan zonder zijn moederbord te slopen maar de onervaren hobbyist die denkt "hoe meer hoe beter" zal zijn bordje zo snel slopen. En dan komen zeuren bij Asus.
Het probleem is dat Asus hun biossen wel kan uitrusten met heavy overclocking functies, maar dat dat hun borden nog niet verandert! Die blijven een stuk minder stabiel bij hoge voltages dan bijv. DFI's. Asus heeft ook geen zin om die bordjes allemaal weer terug te krijgen omdat ze niet stabiel waren bij extreme voltages :z
En als Asus gewoon normale Award BIOSsen zou uitbrengen kon iedereen het zelf aanpassen.
en natuurlijk de snelheid van het gebruikte RAM geheugen, zal een invloed hebben...
Aangezien de berekening van superpi bij deze processoren volledig in het on-die cache past heeft de snelheid van het ram er weinig mee te zoeken.
De eerste plaats blijft dan ook in handen van de Japanner Tam die ook gebruik maakte van een Core 2 Extreme X6800 en hiermee 5013MHz bleek te halen. Tam is dan ook waarschijnlijk de eerste tweaker ter wereld die de 5GHz-grens met de X6800 wist te doorbreken
aha, dus de 5GHz barrière was al doorbroken door Tam. waar slaat de titel van het bericht dan op? :X
Toen Tam hem had doorbroken was er nog niks over gemeld, en nu wel met nóg een doorbraak. Dus 2 vliegen in 1 klap.
Bij de andere poging hadden ze maar 1 van de 2 cores ingeschakeld, bij deze poging hadden ze beide cores op die snelheid lopen.

[edit]Net te laat :(
Overbodig :'(
Wel goede service van asus, hoewel dat ook een beetje is omdat het goede reclame voor ze is omdat ze dan kunnen schermen met het feit dat het record op een asus plank is gezet.
Eh 5040 is volgens mijn brein nog altijd groter dan 5013????
Ja precies! Ik snap ook niet dat die Japanner dan nog altijd kennelijk bovenaan staat, kan iemand mij dit uitleggen?
Ja precies! Ik snap ook niet dat die Japanner dan nog altijd kennelijk bovenaan staat, kan iemand mij dit uitleggen?
Betere Superpi tijd?
Ja, dus de Zweden zijn sneller...
2 cores ontwikkelen toch meer warmte als 1 core. Dus deze overclock met 2 cores lijkt me dan ook gezien het meer aan warmte van de 2de core zeker succesvoller als de overclock van de japanner met 1 core.
TAM van TeamJapan was eerder (2 weken terug)

http://www.xtremesystems....hread.php?t=101190&page=2

En een ander noemens waardig iets:
http://www.xtremesystems....hread.php?t=101190&page=6

Een FSB van 500Mhz (2Ghz) op een Intel Bad axe. :9~
Door Tarosa (Ook Japan)
Vreemd:
Gigabyte gaat al door tot de 600Mhz FSB

http://www.vr-zone.com/?i=3745&s=7
Waarom worden dit soort dingen altijd onder Windows gebenchmarked?
Omdat je systeem behoorlijk stabiel moet draaien wil je Windows geheel kunnen booten en draaiend houden. Bij Linux zou je een stuk meer aan het OS kunnen tweaken.

Daarnaast heb je natuurlijk het domino-effect. Als de eerste Windows heeft gebruikt, dan wil de rest dat ook gebruiken om een eerlijke vergelijking te kunnen maken.
Dat is nou eenmaal de benchmark. Om helemaal windows te booten moet een processor een stuk stabieler zijn dan bijv dos.
maar het neemt met minder genoegen dan linux :Y)
(dat is althans mijn ervaring. Ik had een systeem met 'raar' geheugen. Windows bootte prima, maar liep na korte tijd compleet vast.
Linux had nog maar net de kernel geladen en bezig hardware te initialiseren toen ik al een kernel panic te pakken had.
Omdat SuperPI alleen onder windows draait? :z

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True