Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties
Bron: HKEPC

Het Chinese HKEPC heeft een sample van Intels 45nm dualcore 'Wolfdale'-processor in handen gekregen en getest tegenover een gelijk geklokte Core 2 Duo. Het nieuwe ontwerp blijkt gemiddeld genomen ongeveer tien procent sneller te zijn.

In de volgende generatie van Core 2-processors heeft Intel verschillende verbeteringen aangebracht ten opzichte van de huidige chips, waaronder vijftig procent extra cache, sse4-instructies, een 'super shuffle engine', extra stroombesparende features en beter gestroomlijnde virtualisatie. Ondanks dit alles is de 45nm-chip een kwart kleiner dan het huidige 65nm-ontwerp, wat betekent dat hij goedkoper gemaakt kan worden. Intel hoopt de eerste producten gebaseerd op dit nieuwe ontwerp later dit jaar te kunnen leveren, waarbij onder andere een 3,33GHz quadcore Extreme Edition wordt verwacht.

HKEPC kreeg een sample in handen van Wolfdale, een dualcore desktopchip die op het nieuwe ontwerp gebaseerd is. De chip draait standaard op 2,33GHz en werd getest op een P35-moederbord van Gigabyte met 2GB ddr3-1066 en een GeForce 8800 Ultra. Gemiddeld genomen over 46 tests is er een winst van bijna tien procent te zien, waarbij DivX opvalt als extreem positieve uitschieter. Dankzij de sse4-instructies wordt coderen van 1080p-video met dit codec namelijk meer dan twee keer zo snel. Opvallend is ook het stroomverbruik: zelfs zonder EIST ingeschakeld is de 45nm-chip een stuk zuiniger dan de 65nm-chip.

Energieverbruik/temperatuur
Conroe (Load) 83W @ 49°C
Conroe (Idle) 61W @ 41°C
[*] Wolfdale (Load) 59W @ 37°C
[*] Wolfdale (Idle) 43W @ 31°C

Met betere prestaties per kloktik en de hogere snelheden die mogelijk worden gemaakt door de stroombesparing lijkt het erop dat de 45nm-familie een aantal aantrekkelijke producten gaat opleveren. In desktops zal het in het vierde kwartaal ongeveer 2% van alle leveringen 45nm zijn, gevolgd door 18% in het eerste kwartaal van 2008 en 29% in het tweede kwartaal. Tegen die tijd hoopt Intel ook ongeveer de helft van de notebook- en serverchips te hebben verhuisd naar het nieuwe procedé.

Moderatie-faq Wijzig weergave

Reacties (98)

De nieuwe virtualizatie technology is erg interessant. Nog minder overhead door VT-d.
Over een paar jaar is de overhead waarschijnlijk helemaal weg en kunnen we zonder prestatie verlies verschillende os-en op ons systeem laten draaien!

Zie hier een document van Vmware over de nieuwe technology die aanwezig zal zijn in de toekomstige reeks Intel cpu's:

http://www.vmware.com/com...20071907%20-%20p.King.pdf

[Reactie gewijzigd door Erhnam op 6 augustus 2007 12:21]

De grap is dat volgens ander onderzoek van VMware de eerste generatie Intels met VT daar zo traag in waren dat het voor VMWare zinloos was om het te gebruiken. De hardware virtualisatie was trager dan de software. Ik neem aan dat Intel (en AMD) daar naar gekeken heeft en besloten heeft om de zaak flink te optimaliseren. VT-d is dus eigenlijk wat VT gewoon had moeten zijn.
heb nu een p4 @ 4.2Ghz.
Dit in een kamer van 4x4M= Erg warm in de zomer.

Dus minder energie verbruik is voor mij vooral minder warmte.
Heb ik net zo'n mooie Conroe E6750 besteld...... ;-)

Maar goed, ik hoef de stroom niet zelf te betalen en ben niet zo'n overklokker, dus tegen de tijd dat mijn Conroe bij games een bottleneck wordt zal er wel weer iets veel beters uit zijn lijkt me.....
Maar waarom als ie de bottleneck wordt niet een beetje overclocke? Als je niet die hard doet is het niet zo moeilijk en als je daardoor een jaartje langer ermee door kan is dat toch mooi verdiend?
Ik denk eerlijk gezegd dat DX10 in zijn huidige vorm vooral door software kant fout gaat en niet door de hardware. De 8800 gtx is buitengewoon snel in alle games en gaat in ene over zijn nek in Lost Planet, een spel dat er weinig beter uit ziet dan een top DX9 game. Klopt imho dus nog niet helemaal.
het zou niet de eerst keer zijn dat een nvidia kaart sneller is in de oude DX spellen maar met spellen van de nieuwe generatie DX helemaal niet vooruit te branden is.
en dat over zijn nek gaan is ook een beetje onzin. De demo draait super slecht bij mij (vind ik) maar het spel draait gewoon goed.
Ik heb een Opteron185, 8800GTX, 4GB RAM en Vista x64 Ultimate.
ps. ik heb bijna alle opties vol ingeschakeld (eye candy) en draai in 1280x1024.

Dus.... de hier gepreviewde cpu in combinatie met een 8800gtx waar je nu al plezier van kan hebben zal het denk ik gewoon super doen.

[Reactie gewijzigd door bozotheclown op 6 augustus 2007 12:02]

Volgens mij reply jij op de verkeerde persoon. De Opteron 185 was tentijde van release ongeveer het beste wat je op 939 kon krijgen. Ikzelf heb nog steeds een Opteron 180 en ben er erg tevreden mee; ik heb nog nooit gemerkt dat de CPU gelimiteerd is (videokaart upgraden heeft telkens het meeste effect). Daarnaast is je opmerking erg misplaatst want de Opteron 185 is nooit een budget cpu geweest.
Ik denk dat je Opteron met Sempron verward...
Leuk, maar niet echt super interessant.
Het stroomverbruik en minder hitte zijn voor mijn niet doorslaggevend. (ik heb waterkoeling.)
Die 10% heb ik met overclocken allang bereikt.
@ Magiel: Hou je er rekening mee dat dit kan zijn doordat Vista en de drivers misschien nog niet optimaal zijn?
Ik ben ook benieuwd hoe het met de prijzen zal gaan, aangezien de processor goedkoper gemaakt kan worden.
Intel heeft hier natuurlijk wel voor moeten investeren...

[Reactie gewijzigd door HugoBoss1985 op 6 augustus 2007 11:23]

Maar dan heb je het OC potentieel van deze nog niet bekeken. Natuurlijk kan je een tragere CPU overclocken om op gelijke hoogte te komen met een snellere. Maar als je die snellere ook begint op te voeren blijft die tragere gewoon achter.

En hitte is wel degelijk belangrijk. Waterkoeling mag dan wel beter zijn dan een gewone ventilator. Ook waterkoeling heeft zijn beperkingen.

[Reactie gewijzigd door Blokker_1999 op 6 augustus 2007 11:26]

Als ze zo door gaan koop ik natuurlijk nooit een nieuwe pc :9
Sneller, zuiniger (dus koeler), wat wil een processor nog meer? _/-\o_ En dat goedkoper produceren spreekt mij ook wel aan, als het tenminste doorgerekend word naar de consument.
Dat goedkoper ga je niet merken. Productiekosten van een processor liggen sowieso al erg laag. Het leeuwendeel zit 'em in het terugverdienen van alle R&D kosten.
K8 is al 4jaar oud als ik me niet vergis, ondanks dat kunnen ze nog steeds goed meekomen met Conroe cpu's.
Ik heb persoonlijk wel het vertrouwen dat K10 Conroe bij gaat houden. Misschien niet overtreffen, maar wel bijhouden
Dan hebben ze dus écht een groot probleem, als ze nog maar net de conroe bij gaan houden :D . Dan zou de Penryn zeker sneller zijn dan de K10, dus hier zullen we maar niet vanuit gaan. Maar ik denk dat intel de kroon in handen gaat houden, AMD roept nu al 1.5 jaar dat de barcelona gru-we-lijk moet zijn. Maar ik heb nog niets van bewijzen gezien, als hij echt sneller was hadden ze toch allang een benchmarkje beschikbaar gestelt? De tijd zal het uiwijzen, maar ik vrees het ergste ;)

overigens ben ik geen Fanboy ofzo, ik koop gewoon wat het beste is :)
Ga dit aub niet meteen als flaim af doen, want zo is het niet bedoelt (al speel ik nu wel met vuur); maar ik vind dat je de laatste tijd steeds meer positieve nieuwsberichten uit de Intel hoek hoort. Ik zou momenteel geen AMD kiezen, want AMD heeft een toenemende achterstand.
No shit Sherlock!

Alhoewel je moet toegeven dat AMD enkel niet meekan in het high end segment, want low en mid end gaat lekker.
De enige reden dat AMD nog mee kan komen in low- en mid-end is omdat ze hun prijzen zo laag hebben gemaakt dat ze honderden miljoenen per kwartaal verlies draaien. Leuk voor de consument, maar niet echt een situatie die lang vol te houden is. Als Barcelona vs. Penryn hetzelfde verhaal wordt als K8 vs. Conroe, dan hebben ze écht een probleem.

[Reactie gewijzigd door Wouter Tinus op 6 augustus 2007 11:51]

De enige reden dat AMD nog mee kan komen in low- en mid-end is omdat ze hun prijzen zo laag hebben gemaakt dat ze honderden miljoenen per kwartaal verlies draaien. Leuk voor de consument, maar niet echt een situatie die lang vol te houden is. Als Barcelona vs. Penryn hetzelfde verhaal wordt als K8 vs. Conroe, dan hebben ze écht een probleem.
K8 was ook niet bedoelt om het op te nemen tegen conroe.
K8 was het antwoord van AMD op de pentium4.

K8 is al 4jaar oud als ik me niet vergis, ondanks dat kunnen ze nog steeds goed meekomen met Conroe cpu's.
Ik heb persoonlijk wel het vertrouwen dat K10 Conroe bij gaat houden. Misschien niet overtreffen, maar wel bijhouden :)

[Reactie gewijzigd door triple_A op 6 augustus 2007 12:00]

K8 is al 4jaar oud als ik me niet vergis, ondanks dat kunnen ze nog steeds goed meekomen met Conroe cpu's.
Uh, ofwel leef in ik een andere realiteit als jij, ofwel raakt de K8 echt niet hoger dan de middenklasse van Intel (E6600), en er zijn nog een aantal Intels die hoger gepositioneerd staan dan dat. Ik noem dat niet bepaald "goed meekomen".

[Reactie gewijzigd door MatthiasDS op 6 augustus 2007 13:20]

niet iedereen heeft het geld voor een QX6800 oid, het grootste deel van de markt bevindt zich in E6600 en lager. intels hogere producten zijn leuk, maar voor een relatief kleine doelgroep.
intels hogere producten zijn leuk, maar voor een relatief kleine doelgroep.
Zolang de prijzen blijven zakken (wat met de 45nm-generatie ook weer gaat gebeuren), blijft de doelgroep groeien.

Verder vind ik het het vreemd dat de K8 nu verdedigd wordt met "Ja maar hij is al 5 jaar oud, en was niet bedoeld om het tegen de Conroe op te nemen".

Destijds met P4 vs K8 hoorde ik hele andere geluiden, terwijl dat een soortgelijke situatie was.
De P4 kon toen zelfs wat beter meekomen dan de K8 nu (mede doordat Intel AMD nog voor kon zijn met een dualcore... "beter een wat mindere dualcore dan helemaal niks" moeten ze gedacht hebben bij Intel, en terecht).
Maar toen wilde men het prestatieverschil zo veel mogelijk overdrijven, terwijl men nu zo veel mogelijk de schade wil beperken met allerlei flauwe excuses.

[Reactie gewijzigd door ddbruijn op 6 augustus 2007 14:41]

manman, alles wat ik zeg is dat ik het lang niet gek vind wat een 5 jaar oude core klaarspeeld tegenover een gloednieuwe. Dat de conroe vele malen sneller is en veel meer potentieel heeft zie ik ook wel.

En ik ben K8 helemaal niet aan het verdedigen. Ik verdedig helemaal niks, ik zie ook heus wel dat conroe een veel betere architectuur is dan K8; ik heb zelf ook een c2d.

Wat een drukte allemaal om niks zeg :P
Destijds met P4 vs K8 hoorde ik hele andere geluiden, terwijl dat een soortgelijke situatie was.
de p4 heeft ook 3 compleet verschillende ontwerpen gehad, en de prescott was gewoon een hele nieuwe CPU, logisch dus dat je andere geluiden hoort.
de k8 is niet heel veel veranderd in die 4 jaar.

[Reactie gewijzigd door Countess op 7 augustus 2007 11:15]

Ja ok, maar als je na gaat dat die K8 al bijna 5 jaar oud is vind ik dat deze zich goed houdt tegenover de veel nieuwere conroe.

@ Wouter;
heeft AMD "ervoor gekozen" geen totaal vernieuwde core uit te brengen (K10 dus)? of was K10 simpelweg nog niet klaar? (serieuze vraag; ik heb weet echt niet hoe lang amd al op K10 aan het broeden is :) )
heeft AMD "ervoor gekozen" geen totaal vernieuwde core uit te brengen (K10 dus)? of was K10 simpelweg nog niet klaar? (serieuze vraag; ik heb weet echt niet hoe lang amd al op K10 aan het broeden is :) )
AMD heeft na de K8 aan een of twee vrij radicale ontwerpen gewerkt voor men uiteindelijk aan de relatief conservatieve K10 begon. Toen het moment daar was dat Conroe verscheen was het te laat iets te doen, maar als men destijds direct door was gegaan op de koers die was gezet met K7 en K8 hadden ze veel eerder een vernieuwde architectuur kunnen hebben.
Waar blijft die onzin constant vandaan komen dat de K8 5 jaar oud is:
The Athlon 64 is an eighth-generation, AMD64 architecture microprocessor produced by AMD, released on September 23, 2003[1].
Naar mijn rekenen is dat 3 jaar, 10 maanden en 13 dagen. Daarnaast is de Core2 ook alweer 1 jaar en 10 dagen oud. Het uiteindelijke verschil is dus grofweg 2 jaar en 10 maanden...
Ben ik het volledig mee eens iceheart, maar zeg dan niet dat de K8 "nog goed kan meekomen".

Nu, de K8 was eigenlijk ook een enorm goed design, en ik ben ook nog altijd vol tevreden van m'n Venice. Enige reden waarom hij er binnenkort zal uitgaan is omdat hij tekort komt op vlak van videobewerking. Daarvoor is een multicore een stuk aangenamer.
K8 was ook niet bedoelt om het op te nemen tegen conroe.
K8 was het antwoord van AMD op de pentium4.
Het is nogal simplistisch om in termen van 'antwoorden' te praten. AMD en Intel spelen geen spelletje waarbij ze om de beurt een processor uitbrengen, maar zijn gewoon realtime bezig. Als twee producten tegelijk en ongeveer voor dezelfde prijs op de markt zijn, dan zijn het gewoon concurrenten. AMD had zijn core ook eerder kunnen vernieuwen, maar heeft er voor gekozen om dat niet te doen.

[Reactie gewijzigd door Wouter Tinus op 6 augustus 2007 12:59]

als hij als phenom op 3ghz uit komt in Q1 2008 gaat hij zeker sneller zijn als die 3.33ghz extreme edition die intel hier aan kondigt.
daarbij is de k8 inmiddels al bijna 5 jaar oud.
Ik heb persoonlijk wel het vertrouwen dat K10 Conroe bij gaat houden. Misschien niet overtreffen, maar wel bijhouden
Hiep hoi. Alleen jammer dat Intel de Conroe core dan ook al aan het vervangen is door deze die (als de geruchten enigszins kloppen) de Barcelona core weer verslaat.

En in de winkel is het niet Barcelona vs Conroe maar AMD tegen Intel waarbij de 45nm Intel chips AMD heel veel pijn kunnen gaan doen (goedkoop te fabriceren, hogere IPC dan de Conroe en flink hoger geklokt dan de Barcelona) Zowel qua performance als prijs lijkt AMD (en ja, dit is een glazen bol) een probleem te gaan heben in het eerste kwartaal van 2008
AMD's omzet is anders niet super veel gedaald, ze zijn alleen flink aan het investeren wat geld kost.
daarbij maken ze nogsteeds winst per CPU gekeken naar de productie kosten (marge)
die is lager als die bij intel, maar die van intel is ook absurd hoog, en dat eigenlijk altijd al geweest.
zo veel last van de lagere prijzen hebben ze dus ook niet.
daarbij maken ze nogsteeds winst per CPU gekeken naar de productie kosten (marge)
Big deal. Als ze het zo erg verprutst hadden dat ze producten niet eens meer boven de kostprijs konden verkopen waren ze al drie keer failliet geweest. Die R&D zal AMD keihard nodig hebben om op te boksen tegen Penryn, Nehalem, 32nm, nVidia, enzovoorts, dus je kunt gewoon niet ontkennen dat AMD op dit moment te weinig verdient om in de race te blijven. K10 kan misschien weer een paar benchmarks winnen, maar een monolitische die van 283mm² zal ook aardig wat kosten, wat pijn gaat doen in combinatie met prijsdruk van Intel.

[Reactie gewijzigd door Wouter Tinus op 6 augustus 2007 12:48]

tuurlijk doet dit pijn voor amd, maar wat vele vergeten is dat 't nog altijd de low en midend segmenten zijn (bedrijfs pc's ) - waar het grootste deel van de productie aan word besteed, als dan de marges flink onder druk staan is dan zeker wel een probleem, maar lang geen nekschot zoals velen hier doen voorkomen.

ik ga geen conclusies trekken over de k10 of k15 cpu's bij amd, maar iedereen weet dat amd al zo lang als dat 't bestaat nooit superieur is geweest aan intel (tot aan de k7 ),

zolang amd maar kan mee blijven doen om de OEM markt is er in principe niet zo veel aan 't handje,

</compleet off-topic>

mare, berichten over deze cpu beginne iig hoopvol, zou zomaar wel eens de opvolger van m'n opteron kunne worden... (zodra de prijzen een beetje gaan dalen)
maar iedereen weet dat amd al zo lang als dat 't bestaat nooit superieur is geweest aan intel (tot aan de k7 ),
AMD heeft ook nog nooit zoveel schuld gehad en nog nooit zoveel investeringen moeten doen om bij te blijven. Het is voor AMD nooit een probleem geweest om als kleintje te overleven, maar het huidige management wíl gewoon geen kleintje zijn, en werkt zich daarom diep in de schulden.
zolang amd maar kan mee blijven doen om de OEM markt is er in principe niet zo veel aan 't handje,
Kijk eens naar de financiële resultaten van de laatste drie kwartalen. Er is meer geld verloren dan in de 6,5 jaar daarvoor is verdiend. De schuld is door het dak gegaan. "Niet zo veel aan 't handje" is een zware understatement.
AMD is ook nog nooit zo groot geweest met zoveel productie capaciteit.
hun schulden zijn iniedergeval niet schrikbarend hoog in vergelijking met hun "assets"

[Reactie gewijzigd door Countess op 7 augustus 2007 11:17]

Hehehe, ik las eerst:

Wolfdale 10% sneller stuk :P.

--
Maargoed, 37 graden of 50 graden, wat maakt het uit? Energiezuiniger maakt toch eigenlijk alleen uit voor je laptopje, omdat die wat langer mee kan.

En jah.. beter voor het millieu..
Lagere temperaturen in je bureau in de zomer vind ik ook wel een leuk vooruitzicht.
Maargoed, 37 graden of 50 graden, wat maakt het uit?
Voor een HTPC is dit interessant hé. Je koelt hem makkelijker dus minder geluid.
[qoute]Energiezuiniger maakt toch eigenlijk alleen uit voor je laptopje[/qoute]
dat is oké als jij de stroom rekening niet hoeft te betalen.

als je een dag lang een 83W gebruikende prosessor hebt word je stroom rekening toch wel aardig wat hoger dan als je een 59W gebruikt.

83-59= 24W vershil
reken maar uit je winst
(Oké ik weet even niet meer hoe de verhoudingen ed. staan)

Maar we zullen eens een "simpele lanparty" nemen en zeggen dat er 100 man 24W besparen dan heb je een besparing van 2400W, scheelt voor de organisatie ook flink wat.
Wat denk je van grote bedrijven met duizenden pc's, dan maakt die 10% wel degelijk uit. Processor zuiniger --> minder warmte --> fans verbruiken minder energie enz....
Eerst wou ik nog een Q6600 of een E6750 halen, maar nu ga ik toch even wachten :*) .
En zo kan je blijven wachten in deze wereld, imho.

Deze Wolfdale lijkt dan heel interessant voor de HTPC, passieve koeling, sterke HD codering prestaties!
En zo kan je blijven wachten in deze wereld, imho.

Deze Wolfdale lijkt dan heel interessant voor de HTPC, passieve koeling, sterke HD codering prestaties!
Inderdaad.

Binnen 5 jaar heb je voor hetzelfde geld een nog betere cpu, en binnen 10 jaar een nog betere ...
Heden ten dage is uw hardware al 'verouderd' als je het koopt
Waar is de tijd van de C64 & amiga toen je een paar jaar dezelfde hardware kon gebruiiken zonder verouderd te zijn
In de C64 / Amiga tijd innoveerde de software ipv de hardware ;)
De code werd door de programmeur telkens weer verder geoptimaliseerd zodat er steeds meer kon op dezelfde hardware. ( De prachtige demo-scene als voorbeeld )
In de C64 / Amiga tijd innoveerde de software ipv de hardware ;)
De code werd door de programmeur telkens weer verder geoptimaliseerd zodat er steeds meer kon op dezelfde hardware. ( De prachtige demo-scene als voorbeeld )
Ja en (helaas) word dat weinig meer gedaan... Omdat er steeds snellere processors komen vinden veel producenten het niet meer compleet nodig om alles compleet te optimaliseren, en zeg nou zelf, dat si toch jammer :(
Het is niet zozeer dat ze het niet nodig vinden, het is meer dat het ondoenlijk is geworden.
De C64 en Amiga hebben beiden jaren in onveranderde vorm bestaan.
Een programmeur had dus jaren de tijd om zich te bekwamen in het optimaliseren op dat platform.
Bij PCs krijg je veel vaker nieuwe CPUs, videokaarten etc.
Het kost meer tijd om een optimaal stuk software te schrijven dan de levensduur van het platform waar je dat op doet.
Je loopt dus achter de feiten aan.
Als ik nu begin aan een spel dat geoptimaliseerd is voor Core2 Quad en GeForce 8800, en dat is dan over een jaar of 5 klaar, dan gebruikt niemand nog een Core2 Quad en GeForce 8800, en zal men klagen dat het totaal niet optimaal gebruik maakt van hun Core5 met 80 cores en 256-voudige HyperThreading, of hun GeForce 28000..

Je kunt er gewoon niet meer tegenop programmeren. Enerzijds gaat de ontwikkeling van hardware veel sneller, en anderzijds is moderne software veel omvangrijker en complexer, en kost veel meer tijd om te ontwikkelen.
Zo kun je de spelletjes van een C64 of Amiga absoluut niet vergelijken met wat er vandaag de dag is.

Het is jammer, maar het is niet anders.
Het is niet zozeer dat ze het niet nodig vinden, het is meer dat het ondoenlijk is geworden.

...

Je kunt er gewoon niet meer tegenop programmeren. Enerzijds gaat de ontwikkeling van hardware veel sneller, en anderzijds is moderne software veel omvangrijker en complexer, en kost veel meer tijd om te ontwikkelen.

...

Het is jammer, maar het is niet anders.
Ik ben daar niet van overtuigd. Op Planet GNOME lees ik wel eens weblogposts die gaan over profiling en hoe GNOME meer efficiënt met hardware resources kan omgaan, en hoe een betere performance/snellere software gerealiseerd kan worden. Die snelheidswinsten zijn ook wel degelijk gerealiseerd in recente GNOME releases, zie bijvoorbeeld de release notes van GNOME 2.14. Een van de GNOME hackers die zich veel met profiling bezig houdt is Federico Mena Quintero, en hij schreef het volgende in een interview:
So, most optimizations do not revolve around bugs or tough compiler/linker hacks?

There's an interesting pattern that appears when you have never tuned performance in a piece of code, especially after many years. The first time you profile things, you find *big* hot-spots: code that is doing way too much work for no good reason -- you can usually kill that code easily and the program will perform much better. You kill a few big problems that way: refreshing things that didn't need to be refreshed, using trivially stupid algorithms, etc.

The next time you profile, you find deeper issues. You find problems with various moving parts, and the fix in each part is not obvious. You find places where results could be cached intelligently, or where you need a good re-architecting of the data structures.

It's only at the end of this process that you look into micro-optimizations. But most of our slow applications are slow because they are doing too much unnecessary work.
Kortom ddbruijn, jij denkt bij optimalisatie te veel aan hardware, het is ook de software waar geoptimaliseerd kan worden. Uit het interview blijkt dat nieuwe hardware niet van een dergelijk grote invloed is. Immers, ieder systeem heeft werkgeheugen en een CPU, het verschil is dat de nieuwe systemen het sneller en meer hebben dan oudere systemen. Desondanks kan je nog steeds optimaliseren om geheugen en CPU-verbruik te beperken en software te versnellen.

Ook KDE 4 kan op een betere performance rekenen omdat de Qt 4 minder geheugen gebruikt dan Qt 3.

Misschien is nog wel het beste voorbeeld dat Compiz Fusion onder Linux genoegen neemt met een Intel GMA 950 onboard video chip voor een desktop met 3D-acceleratie en allerlei bling. Zo ook de grafische effecten van Mac OS X, een Mac Mini gebruikt ook een Intel GMA 950. Maar Vista daarentegen heeft systeemeisen die toch wel fors zijn wat betreft werkgeheugen en een processor. Nou schijnt het dat een Intel GMA 950 ook nog net werkt met Aero, maar Linux en Mac OS X kunnen af met een sub-1Ghz CPU en met minder dan 1 GB geheugen. Linux heeft zelfs in combinatie met GNOME of KDE genoeg aan 256 MB, daar is dan fatsoenlijk mee te werken.

Dus ik denk, het kan wel degelijk anders, maar sommige ontwikkelaars (Microsoft) zijn misschien wat lui wat betreft optimaliseren.
Kortom ddbruijn, jij denkt bij optimalisatie te veel aan hardware, het is ook de software waar geoptimaliseerd kan worden.
Het ging juist om software specifiek optimaliseren voor hardware, dat is toch het grote verschil tussen C64/Amiga/game consoles en hedendaagse PCs?
Uit het interview blijkt dat nieuwe hardware niet van een dergelijk grote invloed is. Immers, ieder systeem heeft werkgeheugen en een CPU, het verschil is dat de nieuwe systemen het sneller en meer hebben dan oudere systemen. Desondanks kan je nog steeds optimaliseren om geheugen en CPU-verbruik te beperken en software te versnellen.
Daar zit hem dus nou net het probleem...
Dit is juist WEL hardware-gebonden.
Denk nou eens na...
Wat is de ideale balans tussen geheugengebruik en CPU-gebruik?
Dat hangt dus grofweg van 4 factoren af:
1) Geheugengrootte
2) Geheugenbandbreedte
3) Cachegrootte
4) Instructieset

Die 4 factoren zijn dus constant variabel.
Als ik nu m'n datastructuren inricht om zo efficient mogelijk om te gaan met CPU, geheugen en cache, dan is dat volgend jaar achterhaald.
Nu moet ik misschien kiezen om bepaalde dingen compacter in het geheugen op te slaan, ten koste van een aantal extra instructies. Volgend jaar heb je meer geheugen of grotere cache, en kun je beter de data wat minder compact opslaan.
Of je hebt een nieuwe instructieset die juist de data weer in een andere volgorde aangevoerd wil hebben.
Dus ik denk, het kan wel degelijk anders, maar sommige ontwikkelaars (Microsoft) zijn misschien wat lui wat betreft optimaliseren.
Of richten zich op een ander basissysteem om hun optimalisaties op te baseren.

Verder vind ik het weer jammer dat het weer neerkomt op een "Ja maar linux is beter dan Windows"-verhaal, zoals zo vaak hier op tweakers.
Ik voelde hem eigenlijk al aankomen omdat jouw post getuigt van een gebrek aan een dieper inzicht.
De (beperkt gratis) Mircosofts Visual 2005 c++ compiler levert een snelheidswinst op van 30-40% t.o.v. de (nog immer veel gebruikte) Microsoft Visual 6 compiler, voor zowel zware integer als floating point (fluid flow) berekeningen. De reden hiervan is doordat er nu enkele instructie sets ondersteund worden.

Aangezien de meeste code toch ge-compiled moet worden, heb je deze winst dus ook automatisch te pakken bovenop de versnelling van je hardware.
Inderdaad. Ik irriteer me mateloos aan hoe sommige bedrijven het voor elkaar krijgen om de meest idiote gedrochten op de markt te zetten. Tegenwoordig ben voor de download van een simpel programma al gauw 50MB kwijt bent. Om over de geheugenconsumptie nog maar te zwijgen. Of over de overbodige 'features' die alleen maar ongemak met zich meebrengen.

Een tijdje geleden heb ik een webcam van Logitech gekocht, en dan krijg je er ook gratis zo'n gedrocht bij. De drivers van de camera is zonder fatsoen niet te installeren zonder dat dat gedrocht ook automatisch geinstalleerd wordt. Haal je het gedrocht weg, zijn de drivers ook weg. *zucht*

* tERRiON denkt met weemoed terug aan de tijd dat computers nog gewoon alleen dát deden waar je om vroeg... ;-)
Hey tERRiON, heb je die oude pc nog ergens op zolder staan, die ene die alleen dat deed wat je wilde :) Dan wil ik hem misschien wel overnemen :D
Heb je wel eens een nieuwe HP printer geinstalleerd? 800MB aan extra software die verplicht geinstalleerd moet worden, het uitpakken van die bestanden duurde op een p4 2,4Ghz een half uur :S

en dat allemaal om een 400kb drivertje heen :(
@ therat10430

Soortgelijk iets meegemaakt met een 5610 van HP(Fax/Scanner/Copier/Printer). duurde 45 minuten op een P4 2,66Ghz ging de helft van de tijd fout en moest het de-installeren (30min) en weer opnieuw beginnen.

Software was ongeveer 500MB en je kon niet verder gaan met de installatie als je de fax niet configureerd (was bij mij op werk niet toegestaan om deze te gebruiken, koste weer 15 minuten om uit te leggen aan gebruiker).

Compleet waardeloze software!!! |:( :X 8)7

[Reactie gewijzigd door PowerBower op 6 augustus 2007 19:00]

Waar is de tijd van de C64 & amiga toen je een paar jaar dezelfde hardware kon gebruiiken zonder verouderd te zijn
Akkoord, maar verouderd zijn, wil niet zeggen dat je niks meer kan met die hardware. Mijn ouders werken nog op een goeie oude Tbird 1,4GHz en ikzelf draai een A64 3500+. Het enige wat ik een beetje mis is de dualcore functionaliteit, maar voor de rest kan ik helemaal niet klagen.
/offtopic
ikzelf draai een A64 3500+. Het enige wat ik een beetje mis is de dualcore functionaliteit, maar voor de rest kan ik helemaal niet klagen.
als je een 939 socket hebt, kan je voor 90 euro nog een 4200+ X2 halen
[...]


Akkoord, maar verouderd zijn, wil niet zeggen dat je niks meer kan met die hardware. Mijn ouders werken nog op een goeie oude Tbird 1,4GHz en ikzelf draai een A64 3500+. Het enige wat ik een beetje mis is de dualcore functionaliteit, maar voor de rest kan ik helemaal niet klagen.
En ik werk nog op een AT Pentium Pro 200 MHz 128MB sodimm met RAID 5 linux.

Verder ook nog een DELL CPI266xt Pantium II 233 MHz Laptop met 128 MB geheugen met XP en WIFI 56 mbits/s.

Kan ik alles mee.
Die tijd is er nog steeds, een Athlon XP is krachtig genoeg om zelfs Vista te draaien, als je er maar voor zorgt dat je genoeg geheugen hebt.
Dingen als Vista zullen inderdaad wel draaien, maar dat komt ook alleen maar omdat Microsoft er voor heeft gezorgd dat niet alleen bijvoorbeeld SSE3-instructies worden gebruikt maar eventueel ook oudere instructiesets. Bij spellen is dit niet altijd het geval, dus dan heb je een probleem met een 'ouderwetse' processor.
Beetje engine doet dat wel. (Denk aan de Quake serie of de UT technology)
Lijkt mij echt zwaar overkill voor een HTPC juist.
Waarom past een goede HD decodering niet bij een HTPC, lijkt me juist een goede eigenschap, plus het feit dat hij minder warmte produceert en dus een minder luidruchtige koeling nodig heeft.
De gemeten prestaties m.b.t. DivX gaan over encoding overigens, niet decoding. Nog steeds nuttig trouwens, voor het opnemen of converteren van videomateriaal.

Wat betreft decoding is het vooral de grafische kaart waar winst gepakt kan worden (denk aan UVD dat zorgt voor een veel lagere CPU-belasting).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True