Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties
Bron: EETimes

Phil Hester, de Chief Technology Officer van AMD, heeft in een interview met EETimes verklaard dat er minstens twee nieuwe processorarchitecturen in 2007 of 2008 het licht zullen zien. De eerste architectuur is gericht op de mobiele markt, notebooks, en is geoptimaliseerd om zo min mogelijk energie te verbruiken, zonder dat dit veel nadelige gevolgen heeft voor de prestaties. De andere zou gericht zijn op de servermarkt, waar prestaties erg belangrijk zijn en het energieverbruik ook hoger mag zijn. Waarschijnlijk dat een van deze architecturen als basis zal dienen voor de desktopmarkt, afhankelijk van hoe goed de mobiele architectuur is op te schalen of de server architectuur omlaag is te schalen. Wat wel al vast staat, is dat beide architecturen schaalbaar worden en modulair, waardoor het beste van twee werelden eventueel gecombineerd kan worden. Op dit moment zouden er bij AMD tussen de tien en twintig personen bezig zijn met het ontwerp van deze nieuwe architecturen.

Phil Hester CTO AMDHoewel AMD in 2007 met een quad-corearchitectuur op de proppen zal komen, zet Hester een aantal vraagtekens neer bij het gebruik van meerdere cores in desktops. Heel veel software moet namelijk herschreven worden om gebruik te maken van meerdere cores. De vraag is dan ook of er binnen twee tot drie jaar genoeg software verkrijgbaar is om effectief gebruik te maken van meerdere cores. Indien deze software niet aanwezig is, dan heeft het weinig nut om een processor met vier of meer cores uit te rusten. Ook ligt het eraan hoe gebruikers in 2007 met hun desktop om zullen gaan. Als deze meerdere applicaties tegelijkertijd draaien, dan heeft een architectuur met meerdere cores wellicht nut, anders weer niet.

AMD doet ook onderzoek naar het gebruik van coprocessors om bijvoorbeeld Java, XML of andere taken sneller te laten verlopen. Hierbij wordt vooral gekeken naar de baten en de lasten. Als het gebruik van zo een coprocessor er bijvoorbeeld voor kan zorgen dat een taak 80% sneller kan worden uitgevoerd en er hier maar 20% extra silicium voor nodig is, dan wordt het interessant om een coprocessor te gebruiken. Daarnaast wordt er gekeken of het mogelijk is om een processor met meerdere cores zo te ontwerpen dat deze zich automatisch aanpast aan de werklast. Dit kan bijvoorbeeld door een of meer cores uit te schakelen en de frequentie en spanning van individuele cores te verhogen of te verlagen.

Moderatie-faq Wijzig weergave

Reacties (82)

. De eerste architectuur is gericht op de mobiele markt, notebooks, en is geoptimaliseerd om zo min mogelijk energie te verbruiken, zonder dat dit veel nadelige gevolgen heeft voor de prestaties.
Als dit de basis gaat worden voor de nieuwe generatie desktops, dan staat me dat een stuk beter aan dan het alternatief: de server-architectuur down-scalen naar de desktop.
Ik kan nu al een spreekwoordelijk ei bakken op m'n proc en die energie is ook niet gratis. Ik investeer daarom liever bij de aankoop wat meer in wat moeilijkere en daardoor duurdere technologie, dan achteraf altijd maar bij te moeten lappen via de energierekening.

Wel een leuk idee overigens: een speciale co-pocessor voor b.v. Java.
Als dit de basis gaat worden voor de nieuwe generatie desktops, dan staat me dat een stuk beter aan dan het alternatief: de server-architectuur down-scalen naar de desktop.
Hangt er allemaal sterk van af. Bij de pentium M had intel bewust gekozen voor weinig power. Het gevolg was dat die chip nauwelijks opschaalde. Maar dat wist men van tevoren. Het kan dus zijn dat een échte AMD notebookchip met hetzelfde euvel gaat kampen en dus qua performance simpelweg niet mee kan. Dan gebruikt die per uur wel minder, maar doet die zoveel langer over dezelfde taken dat je energierekening alsnog hoger uitvalt. Ook kan de chip te duur zijn om met de intel desktop chips te concurreren. Dus eerst maar zien wat de toekomst brengt ipv nu al een keuze te maken.
Wel een leuk idee overigens: een speciale co-pocessor voor b.v. Java.
Een speciale java coprocessor is ondertussen redelijk gebruikelijk op Sony Ericsson telefoons. Maar beter goed gepikt dan slecht bedacht zullen we maar zeggen. Verbeterde prestaties bij de meestal toch erg trage java applicaties is alleen maar mooi.
Het echte probleem is natuurlijk dat 90% van de computergebruikers de nieuwste en snelste PC wil hebben terwijl 80+% van de gebruikers op een VIA C3 600Mhz nog teveel power heeft. Maarja, MegaGigahertzen marketen nog altijd beter dan Miliwatts...
Het heeft weinig zin om *op de zelfde basis* performance vergelijkingen te doen tussen processors voor een notebook enerzijds en een server anderzijds, dwz de pure snelheid van de processor.
Veel belangrijk is de performance/W metric. In een server processor de silicon area die dient voor extra high performance groter zijn dan de proportionele toename van die performance en dan *zeker* voor het soort toepassingen dat gedraaid wordt op een notebook.

Het is dus perfect mogelijk om het verbruik van een notebook processor met de helft te laten dalen tov een server processor voor een performance verlies van 30%. Volgens de performance/Watt metric is de notebook processor dan (1-0.3/1-0/5) = 1.40 oftewel 40% beter dan de server processor.

Moest dit niet zo zijn, zou het uberhaupt geen enkele zin hebben om een notebook processor op de markt te brengen.
Performance/watt is een leuke maatstaf maar als ik een notebook koop verwacht ik performance die dicht in de buurt van een desktop komt. Als een notebook slechts 50% van de performance levert bij 50% van het stroomverbruik is die volgens de performance/watt rating even goed, maar in praktijk gewoon te langzaam voor veel software.

Als ik bij de AMD processors kijk (redelijk 1 op 1 te vergelijken) is de snelste Turion in de pricewatch de MT 40 die qua performance vergelijkbaar is met een Athlon 64 3400+. Qua prijs, komt de 3800+ goed in de beurt. Dat betekent dat je op de performance/watt schaal met een turion MT40 136 punten haalt (3400/25w) en met een even dure desktop chip slechts 45. (3800/85) Een gelijkgeprijsde turion is dus op basis van de performance per watt drie keer zo goed als een normale Athlon64.
Toch verkopen de Athlon 64s stukken beter dan de Turions.

Pure performance is dus wel degelijk erg belangrijk. Met de aanschaf van een Turion offer je 10% performance op en krijg je dus een 200% betere performance/watt. De performance per watt is zeker ook belangrijk maar de huidige gebruiker is bereidt veel stroomverbruik voor lief te nemen voor een relatief kleine performance winst.

Omgekeert hoef je bij processors niet al te veel performance in te leveren voor een veel lager stroomverbruik. Hierdoor blijft het dus interessant om notebook processors op de markt te zetten ondanks dat de performance per watt van secundair belang is.
Pure performance is dus wel degelijk erg belangrijk.
Dat ligt er maar helemaal aan wat je met je notebook/laptop doet.

Jij hebt blijkbaar behoorlijk wat performance nodig, veel anderen kunnen het echt wel af met wat minder Mhz.
Het is juist dat performace/Watt niet de enige maatstaf kan zijn om een processor te selecteren. Maar is het wel een van de belangrijkste. In de praktijk zal een chipfabrikant een gecombineerde formule gebruiken waarbij bepaalde gewichten worden toegekend aan performance, performance/watt, area en etc. nog enkele andere parameters.

Nu kan het best zijn dat het voor jou zeer belangrijk is dat performance zo goed als het zelfde moet zijn als voor een desktop, maar in de praktijk behoor jij dan tot de minderheid.

Als ik kijk naar het laptopgebruik op mijn werk (een nogal bekend bedrijf in Santa Clara dat chips maakt), dan worden laptops eigenlijk alleen maar gebruikt voor Word, Excel enz. (Omzeggens niemand heeft nog een desktop.) Het zware werk gebruikt op centrale Unix machines. Als er al eens zware berekeningen op een laptop gedaan worden, dan is dat enkel als de stekker in het stopcontact steekt. Bij andere bedrijven was dat niet anders. Mijn persoonlijk belangrijkste eigenschap voor een laptop is dat de batterij zeer lang meegaat. Zeker hier in de VS is zeer belangrijk omdat bijna alle business travel per vliegtuig gebeurt...
Puur uit interesse zou ik dan wel eens willen weten wat voor'n processor je gebruikt en op welke freq/Vcore.

Mijn Opteron 144 draait met luchtkoeling op 2753MHz (24/7) en is idle 31 graden en full-load (4 uur Prime95) 48 graden.
Het gaat hier niet om temperaturen maar om hoeveel Watt een processor gebruikt. Als je proc b.v. 100 W verbruikt, dan is dat dus 0.1 kWh voor elk uur dat hij aanstaat. Een kWh kost momenteel ruim 20 cent, dus dat komt neer op 2 cent per uur voor een 100 W processor.
Bij 24 uursgebruikt zit je dan op zo'n 175 euro per jaar.

Het kan dus zeker de moeite lonen om zelf tot honderden euro's meer aan je processor uit te geven als je daarmee het opgenomen vermogen flink omlaag kunt krijgen.

Edit: als je er tenminste van uit gaat dat je processor wel een paar jaar meegaat.
Ga jij je maar eens verdiepen in computer hardware en het gebruik hiervan... alsof de cpu het enige is wat de kW's trekt.

De boven modale tweaker pc van deze tijd heeft in een redelijke opzet toch al gauw een 450Watt voeding nodig. Er zijn genoeg opstellingen te bedenken die nog veel meer sap nodig hebben om soepel te kunnen draaien.

De pc in het algemeen is een apparaat dat steeds meer power nodig heeft om te kunnen draaien omdat ze steeds sneller en beter worden, maar daarmee gooi je dus meteen ook de energie rekening omhoog...

Mensen kijken niet zo heel vreemd meer op van energie rekeningen tussen de 100 en de 200 euro per maand ... maar dat is dus mooi wel 1200 tot 2400 euro per jaar, als je nu je pc zou vervangen voor een laptop, zal je nog wel eens heel verbaast staan kijken hoeveel geld je daarop zou besparen :) Ik zou me niets verbazen dat als je een recente snelle maar energie zuinige laptop 3 jaar gebruikt i.p.v. een pc 'zoals die van jou' (even grof genomen) je zo veel geld bespaart dat je na die 3 jaar al weer een nieuwe nog veel betere laptop kan aanschaffen van de besparing alleen al :7
De andere zou gericht zijn op de servermarkt, waar prestaties erg belangrijk zijn en het energieverbruik ook hoger mag zijn.
Hier ben ik het niet mee eens, in ons kleine data centrumpje is energie momenteel nog geen probleem, maar we zien een flinke stijgende lijn in de energie consumptie van al onze servers, clusters en bij behorende artikelen voor Grid Computing.
Energie is niet gratis, maar goed, die kosten kan nog wel wat voor geregeld worden, maar ... als je enorm veel energie in een kleine ruimte produceert heb je ook verdoemde goede koelingsinstallaties nodig om alles eruit te halen. De praktische problemen van de warmte disipatie nemen in rap tempo toe.

Als je in de data intensive science hoek zit, dan had je dit natuurlijk al geweten :Y)
Prestaties waarbij je het nieuwste van het nieuwste nodig hebt zijn belangrijk voor minder dan 1%. Bij de rest loopt een 1,8Ghz machine al snel 99% te idlen.
Leuk dat de machine 99% van de tijd idle is, als je die ene procent dat je er mee werkt je helemaal scheel ergert omdat het zo langzaam gaat.

De subjectieve ervaring van stabiliteit en snelheid van het systeem is niet te meten met hoe vaak je de capaciteit 100 procent benut. Als programma's sneller opstarten heb je snel het gevoel dat je computer sneller is en dat er lekkerder mee te werken is dan wanneer je tijdens het opstarten van een programma een bak koffie moet gaan halen.

Je leest die redenering zo vaak dat voor het grosso modo de gemiddelde computer die je nu koopt dikke overkill is maar ik ben het daar niet mee eens.
ik denk dat de gemiddelde consument voor zijn desktop totaal niet maalt om het energieverbruik. Voor een laptop ligt dat natuurlijk anders.
Ik denk niet dat veel mensen bereid zijn voor een lager energieverbruik consessies te doen op snelheid en dus "werkplezier".
Het in de markt zetten van een energiezuinige processor voor desktops/workstations zie ik dan ook als zeer problematisch, tenzij hij exact even snel is als een energieverslindende concurent.
Als het gebruik van zo een coprocessor er bijvoorbeeld voor kan zorgen dat een taak 80% sneller kan worden uitgevoerd en er hier maar 20% extra silicium voor nodig is, dan wordt het interessant om een coprosessor te gebruiken.
Dit lijkt me nogal logisch en je zou een rund zijn als je het niet zou doen, als je door 20% extra silicium bijvoorbeel 80% sneller games kan spelen dan lijkt met het me een nogal logische implementatie.

Deze globale voorspellingen hoor je altijd maar als je eenmaal de tekst nog een keer leest vertellen deze lui nooit iets nieuws, ze vertellen eerder hetzelfde verhaal van de roadmaps maar dan in een ander jasje.
Ze dagen de softwarebouwers uit, om toch NU ECHT te beginnen met de multicore-optimalisaties in hun software.

Anders zitten de consumenten in 2008 met quad-core pc's, waarop ze apps zoals NERO, SYMANTEC, MICROSOFT,Deamon, logitech, divx encoders/decoders op draaien, allemaal te vechten om core1, terwijl core2, 3 en 4 niets staan te doen.

En DAAR heeft AMD geen zin aan, tenzij........ :z :z
Windows gaat nu ook al de cores verdelen onder de programma's, men wil dat 1 programma op een nuttige manier 3 cores kan belasten

maar aangezien de xbox360 triple core is en de PS3 1core+ aantal cells heeft denk ik dat de gamesmarkt dit tegen volgend jaar wel al weet te gebruiken :)

Office multicore schrijven is een beetje zinloos, voor mij hoeft dat niet zo, maar bv virusscanners enzo, dat moet toch makkelijk kunnen aangezien ze dan gewoon een aantal bestanden parallel scannen
Vind het een beetje vaag verhaal, aangezien AMD al een jaar, of langer, een quad core voor het 2de kwartaal van dit jaar had geplanned.

Overigens zou het makkelijker ontwerpen zijn als meerder core cpu's, software onafhankelijk zouden zijn en dit meer geregeld word via het OS. Om een dvd'tje te fikken of tekstdocumentje te typen heb je geen quad-core nodig. Het aanbod van applicatie's, waaronder games, blijft dus beperkt. En als bestaande software niet voldoed, of er niet snel genoeg mee komt, heb je vaak toch wel kapers op de kust die maar wat graag bereid zijn om in te springen op de vraag.

Desalniettemin vind ik het een zwak artikel van AMD, want nu gaan ze ineens vragen zetten bij meerdere core cpu's. Waarom kom je dan zelf met Dual Cores uit :? Zoveel verschil zal er wel niet zijn tussen dual-quad cores qua software omgeving. Misschien had men beter kunnen stellen in het artikel dat men niet in staat is om voor het 2de kwartaal 2006 een quad core uit te brengen. Waren we wijzer geweest en was het naar hun achterban eerlijker geweest. Nu stellen mensen wederom hun aanschaf onnodig uit door belofte's die men niet kan nakomen. Op zich niet zo heel erg, maar blijf dan gewoon eerlijk :Z
Als je goed leest dan heb je door dat hij het over athlon heeft en daar heeft een quad core waarschijnlijk weinig zin.
Maar voor de opteron server lijn gaat er wel degelijk een quad core komen daar een hoop server progs multi core geschreven zijn in tegenstelling van desktop programma's die bijna allemaal singel core en sommige dual core geschreven zijn.

Waar ik veel meer nut in zie is een dual core hoofd processor met een zo als hij zegt bv een java ge optimalizeerde hulp core.
Maar ook een extra "eenvoudige/kleine" core voor dingen als antivirus firewall ect. al die dingen die in de achtergrond gebeuren maar nu elke keer de normale core onderbreken en voor een beetje cpu tijd vechten.
Druk maar eens CTRL-ALT-DEL en kijk eens hoeveel prog. er in de echtergrond draaien bij je zelf 40/50+ is normaal voor 95% van de gebruikers, en hoewel deze treads maar +/-1% CPU van de snelheid gebruiken zijn ze zeer hinderlijk voor programa's die wel 100% gebruiken van wegen alle interup's.
Zo een core hoeft niet groter te zijn dan een K5 / 386 core met natuurlijk de (power)optimalisatie en snelheid van nu.
Wat je dan krijgt is een 2+1+1core ontwerp 2 hoofd core's (a'la X2), 1 java core, 1 hulp core.

Ik denk dat dit toch wel de toekomst word alleen zit er een probleem bij, Intel en AMD moeten samen gaan werken om zulke dingen van de grond te krijgen want als elk zijn eigen ontwerp en interpertaties gebruikt krijgen we bv hetzelfde probleem als met 3Dnow niemand gebruikt het om dat het niet overal in zit.

btw als de opteron quad core uit komt, kont er vast en zeker ook een uit voor de desktop maar waarschijnlijk voor heel veel geld zo dat een paar nerds met teveel geld kunnen schreeuwen, ik heb een quad core ik ben de beste :P
AMD doet onderzoek naar een processor die java kan versnellen...

Dat lijkt allemaal fanastisch natuurlijk, maar als je terug kijkt in de geschiedenis dan blijkt dat er slechts heel weinig applicaties zijn die een coprocessor rechtvaardigen: meestal haalt de standaard processor technologie de specifieke coprocessor zodanig in dat de standaard processor uiteindelijk een stuk sneller is. Van bij het begin van de introductie van Java heeft men de wortel voorgehouden van zo'n Java accelerator. Maar nu, wat, 6 jaar later?, bestaat zoiets nog steeds niet. Het enige wat min of meer in de buurt komt zijn een paar extra instructies die werden toegevoegd aan de ARM instruction set.

Ik zou er dus niet al te veel op rekenen: die Java processor zal vermoedelijk blijven steken in het research lab. :-)
Zo logisch is het nog niet. Het wil natuurlijk niet zeggen dat die die 20% extra silicium alle taken 80% sneller maakt.

Het is dan erg de vraag hoe "generiek" die taak danwel van hoeveel belang die is... Het lijkt me erg onwaarschijnlijk dat zo'n co-processor zo generiek is dat het gros der spellen 80% versnelt.
Je moet LEZEN wat er staat, niet alles gaat 80% sneller alleen JAVA,
Het gaat dus alleen om optimalizatie voor java, andere programaas hebben er dus geen nut bij.
Nou, CPU power is zowiso niet meer de bottleneck bij games, dus die redenatie gaat hier niet meer op. Verder wordt er ook gesproken over het 80% versnellen van een specifieke taak.

Buitende versnelling van specifieke processen door een copro toe te passen, wordt je main CPU natuurlijk weer ontlast, wat weer ruimte geeft voor andere processen. De ontwikkelinge gaan gewoon door, goede zaak ............. zelfs als achteraf blijkt dat deze ideeën het lab nooit zullen verlaten moet er gewoon innovatie blijven. AMD is lekker bezig als je het mij vraagt.
Als je Fear als voorbeeld pakt. en De wat zwaardere FPS games van de laaste tijd.
Maar er zijn andere genres.

Zoals X3 the reunion en die lijkt toch ook wel erg CPU afhankelijk.

Tewijl Q4 toch wel lekker doorschaald op SMP voor 'n FPS game.
wat is eigenlijk het voordeel van meer cores ten opzichte van betere cores?

Het is natuurlijk goedkoper in het onderzoek.

Maar zijn er verder nog voordelen?
Of is het technisch gezien niet mogelijk om een core nog vel ingewikkelder te maken?
Voor 'n gemiddelde Core heb je 'n aantal Transistoren nodig. 75M tot 150M als fiktieve voor beeld.

Als je steeds Dieschrink doet van 180nm tot 35nm

Dan krijg je voor fix size aan die space steed meer transistors tot je beschikking.

50 75 125 175 250 300 450.

Kan je voor Cache gebruiken alleen niet elke Prog heeft daar evenveel baad bij. Voor desktop markt is Cache niet oneindig zaligmakend. Je wat buffer nodig.

Dus wat moet je doen met die extra veel diespace. Juist veer meer cores.

dit is omdat meer parrallelisatie in één core een veel te laag rendement heeft door code afhankelijkheid tussen verschillende opcodes. dus als je van 3 tot 8 pipeline gaat dan is de winst nagenoeg nihil. Hyperthreading is dan 'n oplossing om die pipes toch goed te gebruiken maar Multi core is dan nog altijd beter.
Ik zie die quadcore's ook nog niet zo zitten. Ik denk zelfs dat dualcore nooit tot zn recht zal komen, of lees liever gebruikt gaat worden.

Ik hoop dat ze flink doorgaan met optimaliseren per megahertz etc.
Dualcore is nog veel over te zeggen: alle 'achtergrondrommel' zoals systeemtaken, browser, muziekprogramma e.d. kunnen gewoon blijven draaien zonder dat dat een nadelig effect heeft op het programma waar je daadwerkelijk intensief mee bezig bent.

Voor quad+ cores zie ik momenteel nog niet echt een markt voor de doorsnee (desktop)gebruiker. Voor de werkvloer (waar rekenkracht nodig is!) zie ik wel een goede toekomst: hoe meer cores hoe beter :) Maar meer prestaties per core is natuurlijk ook altijd te wensen ;)
In de toekomst zal het toch wat meer gebruikt worden, aangezien de software in toch meer multi-threaded geschreven zal worden.
Dan is er niet zoveel verschil tussen 2 of veel threads en dus zullen meerdere cores ook echt gebruikt kunnen worden, mits de hoeveelheid cache per core niet steeds verder afneemt, of andere IO de bottleneck gaat vormen.

Je ziet de frequentie namelijk nauwlijks meer toenemen, dus ontwikkeling zal in de breedte moeten.
Ik hoop dat ze flink doorgaan met optimaliseren per megahertz etc.
eigenlijk hebben zowel AMD als intel ongeveer gelijktijdig gezegt dat er niet meer zo veel winst behaald kan worden op single core gebied.
zeker niet met de snelheid die de wet van more voorschrijft (niet dat dat wettenlijk verplicht is... maar die wet is wel goed voor de verkoop cijfers)
het is niet voor niks dat ze nu allebij practies gelijktijdig met dual cores aan komen.

er zal vast nog vooruit gang zitten in de single cores maar gewoon niet meer zo veel als voorheen. het kost gewoon veel meer silicium-ruimte om een single core even snel te kunnen maken als 2 core samen dan om gewoon een dual core te gebruiken.

@ croga :
zoals iedereen weet heeft intel die wet inmiddels als verbastaard in "de snelheid van de PC zal elke 18 maanden verdubbelen"

en dat kan nu gewoon niet meer met single core's
zeker niet met de snelheid die de wet van more voorschrijft
Je bedoelt die "wet" die stelt dat het aantal transistors op een vierkante centimeter van een chip ieder jaar zal verdubbelen?

Die zegt dus helemaal niets over megahertzen. Daartegen wordt die voorspelling nog steeds waar gemaakt, zeker nu Intel naar 65nm gegaan is en bezig is met de volgende verkleining.
Waarom is er niet gewoon een mogelijkheid om te zeggen tegen een programma'tje; 'jij, azureus, gebruikt vandaag core 1. En jij, photoshop, gaat vandaag lekker op core 2 draaien."

Of is dat juist hetgeen waar men het over heeft met 'het ondersteunen van dual core', ik dacht nl. altijd dat men ermee bedoelde dat software zowel op core 1 áls 2 draait.

Als je zelf die verdeling kan maken is dual core en ook quad core zeker perfect, maar is dit hard/softwarematig niet mogelijk, of hebben de heren van intel en amd hier daadwerkelijk niet over nagedacht.

Stel je eens voor; 1 core voor windows, 1 voor gaming, 1 voor internet en download zooi.... :+
Dat heet gewoon affiniteit. Dat kan je op zo goed als elk OS instellen.

In Win XP bijv. kan je een programma gewoon aan een bepaalde core toewijzen. Niets moeilijk aan.
Die mogelijkheid is er al jaren! Je kan in je taskmanager aangeven welke core een programma mag gebruiken. Zo kan je een programma met meerdere threads (bijv photoshop) maar 1 ipv 2 cores laten gebruiken, daarnaast kan je ook gewoon programma's aan 1 van de cores koppelen :)

Rechtermuisknop op een task en 'set affinity'.

Daarnaast scheelt dualcore ook enorm voor taken die niet geoptimaliseerd zijn. Je computer reageert veel en veel vlotter omdat er altijd processorkracht over is en er geen taak is die 100% kracht kan opeisen. Ben begonnen met een dual celeron, en toen ik overstapte op een athlon64 merkte ik op een aantal punten zeker achteruitgang in snelheid. Nu met een X2 is er geen moment van wachten meer:)
Daarnaast scheelt dualcore ook enorm voor taken die niet geoptimaliseerd zijn. Je computer reageert veel en veel vlotter omdat er altijd processorkracht over is en er geen taak is die 100% kracht kan opeisen.
Iets dat ook altijd als voordeel van hyperthreading genoemd is maar lastig is om met game benchmarks weer te geven. De response was dus feitelijk een verborgen voordeel van de P4
Java, XML of andere taken sneller te laten verlopen
Wat zijn XML taken? XML is toch maar een opmaakformaat?
Het parsen van xml kost ook cpu tijd..dus door een co-processor dat te laten doen verbeterd dat de algehele performance ;)
Op deze manier heb je dadelijk 39 cores in je CPU die 39 specialistische taken kunnen doen en één core die alles kan, en van die 39 ga je er wellicht tien gebruiken. Wat moet ik nu met een XML parser? Of wat moet ik met een Java core? Voor die ééne Java applet die ik af en toe op een website zie? Bovendien, als je toch al threads gaat lichten om naar een andere core te sturen, waarom niet gelijk die andere core volwaardig maken en gewoon threads verdelen over de beide cores? Dat is toch veel handiger voor alles behalve het meest geoptimaliseerde werk?
Het idee is dat je gaat kijken wat voor series van machinecode instructies er vaak gedaan worden als je een Java programma draait, of als je een XML file parseert.
Als blijkt dat bepaalde series vaak gedaan worden, dan kun je daar een hardwarematige instructie voor toevoegen aan je processor; die is vele malen sneller.
Het is hetzelfde idee als wat Intel met zijn SSE instructieset heeft gedaan; dat waren ook extra instructies maar dan voor bepaalde veel voorkomende grafische taken.

Die extra instructies hoef je natuurlijk niet alleen voor Java te gebruiken, andere software kan er ook gebruik van maken.
Dan maar in servers stoppen, maarja dan moet je wel de goede combo cpu&software hebben...
Ik meen me te herinneren dat XML de opvolger van HTML moet worden, nu zitten we nog in de tussenvorm XHTML.
Corrigeer me maar als ik ernaast zit
XHTML is opvolger van HTML, en XHTML is gebaseerd op XML.
XHTML is dus gewoon XML met HTML achtige opmaak die wel voldoet aan de XML normen.
Het is dus niet zo dat XML echt een opvolger kan noemen van HTML, maar XML moet je breder zien.
XMLis manier van gegevens ordenen/opslaan/versturen op een manier die makkelijk te volgen is door mensen.

edit:xml is dus niet bedoeld voor opmaak als html bedoeld is,maar puur voor gegevens opslaan, vandaar dat xhtml bedacht is, voor in browsers op html achtige manier weer te geven.
XML is meer dan een opvolger van HTML, het kan namelijk voor allerlei data ingezet worden (vandaar extensible in de naam).

XHTML is een opvolger van HTML, aangezien het html is herschreven in een XML syntax.

edit: wat w3news zegt dus...
XML was eerst bedoelt als opvolger van HTML, maar bleek daar niet helemaal geschikt voor. De uiteindelijke opvolger van html is toen xhtml geworden, wat gewoon een kruising is tussen html en xml.
xml word nu veel gebruikt voor gegevensuitwisseling. o.a. de webservices die google aanbied en Microsoft bizztalk server gebruiken xml om applicaties aan elkaar te koppelen.
http://en.wikipedia.org/wiki/Web_services#Standards_used
Hmz dat zal in win xp dan niet gaan werken,simpelweg omdat die maar max 2 cores ondersteund?
Of zeg ik het nu verkeerd? O+
Niet zozeer dat er maar twee ondersteund worden, maar dat de kooplicentie maar tot twee cores/cpu's gaat. Je mag er dus niet meer gebruiken.

Ik hoop inderdaad ook dat tegen de tijd van quadcores de software dusdanig is aangepast aan de meerdere cores dat we daadwerkelijk nut van ze hebben, want nu is de tweede core 90% van de tijd niet echt noodzakelijk. En wordt slechts bij enkele programma's gebruikt.
Microsoft hanteerd een per socket license policy. Dat houd in dat ongeacht hoeveel cores je CPU heeft, het als één CPU telt.

Zo ondersteunt Windows XP 2 CPU's (eigenlijk 2 sockets), of deze nu 1, 2 of 4 cores hebben. Bij 2 CPUs met elk 4 cores, kun je dus probleemloos 8 cores in Windows XP gebruiken (volgens de licentie, of de HAL het ondersteunt weet ik niet).

Daarom zijn dual-core CPU's heel erg interessant voor bijvoorbeeld SQL-server, waarvoor ¤5500 per CPU license betaald moet worden.
want nu is de tweede core 90% van de tijd niet echt noodzakelijk. En wordt slechts bij enkele programma's gebruikt.
Dus jij hebt ook maar een 2d videokaart omdat je meer als 90% van de tijd de 3d funtionaliteit niet gebruikt? :z
Tuurlijk is het nog een beetje overkill maar dat zeiden ze van 64 bit ook en daar zie je ook dat indien de hardware er is er vanzelf software voor komt dus dat je dan iig al voorbereid bent op de toekomst. Dual core lijkt me juist heel handig, 1 voor gamen 1 voor de rest :)
ik heb een paar weken geleden een testje uitgevoerd om prestaties van Java vergeleken, 64 bit vs. 32 bit.
AMD64, met 64-bit Linux daarop, met twee verschillende Sun JVMs 1.5 - 32bit en 64 bit
uit die test bleek dat bijvoorbeeld StringBuffer en byte[] verwerkingen zijn 1.6 tot 2.5 keer sneller op 64bit JVM
vandaar durf ik zeggen dat als je toevallig Java ontwikkelaar bent dan heeft 64bit desktop voor jou inderdaad nut - om bijvoorbeeld compile/build tijden te halveren
...uit zelfde test bleek dat Java GUI performance aanzienlijk slechter op linux is dan op windows, maar dat is al een stukje offtopic...
Tuurlijk is het nog een beetje overkill maar dat zeiden ze van 64 bit ook en daar zie je ook dat indien de hardware er is er vanzelf software voor komt
En welke software gebruik jij nu op je Athlon 64 desktop die echt 64 bits nodig heeft? 64 bits linux? 64 bits Windows? geheugenvretende exchange of database servers. Mis jij soms de 0,01% performance bij floating point? Nee, 64 bit op de desktop is nog steeds zinloos. En voorbereid zijn op de toekomst is in de IT al jaren geleden gedegradeerd tot "marketing gebrabbel voor domme consumenten" Een PC heeft een levensduur van 3 jaar. Hoezo toekomst?

(en ja dit is gecharseert. Maar daarom niet minder waar)

@gewone_zeehond. stringbewerkingen 1,6 tot 2,5 keer sneller? Ik geloof dat je resultaten kloppen, maar heb je ook een theoretische verklaring. In mijn ogen kan dit namelijk gewoon niet verklaart worden door 32 vs 64 bit. Eerder door een probleem met het platform (64 bit linux kan niet overweg met de 32bit VM)
ja.. winXP (Pro) ondersteunt max 2 cpu's.. cores zit volgens mij geen restrictie op, anders dan die van de kant van AMD/intel
Uhm... als dat klopt, waarom kun je dan tot 31 CPU's kiezen bij affiniteit instellen?

Goed, op dit moment kan ik er maar 2 kiezen, maar t/m 31 staan er aangegeven, wel grayed out, maar wel in het overzicht.
Omdat het dezelfde taskmanager is als in Windows Server 2003 Datacenter Edition of zo, en daarin kan je wel tot zoveel cpu's.

Bovendien geld de begrenzing van XP van 2 cpu's voor fysieke cpu's. Via hyperthreading en multicores kun je dan alsnog meerdere logische cpu's hebben per fysieke cpu, en MS heeft aangegeven dat je meer dan 2 logische cpu's mag hebben in XP.

Stel dat je 1 cpu had met 16 cores en hyperthreading ( :Y) ) dan waren al je vinkjes wel aktief.
Denk dat Quadcore nog helemaal zo slecht niet is en dat er zeker een markt voor is. Iedereen heeft het wel over multithreaded en dat het beste is 'since sliced bread' maar de complexiteit ervan is van dermate niveau dat het lastig is.

let op: er zit wel een verschil tussen multithreaded (bijvoorbeeld in een window iets invullen terwijl je op een "laad"-knop drukt en hij dus iets laadt) en paralell programmeren (dusdanig je algoritme opsplitsen/loskoppelen zodat de threads tegelijk verwerkt worden en dat thread #2 een antwoord geeft aan thread #1 wanneer thread #2 klaar is)

De snelheid gain van paralellisme heeft dus een nadeel, een thread(s) moet uiteindelijk wachten op de andere.

Nou is dat bij 1 geval niet zo erg maar als je alles optimaal wil paralelliseren kun je dus voor een probleem staan dat thread #1 op thread #3 wacht die weer op thread #2 wacht en deze dus weer op thread #8 die op thread#1 wacht. Een deadlock dus ondanks dat je ze alle vier tegelijk(!) kon uitvoeren op je quadcore.

In theorie zou het mogelijk moeten zijn om een goed werkend parallel programma te kunnen schrijven maar de praktijk wijst, zoals ook in het bericht, weldegelijk anders uit. Misschien dat het hele principe te moeilijk voor de mens is.. of dat het zo lang duurt dat het niet de moeite waard is.

Zelf denk ik dat de markt voor een quadcore er zeker is, hij moet alleen gemaakt worden. Wanneer er goede support en ondersteuning komt voor paralell multithread programmeren dan denk ik dat alles in een stroomversnelling zal komen maar zoals het er nu uitziet is het nog een beetje op een laag pitje.

Zoals uit het verleden bleek though, komt er altijd eerst de hardware en dan de goede software matige ondersteuning. Ik ben benieuwd! :)
Hoewel je op zich gelijk hebt dat een multithreaded applicatie een deadlock kan veroorzaken stel je de zaken hier wel erg negatief voor.

Zo zouden multi user database applicaties volgens jou redenatie ook erg moeilijk zijn om te schrijven. Daar spelen namelijk precies de problemen die je hier beschrijft. Toch is die techniek ondertussen gemeengoed. Deadlocks zijn dus goed te voorkomen mits je maar begrijpt waarmee je bezig bent. Daarnaast zijn de meeste multiuser applicaties van het spawn zoveel mogelijk threads en laat de thread zichzelf vernietigen als die klaar is (denk aan mailservers of databaseservers). In die applicaties speelt het probleem al helemaal niet.

Er is dus zeker een markt voor Quad (of 50) core chips. De vraag is enkel hoe groot die markt is. Op een gegeven moment zijn er simpelweg te vaak te weinig taken om nog een voordeel te hebben van een extra core. Wat mij betreft laat maar komen. (Maar ik ga dan ook deze maand een Sun T1000 bestellen)
Bij parralelisme is het helemaal niet zeker dat de 1 op de ander moet wachten. Zolang ze allebei geen data schrijven maar lezen is er niets aan de hand. De threads moeten alleen wachten als ze allebei data willen bewerken. Er is natuurlijk wel wachtijd maar dit is verwaarloosbaar, omdat ze niet hele tijd dezelfde data aan het beschrijven zijn. Het ligt ook maar net aan het programma wat draait ;)

Voorbeeld:

Een game

thread 1 (core 0): renderen
thread 2 (core 1): physics
thread 3 (core 2): netwerk
thread 4 (core 3): geluid

thread 3 en 4 moeten weliswaar wachten maar deze ontlasten de andere threads zodat ze die weer sneller hun dingen kunnen bereken. Thread 1 is heel de tijd bezig. Heeft wel een spinlock nodig anders is er kans om een frame te verliezen. Thread 2 is constant bezig met input en output. Deze wacht nergens op. Dus Thread 2 loopt met volle snelheid. Thread 1 met een beetje vertraging. 3 en 4 wachten wel, maar die kunnen onderhand ook dingen doen zoals bijv. met thread 3. Pakketjes binnenhalen. Als een thread wacht op een andere thread. kan deze dus alvast andere dingen doen ;) Dit geeft in totaal een super performance boost t.o.v. single core.

Voor dat wachten is er zoiets als een spinlock :P Dus die deadlocks vallen ook wel mee :+ Een beetje goed geschreven programma kan hier wel normaal mee om gaan 8-)

Spinlocks part I
Spinlocks part II
Spinlocks part III

Als je een multi-threaded programma schrijft met spinlocks, kun je deze zonder problemen op dualcore, quadcore, smp bakken en singlecore systemen draaien. De programmamakers waren gewoon te lui om het alvast erin te stoppen voor de toekomst :9

Kijk maar eens in bijvoorbeeld de drivers in linux.. zie je heel veel spinlocks
Ik vraag me af of die co-processors wel zo nuttig zijn. Vooral in het voorbeeld van Java en XML. De plek waar de snelheid van processors gebruikt wordt is (bij een goed geprogrammeerd stuk sofware) nooit bij het XML, maar bij het algorithme. Meestal wordt altijd eerst het data naar het RAM toegehaald en daarna pas bewerkingen op uitgevoerd.

En optimaliseren voor Java lijkt me eigenlijk ook niet zo'n goed idee. Java wordt niet ingezet voor snelheids kritieke applicaties. En met een coprocessor wordt het verschil in snelheid tussen 2 computers alleen groter (dan krijg je situaties van: "waat? hoe kan het zo langzaam zijn? op mijn computer werkt het prima!").

Het lijkt me nuttiger een coprocessor te maken die bepaalde generieke taken versnelt, zodat het altijd werkt, onafhankelijk van de programmeertaal. Of als dit te moeilijk te maken is, of niet genoeg oplevert, een programeerbare coprocessor in de CPU te bakken. Hierdoor kan de softwareproducent of de consument zelf kiezen welke taken het zal versnellen.
Ik denk dat die Java coprocessor vooral voor de server markt bedoeld is. Daar draaien veel Java applicaties (denk aan servlets of J2EE applicatie servers) die wel degelijk snelheids kritiek zijn. Er zijn ook al losse Java coprocessors op de markt, alleen zijn die verschrikkelijk duur.

Verder denk ik dat zo'n Java coprocessor wel voor generieke taken geschikt zal zijn. Ik denk dat het zal lijken op wat Intel met zijn SSE instructieset gedaan heeft. Die was bedoeld voor grafische taken maar is ook voor andere taken te gebruiken.
Wat microchip bedoelt is dat men Java niet heeft ontworpen om snel te werken, maar om op alle besturingssystemen te draaien.
Waar ik zit op te wachten is Pacifica (virtualisatie), eindelijk full-speed windows EN linux draaien in een virtuele omgeving. Alhoewel een coprocessor voor Java ook wel handig is aangezien die echt verrekte langzaam kan zijn. Maar ben er nog niet uit of het een goed idee is, want ik ben niet zo'n Java fan :)
Pacifica zal weinig verandering brengen bij de huis, tuin en keuken PC's. Het zal ook geen full-speed zijn, er zal nog altijd overhead zijn van je virtualisatie software, welliswaar veel minder doordat een groot interrupts hardwarematig afgevangen worden.

Probleem is dat Pacifica je randapparatuur niet VMM aware maakt. VMM aware videokaarten zullen pas echt revolutionair zijn voor de thuisgebruiker.

Ik zit er ook met smart op te wachten en dan vooral icm VMware ESX3.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True