Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 160 reacties

AMD ontwikkelt een desktop-processor met zes cores, genaamd Thuban. De cpu's passen op een AM3-socket en zullen waarschijnlijk in het derde kwartaal van 2010 op de markt komen. Dat is na de verschijning van Intels Gulftown-cpu's.

Thuban staat in het Arabisch voor 'draak' en is tevens de naam van een ster in het Draco-sterrencluster. De aldus genoemde hexacore van AMD krijgt een ddr3 1333MHz-geheugencontroller, 3MB L2-cache en 6MB L3-cache. Waarschijnlijk komen de 45nm-chips uit onder de Phenom II-vlag, maar het ontwerp is gebaseerd op de Istanbul-processors voor servers. Het gaat om AM3-cpu's die mogelijk ook op een AM2+-voetje met split power plane passen. Volgens bronnen van Xbit-labs wordt de Thuban-processor in het derde kwartaal van 2010  leverbaar. Dat is na de komst van Intels Gulftown; deze 32nm-hexacore met ondersteuning voor hyperthreading komt in het tweede kwartaal van 2010 uit, mogelijk als Core i9-model. De Gulftown moet worden gecombineerd met X58-chipset.

Onduidelijk is nog of de Thuban-cpu deel gaat uitmaken van de opvolger van AMD's Dragon-platform, dat in april 2010 moet verschijnen. Dit platform, dat de naam Leo gaat dragen, zal bestaan uit AM3-multicores die sneller zijn dan de huidige generatie, in combinatie met de AMD 890FX/GX-chipset en de SB850-southbridge. Daarnaast moeten systemen die de naam Leo willen dragen een DirectX 11-videokaart van het type Cypres of Hemlock, oftewel HD 5870 en HD 5870 X2 bevatten. In tegenstelling tot Dragon kan Leo alleen met ddr3-geheugen gecombineerd worden. Het Leo-platform krijgt onder meer uitgebreidere Crossfire-mogelijkheden, waaronder een nieuwe generatie Hybrid Crossfire. Ook zal Leo beschikken over uitgebreidere overklokfunctionaliteit en over ondersteuning voor sata 6Gbps en usb 3.0.

AMD Leo
Moderatie-faq Wijzig weergave

Reacties (160)

Het gaat wel snel met CPU's zeg... nog geen twee jaar geleden had iedereen nog een singlecore of MISCHIEN duo core PC, nu praten we alweer over 6 cores (voor commercieel gebruik, niet wat je in echt grote bedrijven ziet dan)!

Nouwja, Hoe sneller hoe beter :) (nou nog de juiste software!)

[Reactie gewijzigd door D4NG3R op 2 september 2009 13:29]

Nu nog de nodige software die hier optimaal gebruik van kan maken.
Yup, zelfs quad cores worden nog niet volledig ondersteund, laat staan hexa (hexa is tog 16?) cores!

Edit, van wiki

6 hexa-/hex- sexa-/sex-[5] shat-
http://en.wikipedia.org/wiki/Numerical_prefix

Wel 6 dus :)

[Reactie gewijzigd door D4NG3R op 2 september 2009 13:26]

Handig lijstje

½ - hemi- / semi- / demi- eg. hemisphere. semi-circle
1 - mono- / uni- eg. unique, monosyllabic,
2 - duo / bi - / di- eg. duo , duet, bisexual
3 - tri- / tre / ter eg. triangle, tertiary, triplets
4 - tertra/tetr/quadr eg. quadrilateral, quadruplets
5 - penta/pent/quinqu-/quin eg. pentgon , quintuplets
6 - hexa/ hex / sexa/ sex eg. hexagin, sextuplets
7 - hepta/ hept / septua eg. heptagon
8 - octa/ octo/ oct eg. octagaon, octagenarian, octopuss
9 - ennea/ non/ nona eg. nonagon/enneagon
10 - deca- / deci eg. decagon

Maar goed, hexa is dus een 6 core CPU, en natuurlijk kunnen de meeste applicaties hier nit optimaal gebruik van maken dat komt om dat wij dat zelf ook niet kunnen. Mensen denken over het algemeen aan maar een ding tegelijk er is een probleem en dat los je op dan bedenk je de mogelijke andere uitkomsten en dan ga je terug naar je oplossing mochten de uitkomsten niet overeenkomen met dat geen je wilt.
Met meerdere cores hoeft dat niet je kunt dan makkelijk 6 oplossingen tegelijk bedenken de resultaten bekijken en dan de geen die het best past bij jouw gewenste resultaat kiezen.
Mensen denken nu eenmaal niet zo en vinden het dan ook extreem moeilijk om dat te vertalen naar computer code omdat ze het zelf gewoon weg niet kunnen.

Het grote voordeel is dat een beetje computer al snel 30 processen heeft draaien die allemaal graag wat processor tijd krijgen met een enkele core moeten ze allemaal minimaal 29 clock tikken wachten voor ze weer iets mogen doen. Maar bij een multi core processor is dat natuurlijk veel korter. Nu is natuurlijk het volgende probleem dat deze processen allemaal maar hel erg weinig tijd nodig hebben en dus voro vrijwel geen belasting zorgen, omdat de kosten van het draaien van een extra core redelijk hoog zijn doen de meeste multi core processors tegenwoordig een of meerdere cores uitschakellen om op die manier energie te besparen. Sommige kunnen dan de overgebleven cores weer wat sneller laten draaien om op die manier te compenseren voor de reductie in rekenkracht maar uit eindelijk draaien de meeste multi core systemen zeker als je geen veel eisende programma's draait met maar een enkele core.

Dat een quad core niet volledig gebruikt wordt hangt natuurlijk helemaal af van het geen je aan het doen bent en hoe het programma geschreven is. Notepad bijvoorbeeld heeft echt geen multi core systeem nodig het is daar veel te simpel voor en draait waarschijnlijk niet minder goed op een 486 in plaats van een core i7. Terwijl bijvoorbeeld photoshop en andere grafische systemen bij het bewerken van een beetje redelijk formaat foto met allerlei mooie filters echt je multi core systeem flik kunnen belasten gewoon omdat het werk dat gedaan moet worden zo goed parallel te doen is. Natuurlijk is het zo dat in veel gevallen een GPU nog beter zal presteren voor dit soort programma's omdat de berekening die nodig zijn erg op de berekeningen lijken waar de GPU voor gemaakt is en een beetje GPU al snel 128 of meer cores beschikbaar heeft om juist dit soort berekeningen parallel uit te voeren.

Uit eindelijk zullen meer en meer systemen, ook games, gebruik gaan maken van meerdere cores, maar zo als de eerste poster al zij het is de laatste tijd erg snel gegaan van allemaal een single core naar 3 jaar later allemaal minimaal een dual core en steeds meer 4 of binnen kort zelfs 6 cores.
De game engines waar men nu aan begint te ontwikkelen zullen veel al een dual core systeem aanraden en over ongeveer een jaar of twee in de winkels verschijnen. Reken een jaar of misschien twee daar na maar op games die vragen om minimaal een dual core vragen waar bij engines zo als de Cry engine waarschijnlijk al aan raden om een quad core system te gebruiken als je alle mogenlijkheden wilt kunnen gebruiken.
Ik denk dat je even DirectX 11 over het hoofd ziet. DirectX 11 zal veel beter gebruik maken van multi-core cpu's. Dus als een game voor DirectX 11 gechreven is heb je al direct meer prestatie voor Multi-core.
Games gaan tegenwoordig al veel beter met meerdere cores overweg. Als een nieuwe game (die nogal wat rekenkracht nodig heeft) geen gebruik kan maken van de meerdere processors, dan is dat gewoon een hele slechte game/engine.
6 - hexa/ hex / sexa/ sex eg. hexagin, sextuplets
Blunder van de eeuw van de marketing afdeling van AMD door dat ding geen sexa core te noemen.
ja, man AMD wil echt een kinderachtige benaming aan een CPU geven. Komen ze wel professioneel over...
Wel de naam is eigenlijk niet aan AMD om te kiezen want er bestaan al hexacores en we gebruiken dat begrip ondertussen al enkele jaren als je erover sprak. Sexacore is de logische naam kijkend naar het verleden maar fabrikanten hebben niet graag "Sex" overal op hun dozen en elke keer je op een link met "Sexacore" klikt is de kans groot dat je filter op het werk al niet toelaat. Om nog te zwijgen over al de mails die plots als spam zouden bemerkt worden doordat "Sex" erin staat.
Ach, je kan ze allemaal een beetje aan het werk zetten:

1 voor het process / programma zelf
1 voor de Ai
1 voor de 3d engine modelling en levels
1 voor belichting
1 voor physics
1 voor communicatie naar externe computers of clients

Zeg nooit nooit, zolang het mogelijk is, is er altijd wel iemand die er een doel voor kan bedenken.

Persoonlijk had ik eerder een ennea (9 core) processor verwacht, of octa-8 met shared memory in het midden. Maar intel was ook nog bezig met een 64 cores processor.

[Reactie gewijzigd door bbr op 2 september 2009 13:45]

Hoewel je verdeling leuk is, blijf je een 'klassieke' denkfout maken, wat mij betreft. Iedere 'taak' die jij definieert heeft een andere hoeveelheid rekenwerk. Daarnaast blijft het aantal cores groeien, en dus blijf je zo taken aan't splitsen.

Om optimaal gebruikt te maken, en alles flexibel te houden, moet je dus niet de applicatie in dit soort taken gaan verdelen, maar je moet ALLES zo onafhankelijk mogelijk van elkaar programmeren. Iedere berekening die niet afhankelijk is moet parallel uitgevoerd kunnen worden. Dus ook binnen de AI/belichting/physics/etc. moeten meerdere 'threads' geopend worden zodra het kan. Als je game dan in vele threads draait, kan je altijd je cores gevoed houden, onafhankelijk van het aantal cores.
tsja dat is discutabel, het inrichten zoals jij suggereert vereist heel erg goed opletten met thread-safety, en het opdelen in taken neemt veel van dat probleem weg. Het scheelt nogal wat als maar 1 processor naar het videobuffer hoeft te schrijven of meerdere. De overhead van het managen van threads is volgens mij ook niet gering.

Verder lijkt het me nog niet eens zo gek om 1 core physics te laten aanpakken en een andere AI of iets dergelijks. Zulk soort processen zijn intensief genoeg of de processor van de straat te houden.

Wat wel zou kunnen is op microinstructieniveau eea regelen, volgens mij is intel met microsoft bezig om gewone programmacode automatisch op meerdere processors te laten draaien, dat zou wel een oplossing zijn, hoewel waarschijnlijk ook weer niet altijd even efficient.
Niet discutable de industrie heeft al aangetoond door inhous testen oa Valve dat je met fine grain treading van zware game enginetask meer uit SMP performance en CPU schaling kan halen.

Ja het kost meer overhead. Maar die overhead gaat van n-Core * 100%.
Bij task spiltsing zoals al eerder aangegeven. Heb je deze problemen.
1 ) Task zijn niet even zwaar. Ze kunnen aanzienlijk verschillen.
2 ) De task hebben ook vaak een zeer grillige load.
3 ) Sommige Gametask zijn ook van elkaar afhankelijk.
Games zijn serieel. En dat beperkt de winst van task treading aanzienlijk.


Met task treading behaal je wel wat winst. 15% tot 30% sneller is vet.
Maar met Fine treading of een hybride form kan je 80% halen.
en je blijft doorschalen ook voorbij 8 cores.

Met DX compute shaders en OpenCL over GPU spreek je van massive aantal cores.
En dan kan je task splitsen al helemaal vergeten. Je hebt maar paar game task.

Die simple methode is goed voor SMP overgang voor een snelle adoptie van dual en Quadcores. Maar niet efficent.

Fine treading waar elke task tot de meest kleine onafhankelijk verwerkbare brokjes wordt gesplist. Wordt op de grote verwerk hoop gegegooid.
Zodat dynamische lasten en task belasting differentatie amper idle cores genereren.

En daarbij automatisch schaald als er core erbij worden gepropped.
Een spel met meerdere spel-karakters/monsters, die krijgen elk een AI en een core toebedeeld, goh, wat gaat de human-karakter, de gamer dus) het moeilijk krijgen straks.
@bbr

Dat is lastiger dan je denkt aangezien 100% perfect multithreading betekent, dat alles onafhankelijk van elkaar is. Maar bij een game is dit zeker niet het geval. Zelfs belichting is afhankelijk van bijvoorbeeld de AI, omdat de AI eerst moet denken, DAN (als in daarna, dus ook dat kan niet parallel) de bewegingen als resultaat worden gedaan, en DAN de physics en pas DAN de belichting. Dit is wel erg in een notendop gezegd, maar mijn punt is,is dat multithreading in games een lastig onderwerp is, omdat veel dingen afhankelijk van elkaar zijn.

Ontopic:
Wat moeten we toch met al die rekenkernen? Zelf heb ik wel een quad, maar ik ontwikkel software (of doe een dappere poging tot in ieder geval) en dan is die extra rekenkracht wél handig. Voor de huis-tuin&keuken gebruiker? Een zware singlecore (Athlon 3 GHz) of een simpele dualcore is meer dan genoeg. Ik snap wel dat fabrikanten ook nieuwe markten ontginnen, zij willen ook winst tenslotte, maar loopt de hardware momenteel niet gigantisch voor op de software? Ik bedoel, in theorie klinkt het allemaal wel mooi, maar in praktijk heb ik het gevoel dat de verhouding hard-software steeds scheever loopt.
En daarbij noem je precies het probleem op waar programmeurs tegen aan lopen bij het ontwikkelen van moderne applicaties.

Dat is dat je er nooit van uit kan gaan dat je op die manier je interne programma processen kunt verdelen, immers zijn er ook nog single-core computers, dual-core computers, etc. Het is momenteel ontiegelijk veel werk om al die exceptions in je eigen game/applicatie/whatever engine te krijgen, vandaar dat software er altijd op achter zal lopen (tenzij er een uber api komt ofzo, maar dat zie ik echt niet gebeuren).
Helaas gaat dat niet zo makkelijk. Multithreaded programmeren is al hondsmoeilijk vanwege de belabberde technologie op dit moment (talen, frameworks) en dan nog zijn vele taken gewoonweg niet in onafhankelijke stukken op te hakken. Kijk naar de taken die je noemt, hoeveel momenten daarin zijn wel niet afhankelijk van resultaten uit andere taken!

Voor elk zo'n moment moet je de threads onderling synchroniseren. Dat is niet zo eenvoudig, een simpele statement als 'health = health + medipack' kan je niet meer zonder gevaar uitvoeren. Andere threads kunnen zo je data onderuit schoppen. Als je dan weer te voorzichtig bent zitten alle threads op elkaar te wachten. Bovendien heeft synchronisatie ook een performance overhead.

Sommige applicaties zijn makkelijker parrallel te maken dan anderen, voor games geldt dat het zeker wel mogelijk is maar dat het bepaald geen triviale onderneming is.

De prijs in ontwikkelkosten nemen ook enorm toe, voor veel applicaties is het gewoon niet waard.
Efficent optimaal SMP gebruik maken kost wat extra hoofbrekens voor de
Game software engenering deel in game produktie.

Maar met een Quadcore amper 1 core vol benutten en 3 andere cores voor elk 10 tot 15%. Is grof gezien 300 á 400% reken kracht laten liggen." Omdat je lui bent."

Als je game zwaar GPU gefoucused is dat je CPU requierment amper low budged is.
Dan kom je daarmee makkelijk weg. inhouse game engine en deadline. Tja daar ga je niet je Game project voor riskeren.

Maar games met wat hogere Physics maar ook vooral AI eisen. Wordt CPU rekenkracht laten liggen toch wel een probleem.

Om daar extra senior programmeurs, de gameengine ontwikkelen die dit wel doet. En daarmee ook zeer competatief in de markt staan!
Is Optimaal de hardway SMP software engineren een must.

Vooral voor licenseerbare engines.
Dus ja extra werk. wat gedaan moet worden.

Je hebt nu nog wat speling eer Quad en hoger richting mainstream gaan. om dat extra werk even uit te stellen. Maar je moet er toch eens aan geloven.
Het gaat ooit nooit volledige ondersteuning krijgen zoals jij het wilt. Voor notepad heb je geen 4cores nodig.
De software die het nodig heeft, is overgeschakeld of in het proces van.
Ook al heb je enkel Notepad geopend, op de achtergrond draaien nog allerlei andere processen die je met een multicore cpu wel gelijktijdig hun taak kan laten uitvoeren.
En daar hoeft die software niet op aangepast te worden, dat regelt de task scheduler van je OS voor je.
Zo zitten notepad en mspaint elkaar niet in de weg, maar kunnen ze allebei op hun eigen core draaien :9
Ik snap dat het ironisch bedoeld is, maar zo zit het wel, tenminste als je handmatig gaat ingeven welk programma welke core mag gebruiken.
Ik praat dan ook meer over games en dat soort zaken!
En ook daar is de software al overgezet wanneer mogelijk. Met de komst van Dx11 komt er al verbetering bij.
Het spel Cars van m'n zoontje niet en dat hapert regelmatig op multicoreprocessors.
Voor dat spel kun je waarschijnlijk nog het beste een Pentium 4 met zo hoog mogelijke kloksnelheid (3GHz) nemen. Een andere cpu zal mischien ook wel gaan, als hij maar hoog genoeg klokt.

En ik zie voor dit spel nog geen multi-core update komen, of het moet zijn als ze over 30 jaar ook van de film een gerestaureerde versie uitbrengen op de opvolger van de opvolger van Blue-Ray.
En games die het nodig hebben gebruiken wel degelijk meerdere kernen tegelijk.
Je kan niet tot in het oneidige core blijven uitbreiden, er zijn maar een x aantal dingen wat een programma (in dit geval een spel) tegerlijk kan doen. Er zijn gewoon heel veel taken die gewoon achter elkaar moeten gebeuren.

Nu zullen er voor een spel vast wel genoeg dingen zijn die je in parallel kan doen wat je snelheidswinst oplevert, maar zoals gezegd is het voordeel van multicores dat meerdere processes tegerlijk kunnen draaien en dus dat ieder process relatief meer cpu tijd krijgt.

edit:
Komt nog eens bij dat hoe meer threads je hebt, hoe meer overhead met synchronisatie je krijgt.

[Reactie gewijzigd door Data-base op 2 september 2009 19:52]

Ben benieuw of Intel nog een 6-core op basis van de Core2 architectuur gaat uitbrengen. Hoe zou die dan genoemd worden? Ze kiezen tot nu toe voor de latijnse benamingen (duo, quad). Dan wordt het dus een Core2Sex (en geen Core2Hex, want dat is grieks).
is er al dunnington.
(voor servers)

maar dat zou weinig nut hebben.
een i7 is toch al sneller en core 2 is eigenlijk dus een "oud" product
Pentium loopt anders ook nog leuk mee in de Intelparade, had ik 2 jaar geleden ook niet kunnen bedenken.
Alleen de naam wordt nog gebruikt; Pentium is tegenwoordig wel Core-based.
Nee hoor. Als je het lijstje van Rob Coops hieronder erbij pakt
2 - duo / bi - / di- eg. duo , duet, bisexual
4 - tertra/tetr/quadr eg. quadrilateral, quadruplets
6 - hexa/ hex / sexa/ sex eg. hexagin, sextuplets
Zie je dat er wel degelijk meerdere talen door elkaar gebruikt worden. Dus wordt het waarschijnlijk Core2Hexa (mits die er komt natuurlijk, wat ik onwaarschijnlijk acht)
hexa is 6 , als je 16 wil moet het hexadeci(of deca) zijn :)
Ik hoop dat deze de intels, ookal zijn die van 32 nm, kunnen verslaan in prestaties, of tenminste prijs/prestatie verhouding
HexaDecimaal is 16. Wat een klotetaal is dat zet. Heb me op school suf gerekend aan die "woorden" die omgezet moesten worden naar ons tientallig stelsel. Zonder rekenmachine!
hexadeci is 16... :)
1 voor de virusscanner
1 voor het indexeren van je files
1 voor de gui
2 voor het gewone werk
1 voor een taak op de achtergrond (muziek)
Wow, zware muziek luister jij.
En je moet eens een minder zware gui gebruiken.
Gewoon een lichte gui met in plaats van 1920x1080 pixels er gewoon 9600x5400.
Als je dat ziet op een 15" (oprolbaar) schermpje is het gewoon haarscherp.
Dat is waar we naartoe moeten: dat je één enkele pixel zelfs met vergrootglas niet ziet.
En dan kun je schermen ook weer resoluties laten schalen zoals vroeger met CRT, vant een LCD/TFT-scherm dat gemaakt is voor 1280x1024 is niet om aan te zien op 800x600, nog afgezien van de verhouding (5:4 resp 8:3). 1600x1200 naar 800x600 gaat nog wel, maar naar 1024x768 (alle drie 4:3) is wederom onscherp. Daarom moet de resolutie flink omhoog.
Lekker efficiënt...

Wat denk je van:

1 voor de virusscanner, indexing én achtergrondtaken. We deden veel meer met 1 core in het verleden én je muziek! Dit zou een makkie moeten zijn voor een moderne processor (tenzij je Norton gebruikt :+ ).

1-6 (variable core shutdown) voor het gewone werk tot aan gaming toe of andere zware dingen. Afhankelijk van belasting van het systeem.

1 "Videokaart" volledig voor de GUI (aero anyone?).

[Reactie gewijzigd door ChriX op 3 september 2009 10:40]

We deden veel meer met 1 core in het verleden
Toen hadden we nog geen Vista
Dit zou een makkie moeten zijn voor een moderne processor (tenzij je Norton gebruikt ).
Aangezien dat op alle PC's voorgeinstalleerd wordt en resources blijft vreten, ook als je geen betaal-abo neemt, en vrijwel niet te verwijderen is, moet je ervan uitgaan dat op iedere Windows-PC Norton draait. En die krijgt iedere multicore onderuit. Alle processen moeten immers eerst door Norton gecontroleerd en veilig bevonden worden voordat ze uitgevoerd worden.

Het plaatje wordt dan:
4 cores voor de virusscanner
1 core voor voor de gui en het OS
1 core voor het gewone werk, inclusief achtergrondtaken en achtergrond muziek.
En een 7e voor eventuele piekbelastingen op te vangen/reserve.
Nog geen twee jaar? Ik had mijn eerste dual core al in de zomer van 2005 (Athlon 64 X2), wat ondertussen alweer ruim 4 jaar geleden is. Toen ik ruim 2 jaar geleden m'n quadcore kocht kende ik al zo goed als niemand meer met een single-core desktop.

Ik denk dat je eerder bedoelt dat single cores al ruim 2 jaar bijna niet meer te krijgen zijn.


Tevens wordt het nu de vraag wie er eerder met de hexacore komt, intel of AMD, van de Gulftown is al lang bekend dat deze komt, echter is er geen datum voor bekend.

@petervanakelyen - De celerons en semprons ja, maar wie koopt die nu nog voor desktop toepassingen? Je hebt al lange tijd voor 50 euro al een dualcore processor. En ja, bijna geen single core modellen meer. Er zijn wat? 5 sempron modellen? Tegen over 50 Athlon X2, Athlon 2 X2, Athlon 2 X3, Athlon 2 X4, Phenom X3, Phenom X4, Phenom 2 X2, Phenom 2 X3, Phenom X4 modellen. (als je de modellen die in september uitkomen meetelt)

[Reactie gewijzigd door knirfie244 op 3 september 2009 00:22]

Ik denk dat je eerder bedoelt dat single cores al ruim 2 jaar bijna niet meer te krijgen zijn.
Nu overdrijf je toch een beetje, er zijn nog genoeg single-cores in de omloop, kijk naar de Sempron's van AMD.
Ik denk dat je eerder bedoelt dat single cores al ruim 2 jaar bijna niet meer te krijgen zijn.
In de reclames zie ik er steeds meer, en niet alleen netbooks en nettops, ook veel gewone Celeron systeempjes bij Dixons enzo, veelal (net als de Dual-Core Pentiums) zwaar overpriced, in vergelijking met de Core2's die nauwelijks meer kosten.
Multicore is geen probleem meer.
OS X Snow Leopard met ingebouwde Grand Central Dispatch. Werkt als een tiet hier op 8 cores (Mac Pro 2x quad xeon).

[Reactie gewijzigd door Dyn op 2 september 2009 13:40]

Ja, maar dan nog moet het wel zo geprogrammeerd zijn:
Dit is een serie compleet nieuwe technologieën waarmee het voor ontwikkelaars veel gemakkelijker wordt om programma's te maken die multicoresystemen optimaal benutten.
Dus als ontwikkelaars het niet gebruiken, heb je er nog geen profijt van.

Precies dezelfde situatie dus voor windows systemen.

bron: http://www.apple.com/nl/macosx/technology/
(Mac Pro 2x quad xeon).
Die wil ik ook wel

[Reactie gewijzigd door BeosBeing op 3 september 2009 14:00]

Meer dan drie jaar terug werden er al meer dual-cores dan single-cores verkocht. Dus zo heel extreem als jij het schetst is het nu ook weer niet.
in 2007 had bijna iedereen nog een P4 processor... ookal werden er meer Duo cores verkocht, de meeste hadden nogsteeds een single core Processor!
Dat is dan jouw ervaring. In mijn directe omgeving vond ik 4 dualcore PCs (de mijne, die van het "gezin" en een voor m'n vader's werk - ook die van mijn buurjongen tel ik er bij (die had ik zelf in mekaar gezet)). De enige singlecore processor in de familie was die van mijn opa, hij speelt alleen patience en gebruikt af en toe word 98.

Ook dateert de P4 die jij bedoelt (Prescott reeks) van 2004~2005, dus tegen 2007 waren er zeker al Dual P4's en (PentiumD) met 2 cores, die werden ook veel gebruikt in modellen van HP en Fujitsu (bijvoorbeeld).

[Reactie gewijzigd door Kosty op 2 september 2009 14:08]

dus tegen 2007 waren er zeker al Dual P4's en (PentiumD) met 2 cores,
Dat betekend niet dat het merendeel van de mensen deze thuis (of op hun werkplek) hebben staan.
In mijn directe omgeving vond ik 4 dualcore PCs
Bij jou in de omgeving, maar is die representatief?

En ook al is de meerderheid van wat er verkocht wordt dual- of multi-core,
het aantal PC's dat er gebruikt wordt is vele malen hoger als het aantal PC's dat er op een maand/jaar verkocht wordt. Tegenwoordig worden bij bedrijven PC's afgeschreven op 5 jaar, maar er zijn nog legio mensen die een oudere hebben.

[Reactie gewijzigd door BeosBeing op 3 september 2009 13:55]

Hmm... ik heb nog nooit van word 98 gehoord. Wel van 95 en 97. Waar kan ik die 98 kopen? Leuk voor mn collectie officiële software.

Voor zover ik weet was word 98 er alleen voor powerpc's en tsja... die zijn niet mijn pakkie an.... dus dan houdt het even op voor me.
Ik had in 2006 al een dual core!? Een Intel D940, die kosste mij toen 350€. Draai ik nog mee, oc'ed althans, met windows 7.
Nou en? Athlon64 X2 bestond al wat langer (en daarnaast was die veel beter).
nu praten we
over volgend jaar.

Voorlopig hebben de goedkopere quadcores van AMD nog moeite om de dualcores van intel bij te benen dus ik wacht eerst nog even op de becnhmarks. Echt interessante info over deze chips zal toch het verbruik (TDP) van de CPU's worden.
juli 2006 werden Core2Duo's geintroduceerd, 3 jaar geleden dus.
daarvoor was er al enige tijd de Pentium D series, niet native dual core, maar toch.
Wordt er eigenlijk echt gebruik gemaakt van al die cores door de software? Anders is het wel nutteloos om een overstap te maken van een single core.
Voor zover ik heb ervaren gebruiken sommige videoconversie programma's meerdere cores: mijn core i7 920 wordt tot 80-90% belast bij een conversie. En de core i7 heeft 'maar' 4 cores en 4 virtuele met HT..
Spellen gebruiken daarentegen meestal maximaal 3 cores, dus ik denk dat het nu beter om te wachten met overstappen op 4 of meer cores als je alleen maar games speelt.
Maar voor zware taken zoals videoconversie geldt: hoe meer cores, hoe beter. :Y)
Maar voor zware taken zoals videoconversie geldt: hoe meer cores, hoe beter.
Kleine nuance dat de snelheid per core natuurlijk ook belangrijk is.
mencoder schaalt perfect en is staat mijn quad core Phenom II voor 100% te belasten.
Ik dacht ergens gelezen te hebben dat de h.264 encoder 8 cores gebruikte natuurlijk kan het programma dat de codec aanroept nog andere cores aanroepen voor filters. Het OS kan natuurlijk nog extra cores gebruiken voor systeemprocessen
Nou ja zo gauw een programma in meerdere threads werkt kan het OS dit al verdelen over verschillende cores. Daarnaast blijft je systeem ook meer responsive bij belasting.
Hangt ervan af wat je met je computer doet. Voor internet/tekstverwerking/... kom je er nog met een single core, voor games kan je best een dual core hebben (en voor sommige zelfs een tripple of quad), en voor videobewerking/simulaties/... is een quadcore aangeraden.
Of er van die hexacore al meteen goed gebruik wordt gemaakt zullen we nog moeten afwachten. Voor videobewerking/simulaties/... vermoed ik van wel.
Veel programma's maken er nog geen gebruik van. Voor de meeste mensen is het hebben van meer dan 2 cores alleen nut als ze een specialistisch programma gebruiken of meerdere zware taken tegelijk draaien.

Zelf heb ik nu een E8500 op 3.16 GHz, die niet is overgeklokt. Ik twijfel al een tijdje om nog even snel te upgraden naar een Q9550, omdat die in januari uitgefaseerd zou gaan worden. Jammer genoeg ga ik er dan voor de taken die maar één kern gebruiken op achteruit: 3.16 -> 2.83 GHz. Dan wordt mijn systeem voor die taken effectief langzamer.

Ook bij een taak die 2 kernen gebruikt (of twee zware taken tegelijk) zal de dualcore sneller zijn. De Quad gaat pas echt winst opleveren als er minstens 3 cores gebruikt worden, of 3 zware taken tegelijk draaien.

Laat ik nu op dit moment geen programma's hebben die meerdere kernen gebruiken, terwijl het slechts heel zelden voorkomt dan ik meer dan 2 zware taken zou willen draaien... dat zou betekenen dat 2-3 van de 4 kernen het grootste deel niets doen.

(Ik draai overigens al sinds begin 2004 op 2 kernen: toen had ik een dual Xeon, die het tot half 2007 heeft uitgehouden. Die moest eruit vanwege een defect moederbord, dat economisch gezien niet te vervangen was. Een heel nieuw bord met, destijds, een E6550 was goedkoper. De E6550 alleen was overigens veel sneller dan de twee Xeons samen.)

[Reactie gewijzigd door Katsunami op 2 september 2009 14:11]

Wat mij betreft: kom maar op met zo'n ding!
De analyse software die ik schrijf is standaard multi-threaded, en zo ontworpen dat het prima opschaalt van een single core, mijn laptop (dual core), via mijn workstation (quad core) en ook naar zo'n hexacore. En ja, die software trekt bij sommige analyses makkelijk alle cores naar 100% :P
Wordt er eigenlijk echt gebruik gemaakt van al die cores door de software? Anders is het wel nutteloos om een overstap te maken van een single core.
Nietes. Je hebt ook wel meerdere programma's tegelijk open, die worden dan verdeeld over meerdere cores. Ikzelf heb met enige regelmaat een tiental programma's open (op een rustige dag), en dáár heb je wel het voordeel van. Want normaal gesproken 'simuleert' je besturingssysteem een multicore systeem door elk proces een X hoeveelheid processortijd per seconde te geven. Dit is veel minder nodig bij een multicoreprocessor.

En ook dan zijn het alleen de intensieve apps die een multicore nodig hebben - audio- en beeldbewerking, video-encoding en decoding, games, etc. En in die laatste categorie zijn de meeste al multicore - de Xbox 360 heeft 3 processors, de PS3 1 met 8 cores, enzovoort. Dus zit daar maar niet al te veel over in.

En singlecore? De laatste was de P4 niet? Die was ook al een 'virtuele' dualcore dmv hyperthreading.
De Gulftown moet worden gecombineerd met X58-chipset.
Kan je dus geen andere chipset gebruiken =/ dat is bizar.
Daarnaast moeten systemen die de naam Leo willen dragen een DirectX 11-videokaart van het type Cypres of Hemlock, oftewel HD 5870 en HD 5870 X2 bevatten.
Dus als je een Leo-platform wilt hebben, MOET je een HD5870/5870x2 gebruiken? Waarom?!
Zoals Reinman al suggereert maakt het niet uit. Dit is gewoon een naam die AMD geeft aan een computer die uitgerust is met de nieuwste AMD technologie.
Het is gewoon een marketing naampje, net als Dragon nu ook al is. OEM bouwers kunnen op die manier een Dragon / Leo platform aanbienden waarbij je al weet wat er inzit kwa CPU, chipset een graka.

Over Centrino hoor je toch ook niemand klagen? Wat is hier dan mis mee?
Het gaat erom dat die de LGA1366 gaat gebruiken wat vandaag erop neerkomt dat je de X58 moet gebruiken.
zelfde reden dat intel bijvoorbeeld aan het Centrino platform ook hardware eisen steld.

Maar je hoeft natuurlijk geen 5870(x2), je kan ook gewoon zelf je computer samenstellen ;)
En wat is het voordeel van het wel of niet gebruik van het platvorm dan? O-)
Dus als je een Leo-platform wilt hebben, MOET je een HD5870/5870x2 gebruiken? Waarom?!
Dat is toch niet zo vreemd, Intel doet dat oa. toch ook met zijn Centrino platform.
Ik dacht altijd dat hexa 16 was :?
In mathematics and computer science, hexadecimal (also base-16, hexa, or hex) is a numeral system with a radix, or base, of 16. It uses sixteen distinct symbols, most often the symbols 0–9 to represent values zero to nine, and A, B, C, D, E, F (or a through f) to represent values ten to fifteen.
Volgens mij was de volledige benaming altijd al:
hexadecimaal
afgekort to hex(a)
hex = 6, deci = 10
Letterlijk dus: 16-tallig
Ah dat verklaart een hoop, nu hopen dat Microsoft slim genoeg is om oneindig core gebruik te ondersteunen in Windows 7. Het kan zomaar zijn dat we over een aantal jaar al op 16 core's zitten, het zou dan wel zo prettig zijn als de software daar dan ook mee overweg kan.
Windows ondersteund vanaf Windows NT 4 al multi CPU of Core, het is meer dat niet alle applicaties hier ondersteuning voor bieden.
Eh ja, maar die mocht je niet altijd gebruiken.
Bij windows NT, 2000 en XP was een standaard licentie maar voor 1 of 2 cores/CPUs.
Ik neem aan dat ze dat nu los hebben gelaten.
Een licentie was bij alle grote OSbouwers voor 1 logische core. Met de komst van hyperthreading en dualcores heeft Ms (ja het gemene monopolistische Microsoft) het sleepvoortouw genomen om dat te schrappen in de voorwaarden.
Bijvoorbeeld IBM waren zeer grote aanhangers om het beleid te houden en mensen x2, x4, x6, ... te laten betalen :/

[Reactie gewijzigd door Rizon op 3 september 2009 06:05]

Microsoft wilt echter zelf niet afstappen van de systeem-afhankelijke licenties. Voor MSSQL moet je nog steeds afhankelijk van je cores betalen als je geen CAL's kunt/wilt gebruiken (vb. een internetsite).

De prijs start vanaf $4000 en kan tot $25000/core gaan. Heb dan eens 2 8-core Nehalem servers (16 virtuele processors per machine). Het is imho de duurste databaseoplossing en is niet eens zo goed als Oracle.

Windows 32-bit is zelf ook nog steeds gelimiteerd tot 2GB RAM/1GB per proces (alhoewel processors 4GB aankunnen zonder extra trucs). Windows Server is ook gelimiteerd tot 64 CPU's of je moet per CPU betalen (~$3000/CPU)

[Reactie gewijzigd door Guru Evi op 2 september 2009 15:56]

Je fout over de prijs heeft Korben al mooi uitgerekend :)

Overigens is een 32bit applicatie niet gelimiteerd tot 2GB, ze is gelimiteerd tot 4GB (onafhankelijk of je OS 32bit of 64bit is). Voorwaarde is wel dat je laa activeert in je Windows en dat de executable is gecompiled met laa of dat je het zelf kan aanpassen.
Dit kan je bijvoorbeeld proberen met editbin. "editbin.exe /LARGEADDRESSAWARE PROGRAMMA.exe".

Doe eerst research voor je Ms bashed lieve tweakertjes!
Maar MS bashen is zo leuk, jaag je al die MS fans zoals jou mee op stang. ;)
En niet iedere gebruiker (ook al is het een groot bedrijf) kan/mag zelf compileren.
Wordt ook lastig zonder broncode.
Misschien moet je eens onderzoeken wat het prijsmodel van Microsoft is voordat je nutteloos een eind weg blaat. Het prijsmodel van Microsoft is namelijk enkel gebaseerd op fysieke processors (bron).

In jouw situatie heb je 2 machines met elk 2 quad-core processors, dus kom je in de duurste situatie uit op een ton. Bij Oracle daarentegen mag je betalen voor 16 cores, vermenigvuldigd met de PCF voor Intel-cpu's, namelijk 0,5. 8 licenties keer $ 47.500 is bijna 4 ton.

Toch ietsje meer dan SQL Server, en dan is het nog de vraag of je met die Oracle licenties evenveel krijgt als je met de Enterprise-licentie van SQL Server.

[Reactie gewijzigd door Korben op 2 september 2009 16:14]

Heb je wel eens naar Oracle prijzen gekeken? En dan ook vooral de functionaliteit die je krijgt mij MS SQL Server tov Oracle (kale DB licentie)?
Ik denk dat ze het voortouw namen... Het sleeptouw ligt gewoon achterin de kofferbak...
Grappige mixup.

"Microsoft heeft het voortouw genomen."
"Microsoft heeft anderen op sleeptouw genomen." (Via het introduceren van een nieuwe manier van licenties uitgeven.)
De professional series mag je op dual socket systemen installeren. Home-versies op singels. Dit wil niet zeggen dat je geen meerdere cores in een socket kan stoppen, natuurlijk. Dat wordt gewoon ondersteund.

[Reactie gewijzigd door mieJas op 2 september 2009 14:10]

Zijn (EDIT: meer dan) 64 logische processors op één systeem genoeg voor je?

zie http://code.msdn.microsoft.com/Win7multicore

[Reactie gewijzigd door Ché Mig op 2 september 2009 13:52]

Iets specifieker:
- Windows 7 Home Basic & Windows 7 Starter ondersteunen maar 1 socket, op die zijn beurt een ongelimiteerd aantal cores mag hebben.
- Overige Windows 7 versies ondersteunen tot 2 sockets, die ieder op hun beurt een ongelimiteerd aantal cores mag hebben.

Source: http://www.winsupersite.com/win7/win7_skus_compare.asp
hexadecimal
Waar denk je dat deci voor staat?

[Reactie gewijzigd door Reinman op 2 september 2009 13:26]

Hexa is 6 deci is tien, dus hexadecimal is 16
Dat stukje gaat over hexadecimalen, en hexadeca = 16 ;)
d8 ik eerst ook
http://en.wikipedia.org/wiki/Numerical_prefix
6 hexa-/hex- sexa-/sex-[5] shat-
-edit- laat maar, blijkbaar was ik de hexa-deci'ste die hierop wilde reageren

[Reactie gewijzigd door nixan op 2 september 2009 13:29]

Hexadecimaal is zestien.

Hexa alleen is zes. Al is het wel zo dat in de computerwereld 'hex' als afkorting gebruikt wordt.

[edit]Haha. :P Spuit elf.

[Reactie gewijzigd door ArtyShock op 2 september 2009 13:30]

decimaal 10 cijfers
duodecimaal 12 cijfers
hexadecimaal 16 cijfers

Hieruit kan je opmaken dat in deze gevallen het voorvoegsel hexa aangeeft dat het 6 meer dan decimaal is. Hexa betekend dus 6.

Of nog basaler; de vertaling van Hexa uit het grieks is 6
Ik heb maar 1 ding te zeggen dat is: Liever te veel dan te weinig ;). Al die mensen die 20 euro besparen als zij voor een dualcore gaan omdat zij gehoord hebben dat quadcore tog NOG niet volledig benut wordt in Windows. iedereen weet dat ontwikkelingen SUPER snel gaan waarom dan nog steeds die ZOOOOOOO vermoeiden uitspraken die lijken op "640k zou genoeg moeten zijn voor iedereen" Leren mensen tegenwoordig dan echt niet meer van de fouten die andere mensen maken ?
Ik vind jou uitspraak wel heel erg kort door de bocht.
Dat jij wel voordelen ziet wil toch nog niet zeggen dat er voor iedereen voordelen zijn.
Als iemand geen foto/video bewerking doet en geen spellen speeld, waarom zou je dan wel een quad core aan schaffen?
Dat verbruikt alleen maar energie.
Voor mijn laptop heb ik net met een singel core aangeschaft. Meer gebruik ik niet in een laptop dus hoef geen energie te verbruiken en gewicht met de koeler mee te slepen.
Over het algemeen hebben spelen op het moment nog meer aan een hoog geklockte dual core dan aan de over het algemeen lager geklockte QUAD cores. Foto en teken applicaties kunnen wat dat aan gaat veelal beter met meerdere cores overweg dan Games.
ik hoor mensen dat veel zeggen, maar tegenwoordig zijn quadcores even hoog geclocked als dual cores.

dus als gamer zou ik tegenwoordig echt geen dual core meer kopen
Een dual core is meestal lager geklokt wat weer bespaart op het energie verbruik en ook geld voor de normale gebruiker die alleen een beetje internet op het apparaat dat deze zeker een betere gebruikerservaring krijgt met een dual-core. Als die single-threaded flash applicatie namenlijk even 100% CPU neemt .. dan is het effect ervan op een single core een factor 10 erger. Bij een dual core heb je dan namelijk niet het gevoel dat de boel stilstaat.
"Al die mensen die 20 euro besparen als zij voor een dualcore gaan omdat zij gehoord hebben dat quadcore tog NOG niet volledig benut wordt in Windows."

20 Euro besparing? Misschien als je een dure duo vergelijkt met een goedkope quatro.
Bovendien gaat het niet zozeer om ondersteuning door Windows maar om ondersteuning door toepassings-software.
Inmiddels overweeg ik om ivm energieverbruik m'n quad te vervangen door een duo.
Hartstikke leuk allemaal maar wordt de bandbreedte van het geheugen niet een gigantische bottleneck met al die cores?
Een deel van die bottleneck zal opgevangen worden door de cache maar het lijkt me ook steeds lastiger worden om de caches van al die cores synchroon te houden?
Valt wel mee. Geheugenbandbreedte is dankzij goeie prefetchers en snelle geïntegreerde geheugencontroller, hypertransport/qpi veel minder een issue.

Zie ook hier van het effect van geheugen op Phenom II:
http://ixbtlabs.com/artic...ard/phenom-2-ddr3-p1.html
Thx voor de link. Maar toch zit er wel degelijk 10 tot 20% performanceverschil tussen het traagste en het snelste geheugen in de test. En dat is met 4 cores.
Hoe je het ook wendt of keert, er komt een punt waarop het toevoegen van meer cores (bijna) geen voordelen meer biedt, omdat de geheugenbandbreedte al volop gebruikt wordt. Misschien niet bij 6 cores, maar dan misschien bij 8, 10 of 12.
Ook zaken als out of order execution en branch prediction worden steeds minder efficient omdat je steeds lastiger kan voorspellen welke code zal worden uitgevoerd, als er 6 cores tegelijk bezig zijn met dingen in het geheugen te schrijven.
Het is meer 10%(7% de laagste 18% de hoogste) dan 20%. Daarbij vergelijk je dus heel snel DDR3(1600mhz), met normaal DDR2(800mhz is normaal). Vergelijk je het met de minder snelle 1333mhz DDR3, is het verschil al een stuk kleiner en de vergelijking qua geld een stuk eerlijker. Ook zie je dat 1600Mhz een keer zo snel is als 800mhz, maar dat de winst geen 100% is!

Tuurlijk word het bij meer dan 6 cores steeds moeilijker. Maar denk je dat geheugen techniek stil staat? Als voorbeeld, Tripple Channel van Intel op de Core i7.
Zie hier hoe groot het verschil is qua snelheid. Theoretisch:
http://www.tweaktown.com/...hannel_cut_it/index3.html

Zie ook hoe weinig nut het heeft in reallife. Bandbreedte is minder een issue en is makkelijker op te lossen door de geheugen controller een extra kanaal te geven. Dit gaat in de toekomst ook gewoon gebeuren. Het is nu alleen nog niet kosten efficiënt gezien de winst in irl te klein is.

[Reactie gewijzigd door Reinman op 2 september 2009 14:46]

Het is aan de programmeurs van multi threaded applicaties om hiermee rekening te houden. M.a.w. zo weinig mogelijk data sharen tussen de threads. Door dit principe te handhaven moet je threads ook niet synchroniseren met elkaar. Het is natuurlijk een utopie om te denken dat je alle threads volledig los van elkaar kunt trekken.
Het was voor AMD wel slimmer geweest als ze hun hexacore eerder op de markt hadden gezet dan Intel. Misschien hadden ze daarmee een voorsprong kunnen maken.

Aan de andere kant kunnen ze nu misschien even de core uit de boom kijken.

Heb wel het idee dat intel een soort processorkanon aan het worden is. Bijna elke week wordt er wel iets aangekondigd. Nieuwe processors, revisies, platformen..
Je lanceert niet even een een nieuwe CPU om de concurrent te snel af te zijn. De ontwikkeling duurt jaren en je wilt niet met een onaf/buggy/tegenvallend product op de markt komen. Dat werkt juist contraproductief.
Zover was ik ook, achteraf gezien is het ook wel te verklaren natuurlijk. Intel heeft een (veel) groter budget voor R&D, dus als AMD en Intel op hetzelfde moment beginnen met onderzoek, is Intel waarschijnlijk eerder klaar.
Komt vooral omdat Intel voor zit op productieproces. Moesten ze vandaag een hexacore uitbrengen zou hij 150W TDP meekrijgen wat nogal onaanvaardbaar is tenzij ze lage kloks hebben, maar dan willen we het natuurlijk ook niet :)
Dus AMD kan het volgend jaar brengen en Intel moet zich niet haasten omdat ze toch voorsprong hebben. Intel zal dan een snelle haxecore met HT voor een hoge prijs aanbieden, AMD zal een iets tragere maar voor lage prijs aanbieden.
Ik vraag mij af wat nu wijsheid is, als je van plan bent op korte termijn een nieuw platform aan te schaffen?

-Core i7 860(s) op P55
-AMD AM3 met nu dualcore en het Leo-platform in april 2010 en wellicht augustus/september 2010 een hexacore?

Wel lekker dat er in april plankjes liggen met usb 3.0 en sata-600 en ene upgrade path naar hexa (met hopelijk de bekende prijs/prestatie verhouding, die voor AMD kenbaar is).

Van P55 zijn er al mobo's uit, 1 cpu (Core i5) maar met al deze plankjes loop je volgend jaar mrt./apr. alweer achter de feiten aan als usb 3.0 en sata-600 verschijnen.
Vergeet niet je dan ook Windows7, Dx11 kaarten, meer betaalbare ssd's en nog een ganse zooi beter hardware/software hebt.
Best is je geld op een spaarboekje zetten. Het leukst is steeds alles kopen en om het half jaar je oude zooi verkopen.
Een heel poosje geleden zat ik wat te lezen over een 80 core van intel. Is daar nou nog wat van gekomen eigenlijk?
Larrabee? Tenminste dat is een multicore met simpele X86 (P1 afgeleiden) cores en DX emulatie voor GPU taken. Door X86 dus ook geschikt voor programma's. Wel als losse insteek kaart. Bij AMD kan je ook een Cell processor er bij doen(in een super computer bijv).
http://en.wikipedia.org/wiki/Larrabee_(GPU)
http://www-03.ibm.com/press/us/en/pressrelease/20210.wss
dank je Reinman
Er bestaan al 8core processors. ook wel i7 genoemd dit zijn de echt Quadcores met hypertheading.(dus 4 vaste cores en 4 viruteel)

Zelf heb ik nog geen grote verwachtingen verder op het gebied van een hexa core. Ik raad persoonlijk als je een goeie processor wilt een i7 core aan
HT is absoluut geen extra core en mag je ook niet als dusdanig zien dus nee er is nog geen 8 core processor, HT is ook alleen maar in bepaalde situaties voordelig en deze situaties zijn er nog minder dan bij meerdere core's.

Verder is de i7 ook niet overal heer en meester in zeker niet op prijs/prestatie gebied.

[Reactie gewijzigd door _Dune_ op 2 september 2009 13:37]

i7 9xx is dus geen octacore.

Je had kunnen melden dat hexacores al op de servermarkt bestaan of zo. Nu is je reactie niet meer dan een foute flame die toont hoe verblind je bent.
Sorry, maar een quadcore heeft geen 8 cores.. en HT is echt niet hetzelfde als een aparte core.... De i7 is dus geen 8core proc...
Een Quadcore met HyperThreading is geen '8core processor'. Daarnaast heeft deze geen '4 vaste cores en 4 virtuele': het OS ziet 8 logische cores en ziet tussen die cores onderling geen enkel verschil.

De aloude Pentium 4 met HyperThreading is bijvoorbeeld ook geen dual core.
Want een Phenom II X4 of een Q9550 zijn niet goed? Sorry hoor maar dat is gewoon niet waar. Een Core i7 is veel duurder. Voor dat geld koop je een betere videokaart.

http://www.pureoverclock.com/article794.html
...Waarom zeg je dat videokaart X of Y beter zijn als hij het over een CPU heeft?
Omdat, als je het over games hebt, een hogere performance kunt halen met een goede GPU dan met een nog-ietsje-betere CPU.
Hangt af welke gpu's je er hebt inhangen. Wie een i7 koopt heeft hopelijk genoeg verstand om er grakas in te hangen die lekker dorstig zijn. Mensen met te veel geld en die geen fora nalezen kunnen het zichzelf kwalijk nemen :)
Wie een i7 koopt heeft hopelijk genoeg verstand om er grakas in te hangen die lekker dorstig zijn
Daar zal je nog van opkijken, want mede door het i7 gehype heb je genoeg mensen die een dikke i7 halen, en dan een bijv. een 9600GT er bij plaatsen

en dan maar niet snappen dat hun game niet voluit kan draaien ... 8)7
Ik las de computer idee, daar in stond een advertentie, ik ga het bedrijf niet noemen. Met een core i7 en een super sneller 1024MB videokaart!!! De videokaart is een HD4350....
Ik raad persoonlijk als je een goeie processor wilt een i7 core aan
Ik wil best één i7 core in een Phenom II cpu ;) .

Trouwens, een moederbord met een fysieke intel-cpu én een fysieke AMD cpu zie ook ook best zitten (al sinds de komst van de PIII) maar van het bestaan van een moederbord daarvoor heb ik geen weet van.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True