Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 60, views: 17.058 •

AMD zou binnen afzienbare tijd twee Richland-apu's uitbrengen met een tdp van 45 watt. Het gaat om de A8-6500T en de A10-6700T. De nog niet door AMD geïntroduceerde processors verschenen in een lijst met ondersteunde processoren op de site van MSI.

Richland dieDe nieuwe processors zijn nog niet officieel door AMD aangekondigd, maar worden klaarblijkelijk met behulp van een bios-update al door een aantal moederborden ondersteund. Het tdp van de processors is 45 watt, en daarmee zijn het de eerste processors met een fm2-voetje, die minder dan 65 watt verstoken.

Het lagere energieverbruik wordt bereikt doordat de klokfrequenties lager liggen dan bij varianten die meer energie verbruiken. De 6700T tikt op 2,5GHz, terwijl de 6500T het met 2,1GHz moet doen. Met behulp van AMD's Turbo Core kan de frequentie ongetwijfeld nog wat hoger uitvallen, maar die snelheden worden niet vermeld.

Ook de onboard gpu is aangepast; de 6700T krijgt een HD8650D-chip die op 720MHz tikt. Vermoedelijk beschikt de chip over evenveel gpu-cores als de A10-6700, maar ligt de klokfrequentie lager. Hetzelfde trucje haalt AMD uit bij de 6500T, waarin de HD8550D-chip wordt geïntegreerd.

ModelA10-6700A10-6700TA8-6500A8-6500T
Klokfrequentie (basis/turbo) 3,9 / 4,2GHz 2,5/ ?GHz 3,5 / 4,1GHz 2,1/ ?GHz
Cores 4 4 4 4
L2-cache 4MB 4MB 4MB 4MB
Radeon-chip HD8670D HD8650D HD8570D HD8550D
Gpu-cores 384 ? 256 ?
Gpu-frequentie 844MHz 720MHz 800MHz 720MHz
Tdp 65W 45W 65W 45W

Reacties (60)

Turbo core clockt meestal 200-400 mhz omhoog.
Dus ik denk dat 2,5/2,8 en 2.1/2,4 best haalbaar zal zijn.
Ik hoopte dat ze wellicht een slimme truuk, wellicht in het design of power management of architectuur.

Nee het is gewoon downclocken om op de 45W te komen..
Ik hoop dat AMD binnenkort ook met een revolutionaire chip komt. Dan kunnen ze weer mooi concurreren met Intel. En het is altijd goed als bedrijven strijden om de beste chip.
Is ook veel leuker om te zien!
Zo gek is dat niet, de energiezuinige versies van de concurrent zijn ook gewoon lager geklokte versies van een "full power" CPU
Er valt eigenlijk pas wat te zeggen als we benchmarks en vooral: verkoopprijzen te zien krijgen. AMD is onovertroffen qua prijs/kwaliteit in de low- en midrange, en met deze serie bereiden ze hun markt uit naar low-power htpc/home-server toepassingen.
Bij een Core i7 3770 / 3770S / 3770T maakt het allemaal niet zo'n groot verschil. Hoe graag ik AMD ook een warm hart toe draag het lijkt vaak alsof het echt de chips zijn die niet hard willen draaien/werken als mindere versies verkocht worden, zie ook historie met triple cores.
het lijkt vaak alsof het echt de chips zijn die niet hard willen draaien/werken als mindere versies verkocht worden
Inderdaad, dat is zo. En? Doet Intel ook. Ik zie er geen probleem in, als je voor weinig geld een CPU krijgt die snel genoeg is, maakt het toch niets uit waarom die wat langzamer is, of?
Zo gek is dat niet, de energiezuinige versies van de concurrent zijn ook gewoon lager geklokte versies van een "full power" CPU
Er valt eigenlijk pas wat te zeggen als we benchmarks en vooral: verkoopprijzen te zien krijgen. AMD is onovertroffen qua prijs/kwaliteit in de low- en midrange, en met deze serie bereiden ze hun markt uit naar low-power htpc/home-server toepassingen.
verschil is echter wel dat haswell een nieuwe architectuur is en standaard al veel lager zit wat betreft tdp dan amd en daar was die hele architectuur speciaal voor gemaakt om stroom consumptie omlaag te krijgen dat is bij AMD dus niet zo

er zit dus wel een verschil tussen
Het is meer dan "gewoon downclocken" want de belangrijkste reden van AMD's hogere TDP (wat overigens niet hetzelfde is als daadwerkelijk verbruik) is de GPU die veel sneller en complexer is met beduidend meer rekenunits dan Intel's GMA chips.
De GPU prestaties zijn dan ook zodanig veel beter dat je deze APU's daadwerkelijk zonder "backup" graka kan gebruiken als je licht wilt gamen terwijl je bij een Core i3 apu toch echt een aparte gpu nodig hebt.

Bovendien is het top-selling-point bij AMD altijd de prijs / prestatieverhouding geweest.
Ja het stroomverbruik is hoger dan bij Intel apu's maar in een HTPC zal je scherm waarschijnlijk meer verbruiken dan je hele pc dus waar gaat het over...

De keuze tussen AMD en Intel is een compromis hoe je het ook bekijkt.
AMD is goedkoper maar meer warmte en stroomverbruik, Intel is duurder maar lager verbruik en minder warmte.
AMD scoort goed met APU's en multi-processing, Intel scoort goed met mobile cpu's en single processing.
Het is dus maar wat je wilt of wat je persoonlijk belangrijker vind.

Hetzelfde geldt eigenlijk ook voor ATI / AMD vs Nvidia. Zelfde verhaal voor beide kampen.
Je kan altijd een eindeloze discussie blijven houden over waarom het ene merk beter is dan het andere maar dat is appels met peren vergelijken.
Het is allebei fruit, het is maar welke smaak jij het lekkerst vind.
Er is geen "foute" keuze.
Zo heb ik zelf ook een Intel gaming systeem met nvidia kaarten en een AMD gaming systeem met een ATI kaart en beide doen hun werk prima.
De keuze tussen AMD en Intel is een compromis hoe je het ook bekijkt.
AMD is goedkoper maar meer warmte en stroomverbruik, Intel is duurder maar lager verbruik en minder warmte.
Beetje een onzinnige stelling. De laatste jaren houden de twee spelers elkaar zo goed in de gaten dat je er eigenlijk vanuit kunt gaan dat je bij gelijke prijs gelijke prestaties kunt verwachten.
Hetzelfde geldt eigenlijk ook voor ATI / AMD vs Nvidia. Zelfde verhaal voor beide kampen.
Je kan altijd een eindeloze discussie blijven houden over waarom het ene merk beter is dan het andere maar dat is appels met peren vergelijken.
Het is allebei fruit, het is maar welke smaak jij het lekkerst vind.
Er is geen "foute" keuze.
Foute keuze is inderdaad sterk. Hij is echter wel te maken. Denk aan een consument die een A10 aanschaft en vervolgens verwacht high-end games te kunnen draaien. Immers het is het "beste" model. Helaas gaat het gewoon niet lekker loepen. Een vergelijkbare fout is echter ook bij Intel en Nvidia te maken.

Daarnaast is er altijd een beste keuze. Welke dat is verschilt maandelijks (bij grafische kaarten). Daarnaast heeft elke partij nog een aantal unieke voordelen. Denk aan CUDA/PhysX/EyeFinity/enz. In cpu land is het de laaste jaren vrij simpel (zie verderop).
De GPU prestaties zijn dan ook zodanig veel beter dat je deze APU's daadwerkelijk zonder "backup" graka kan gebruiken als je licht wilt gamen terwijl je bij een Core i3 apu toch echt een aparte gpu nodig hebt.
Twijfelachtig verhaal. Je zult snel op 1368x768 moeten gamen en dan haal je vaak nog 30 fps of minder op medium. Aangezien elke monitor momenteel 1080p is wordt het kiezen tussen low op je native resolutie of medium op een lagere resolutie. Low op 1080p blijft overigens vaak twijfelachtige framerates opleveren. Zie: http://www.anandtech.com/...radeon-hd-8670d-hd-4600/2

Daarnaast is het gat minder groot dan jij suggereert:
quote: Anandtech
Despite Haswell's arrival on the desktop, AMD is in no trouble at all from a graphics perspective. At the high end, Richland maintains a 17 - 50% GPU performance advantage (~30% on average) over Intel's HD 4600 (Haswell GT2). All things equal, even Trinity is good enough to maintain this performance advantage - a clear downside of Intel not bringing its Iris or Iris Pro graphics to any socketed desktop parts.
De "beste" keuze is eigenlijk altijd nog gebruik blijven maken van een losse grafische kaart. In mijn ogen blijft het een vereiste om te gamen (zie ook de framerates uit de vorige link). Dit hoeft natuurlijk geen high end kaart te zijn. Speel je hele lichte games dan kun je die 30% van richland waarschijnlijk ook wel missen.

Voor rond de 100 euro (vanaf ¤75) heb je een gigantische toename aan game prestaties. We praten dan over minstens een verdubbeling van je framerate. Aangezien een game rond de 40 euro kost lijkt me dit geen hele vreemde investering.

In het geval dat er (uiteindelijk) een grafische kaart gaat worden aangeschaft dan kun je beter voor een Intel gaan. Immers het stroomverbruik en de temperaturen liggen lager en de cpu prestaties liggen hoger. Zoals gezegd zijn de prijzen gelijkwaardig (er zijn ook Pentium modellen).

Cpu prestaties: http://images.anandtech.com/graphs/graph6347/50406.png

De AMD APU's blijven alleen interessant voor de consument die zeker weet dat hij nooit een losse grafische kaart zal aanschaffen. Dat kun je wel een niche noemen. Daarnaast is het een niche die niet echt geïnteresseerd in games zal zijn. De 30% prestatie toename van de igp is in dat geval niet meer relevant.

Sterker nog aangezien de igp van Intel volstaat voor x264 en eventuele hardware accelaratie in je browser lijkt het me dat de voorkeur dan toch uitgaat naar de extra cpu power.

Jammer voor AMD maar voor 99% van de consumenten is Intel toch de betere keuze momenteel. Meer kan ik er helaas niet van maken. Misschien komt er ooit nog een product als de AMD Athlon 64 X2 reeks (die was duidelijk beter). De tijd zal het leren.

[Reactie gewijzigd door sdk1985 op 4 juli 2013 10:55]

Gewoon downclocken?

Naast Kabini (t/m 25 W) trekt AMD de Piledriver architectuur door naar 45W. De huidige Richlands waren alleen nog maar aangekodigt t/m 65W. Het is juist knap van AMD dat ze met één architectuur van 9W tot en met 100W TDP SoC's kunnen leveren. En zo direct komt daar ook nog Temash (<5W) bij.

Dit is al aardig revolutionair en verbetert power management, Huma en andere vernieuwingen kunnen dan ook vrij gemakkelijk over heel het product-aanbod uitgerold worden. Dit zijn dan ook de volgende stappen van AMD; zie Kaveri bv.
Het is juist knap van AMD dat ze met één architectuur van 9W tot en met 100W TDP SoC's kunnen leveren.
Twee architecturen. De chips met Jaguar architectuur (Temash, Kabini) gaan van 3.9W tot 25W, Piledriver gaat van 35W (mobile Richland) tot 220W (Vishera).

Intel doet het vergelijkbaar met huidige "Saltwell" Atom (van de <2W Lexington tm 10W Cedarview) en Ivy Bridge (de 10W mobile Celerons tm de >120W Ivy Bridge-E), en binnenkort met de nieuwe architecturen Silvermont en Haswell.

[Reactie gewijzigd door Dreamvoid op 3 juli 2013 18:01]

Ik zie gek genoeg momenteel alleen een goede toekomst voor AMD in de mobiele markt. Ik zou best een notebook willen hebben met zo`n chip. Prijstechnisch gezien een lachertje en kun je toch even een simpel spelletje meepakken als je eventueel wilt.

Ik hoop wel dat ze weer eens meekomen met Intel. Heb nu voor het eerst sinds lange tijd weer eens AMD genomen (FX-8350). Ja het is een beest, maar ook met stroom- en warmteverbruik.

Intel loopt gewoon nog voor, niet goed voor de concurrentie in het high-end CPU wereldje.
Intel loopt voor met single threads, AMD is beter met Multi Threads en graphics.
Het voordeel van Intel is dat veel software ' simpel' geschreven is voor single treads.

Hier een interessant filmpje over de twee architecturen:
http://www.youtube.com/watch?v=A9YwkSLqpXw

[Reactie gewijzigd door Frustus Maximus op 3 juli 2013 09:50]

Het filmpje doet het voorkomen dat (luie) programmeurs niet bereid zijn om extra moeite te steken in multi-threaded code. Dat is een niet realistische weergave van de werkelijkheid:
  • conceptueel zijn de meeste problemen inherent serieel (i.e. doe eerst taak 1 en met het resultaat van taak 1 doe taak 2 etc.)
  • de extra winst aan performance weegt niet op tegen de toegevoegde complexiteit
  • de reeds geschreven code is niet multi- threaded safe en moet helemaal worden nagelopen of herontwikkeld om multi-threaded safe te worden
  • er is geen winst te verwachten in gebruik multi-threaded. Alleen cpu bound problemen kunnen te volle profiteren van parallellisme; memory of i/o bound vele malen minder.
Verder dacht ik dat Intel cpu's duidelijk sneller waren in zowel single-threaded als multi-threaded performance. Voorheen was het nog wel eens zo dat AMD cpu's gewoon meer (ht-)cores had. AMD heeft wel duidelijk een voorsprong in apu's.

[Reactie gewijzigd door gast128 op 3 juli 2013 11:13]

Dat zijn allemaal goede verklaringen waarom het een aantal jaren duurt voordat multi-threading programmeren mainstream is. Maar waarom wordt multithreading zelfs voor parallal uitvoerbaren rekenintensieve taken vaak nog niet gebruikt, 12 jaar na introductie van hyper threading en 8 jaar na de introductie van multi-core processoren?
Dat is geen luiheid van programmeurs, maar wel van bedrijven.
Dat hangt er vanaf waar je kijkt. Voor wetenschappelijk werk is multithreaded al een heel stuk gebruikelijker, maar het is een stap die je (net als andere optimalisaties) pas neemt nadat het origineel werkt. Als daar geen tijd voor is/gemaakt wordt, blijft iets dus lekker single-threaded, want da's toch echt een heel stuk makkelijker.

Ik verwacht wat dat betreft meer van de programmeertaal-ontwikkelaars, die de compiler zo kunnen afstellen dat ie potentiële threads herkent en afsplitst. Echter blijft ook dat een tricky business, race conditions zijn nog steeds een probleem.
Ik denk ook dat een grote reden is dat veel mensen maar wat doen om multi-threaded te doen. Eerst probeert men nog, en dan komen er gedegen technieken. STM en zijn hardware tegenhanger zijn misschien technieken die gebruikt gaan worden, misschien niet.

Wat ook niet helpt is dat zo'n beetje alle programmeertalen uitgaan van een single-core processor, en ze met libraries pas meerdere cores kunnen gaan gebruiken. Als talen dit direct zouden ondersteunen, zou dat ook een groot verschil maken.
programmeurs zijn tegenwoordig idd lui...
vroeger werden er demo's geschreven 70 min muziek+grafisch animaties op een floppy van 800Kb en de processor lliep op 16Mhz (amiga/atari)
tegenwoordig heb je voor een vergelijkbaar spel of demo 4gb nodig
een quadcore op 4Ghz en 4Gb ram en een graka van 175 watt nodig die het nodige geld kosten om een smpel spel of demo af te spelen.
het is een copy en plak aan elkaar geprogrammeer......
met het motto werkt het niet koop een dikkere cpu/gpu/ram/hd etc....

er zijn wel groepen die op ouderwetse manier nog efficient programmeren
zoals 64kb demo's zie ww.scene.org
Volgens mij is dit onzin. Ik werk voor een bedrijf wat al 20 jaar software maakt. De applicaties die we nu maken eten meer resources, maar zijn ook vele malen groter dan hetgeen wat we 10 jaar geleden maakten. Die trend zie je overal. De originele Wolfenstein en Doom waren een knap staaltje vakmanschap. Maar als je die spellen vergelijkt met Doom 3 uit 2005 dan zit in die laatste Doom wel veel meer functionaliteit dan die originele versies. Met browsers idem dito. Twintig jaar geleden werd er in assembly geprogrammeerd wat efficiënt kan zijn, maar totaal niet overdraagbaar of onderhoudbaar. Het is veel fout gevoeliger. Het was dan ook een natuurlijke ontwikkeling dat later in c of c++ applicaties werden ontwikkeld die in principe net zo snel kunnen zijn als hand gemaakte assembly. Heden ten dag wordt ook c# en Java gebruikt welke wel een grotere claim legt op cpu en geheugen.

Dat applicaties meer functionaliteit bevatten dan vroeger is evolutie. Wat niet normaal is dat besturing systemen en met name Windows alle resources weg eten die eigenlijk bedoeld zijn voor de applicaties die erop draaien en niet voor het os.
Inderdaad, de FX-8350 is een super CPU, maar het stroomverbruik is dusdanig dat het zichtbaar wordt op je stroomrekening. Wat ik vooral goed vind aan AMD is dat hun CPU's zowel qua aantal cores als qua kloksnelheid beter scoren dan Intel. Als ze dat voor elkaar krijgen met een lager stroomverbruik én de bekende prijsstellingen (of wellicht zelfs nog wat scherper) dan zie ik AMD vanzelf terugkeren in de notebook/desktop/htpc wereld.
Wat ik vooral goed vind aan AMD is dat hun CPU's zowel qua aantal cores als qua kloksnelheid beter scoren dan Intel.
Dan nog presteren Intels veel beter, dus ik zie niet wat er positief is voor AMD...

AMD enige uitblinker is de prijs, en op alle andere punten staat Intel voor. Ik gebruik overigens beide voordat ik als fanboy oid uitgemaakt word...

[Reactie gewijzigd door watercoolertje op 3 juli 2013 10:23]

Nee, ook op (embedded)grafisch gebied staat AMD voor op Intel.

Dus als geintegreerde totaaloplossing in bv laptops heeft AMD een streepje voor op Intel. Als je op prijs gaat vergelijken dan krijg je bij AMD veel meer waar voor je geld. Dat betaal je gedeeltelijk terug in stroomverbruik, maar gezien over de looptijd van een gemiddelde laptop valt dat heel erg mee.

Overigens ben ik een vervent Intel gebruiker, om fanboy flames te voorkomen.

[Reactie gewijzigd door Killer op 3 juli 2013 10:57]

Nee, ook op (embedded)grafisch gebied staat AMD voor op Intel.

Dat betaal je gedeeltelijk terug in stroomverbruik, maar gezien over de looptijd van een gemiddelde laptop valt dat heel erg mee.
Maar je levert ook in op accuduur en laat dat nou een van de belangrijkste criteria zijn bij mobiele toepassingen. De extra stroomkosten zullen voor de meeste toepassingen geen punt van betekenis zijn.
De vraag is hoe vaak laptops echt 'mobiel' gebruikt worden. Zo worden er duizende laptops op universiteiten aan de stoom gehangen, de reden dat t een laptop is is zodat je hem overal in kan steken. Laptops zijn geen tablets die altijd op de accu gebruikt worden. En zelfs met een cpu van een paar generaties oud haal je al zo 5 uur dus waar gaat het dan over?
Ja, zo kun je elk argument voor betere efficiëntie wel wegbeargumenteren.

Accuduur is, juist de laatste tijd, een belangrijk punt geworden onder andere door de steeds dunner wordende laptops die dus ook minder ruimte voor de accu hebben.

Beetje een onzin-argument, dit.
als een 300¤ cpu (3770k) soms moet onderdoen voor een 200¤ (8350) cpu dan vraag ik mij af wat je als Intel eigenlijk in hemelsnaam allemaal uitspookt als bedrijf.
Wat Intel "uitspookt als bedrijf" is heel veel geld verdienen.

Ze laten de low-end-markt aan AMD kwa prijs/performance over. Ook al biedt AMD hier heel veel waar voor je geld, en ook al is een 100¤-APU voor al het kantoor/thuisgebruik buiten spellen genoeg, de meeste mensen kopen toch "Intel Inside".

Bij middle/high-end verdient dan Intel bergen met geld. En veel mensen willen ook minstens een core i5 hebben, ook al hebben ze dat niet nodig.

Ik kan het Intel niet kwalijk nemen. Ik vind het alleen erg jammer dat de erg goede prijzen van AMD (oo bij videokaarten) niet worden gewaardeerd. Ik heb zelf een APU, speel daar ook spellen meer, en vind het een prachtig product. Het enige wat ik echt vreselijk vond is de driverinstallatie, daar hebben ze een ontzettend lelijk en slecht bedienbare installer gemaakt.
Dan suggereer ik dat je Justinus Maximu's link eventjes aanklikt en het filmpje bekijkt ;)
Hier een interessant filmpje over de twee architecturen:
http://www.youtube.com/watch?v=A9YwkSLqpXw
Conclusie: op papier én bij specifieke software (encodering, rendering, number-crushing àla BOINC) is de AMD veel sneller, echter ziet een gewone gebruiker dat in de praktijk (nog?) niet terug omdat veel software niet voor multi-threaded use is geschreven.
Edit: er wordt al vooruitgang geboekt.

[Reactie gewijzigd door Rick2910 op 3 juli 2013 15:45]

Het voordeel voor AMD is natuurlijk dat ze zowel een vlotte CPU als een goede GPU in eigen beheer hebben, en dus een complete oplossing voor een systeem kan leveren. Er is een reden voor dat zowel Microsoft als Sony voor AMD hebben gekozen voor het leveren van de CPU/GPU (eigenlijk dus APU) van de nieuwe consoles.
@Rick2910:
Inderdaad, de FX-8350 is een super CPU, maar het stroomverbruik is dusdanig dat het zichtbaar wordt op je stroomrekening.

Dat is echt onzin, de aanschafprijs van een Idle 15 Watt zuiniger Intel cpu ligt gemiddeld 50 procent hoger. Dit zie je dus meteen in je uitgaven.

Voordat de extra aanschafkosten voor een snellere Intel cpu gelijk zijn aan het iets hogere Idle verbruik van de AMD ben je vele jaren verder. (de AMD heeft dan full-time (24X365) aangestaan)

Zet je je PC gewoon uit en gebruik je hem maximaal een paar uur per dag is het al helemaal niet meer relevant.

Back-on-topic:
Tussen 65Watt of 45Watt is er bij AMD is nauwelijks verschil. Het Idle verbruik zal vrijwel hetzelfde zijn. Ik verwacht Idle voor beiden cpu's rond de 10 Watt.
(Bijna alle PC's draaien 90+ procent van de tijd Idle)

[Reactie gewijzigd door trm0001 op 3 juli 2013 14:51]

Dat is niet wat ik in de Tweakers review terug lees:
Zodra we echter aan de energiemetingen begonnen, viel op hoe groot Intels voorsprong eigenlijk is. Het systeem met een Intel Core i5 3470 verbruikt ongever 85W, terwijl het systeem met FX-8350 ruim 200W verbruikt. Dat is een dusdanig groot verschil dat iemand die zijn pc met regelmaat gebruikt, dat aan het eind van het jaar gaat terugzien op zijn energierekening. Hoewel het in de winter wel lekker warm zal zijn op de studeerkamer.
Dat gaat om LOAD verbruik !

N.B. Idle schelen de APU's (daar gaat dit artikel over) slechts 1 Watt met Intel. _/-\o_
Ik neem aan dat je geen AMD FX CPU aanschaft om deze vervolgens idle te laten draaien. Dat kan een Celeron ook prima, voor een fractie van het geld. Het gaat er juist om wat de CPU doet bij load, dat is immers het doel waar de CPU/GPU voor is aangeschaft.
Onzin, PC's draaien Wereldwijd gemiddeld 90+ procent van de tijd Idle.
(een enkele freak / tweaker buiten beschouwing gelaten, dus 100%)

Ga maar eens 24 uur per dag 365 dagen per jaar Gamen....... |:(
(neem van te voren graag contact op met de verslavingskliniek)

Het gaat bij alle consumenten en kantoor PC's voor 100% om het IDLE verbruik.

Alleen bij servers is zowel het IDLE als LOAD verbruik van belang.

Ter illustratie: een 225 euro duurder Intel systeem wat 115 Watt zuiniger is dan een vergelijkbaar AMD systeem moet ruim 10.000 uur onder load draaien wil het voordeliger worden.......

[Reactie gewijzigd door trm0001 op 3 juli 2013 17:08]

Ik neem aan dat je een grote onzuinige gaming PC gewoon in standby gooit als je klaar bent met gamen?
Iemand die aan videoencoding doet gebruikt zijn cpu bovengemiddeld, net zoals een diehard gamer bijv.

Denk dat het regelmatig wel meer dan een paar watt op jaarbasis scheelt.
Klopt. Als je een apparaat 24 uur per dag, 365 dagen per jaar aan hebt staan dan kost je dat ongeveer ¤2 voor elke watt.

Als je AMD 24x7 full-blown staat te stampen dus ¤ 400 versus Intel ¤ 170.

Maar dat is niet een realistisch plaatje. Aannemend dat je pc 90% van de tijd idle is en dat idle tussen Intel en AMD (praktisch) niks scheelt:

Gemiddeld gebruik per uur:
AMD: 90% x 10W + 10% x 200W = 21W
Intel: 90% x 10W + 10% x 85W = 9W

Gemiddeld gebruik van 4 uur per dag:
AMD: 4 uur x 365 dagen x 21W x ¤0,22 = ¤ 6,74
Intel: 4 uur x 365 dagen x 9,5W x ¤0,22 = ¤ 3,05

Dat scheelt je dus op jaarbasis ¤ 3.
Intel loopt inderdaad voor op AMD in de top-end markt maar daar zijn de prijzen dan ook naar.
Je zal bij AMD geen 1000 euro neerleggen voor een "extreme edition".
Je krijgt dus waar je voor betaald.
Bij AMD is dat goede prestaties per euro en multi-threading performance en bij Intel is het betere top-prestaties als je er voor wilt betalen en betere single-threaded performance.
Het is dus maar wat je wilt.

Ik geef toe dat als ik een HTPC of een systeem met laag stroomverbruik zou willen bouwen ik voor Intel en nvidia zou gaan, terwijl als ik voor een redelijk bedrag een gamer systeem zou willen bouwen je eigenlijk verplicht bent bij AMD te gaan winkelen anders kom je al vlug boven de 1000 euro uit bij Intel en nvidia.
Maar zoals ik al in een eerdere reactie aan gaf is het een persoonlijke keuze.
Nu veel geld betalen maar op de lange duur geld aan stroomverbruik besparen of nu minder betalen maar op de lange duur hogere rekeningen.
Veel cores met gemiddelde prestaties per core of minder cores maar met hogere prestaties per core.
Ga je puur en alleen gamen of wil je ook videos comprimeren / converteren / editen?
Er is voor beide merken wel wat te zeggen en te argumenteren.

Wellicht gaat het er niet om wie het beste is in technisch opzicht, maar wie de beste is voor jou persoonlijk.
Ben ik nou de enige die de TDP niet zo heel intressant vind. Ik vind het veel intressanter wat een CPU/MOBO/HDD combi gebruikt als je pc lekker aan het niets doen is. Want dat doet hij 99% van de tijd. (er van uitgaand dat je niet op zoek bent naar buitenlands leven of priem getallen aan het zoeken bent)

Graag zou ik ook in desktop chip een zuinige core zien net als in smartphones die het overneemt als er niets te doen is en dat de CPU heel snel kan overschakelen naar een turbo boost als dat nodig is.

[Reactie gewijzigd door jobvr op 3 juli 2013 09:30]

Lijkt me dat TDP dan onderdeel is van wat jij interessant vindt
eigenlijk niet want TDP zegt nog altijd niets over het opgenomen vermogen van de CPU. Wanneer je de warmteverliezen weet te beperken in je design dan kan je de TDP naar beneden trekken. Het is dus niet omdat een CPU een TDP heeft van 45W dat deze maximaal slechts 45W verbruikt, het werkelijk verbruik kan er boven gaan. TDP wil enkel zeggen dat de fabrikant verwacht dat je een warmte-afgifte van 45W moet kunnen koelen.

Bijkomend berekenen AMD en Intel de TDP verschillend. Bij AMD is TDP echt een worst case scenario, een warmteafgifte die je in normale omstandigheden niet zal bereiken. Bij Intel probeerd men het TDP zo laag mogelijk weer te geven, maar als je een Intel CPU continue onder full load zet in een warme omgeving dan kan het zijn dat de CPU alsnog oververhit. Een Intel met TDP van 45W kan dus effectief meer stroom nodig hebben dan een AMD met TDP van 65W.
Volgens mij wil je juist dat je CPU de opgenomen elektrische energie die die opneemt en omzet in warmte juist zo effecient mogelijk wegvoert. Anders hoop alle warmte zich op in de cpu en dat wil je niet. Denk eraan alle elektrische energie die een cpu opneemt wordt opgezet in warmte door de wet van behoud van energie. Dus ik weet niet waarom jij over warmteverlies spreekt.
Nee juist niet. Mag hopen dat de CPU geen 45wat gebruikt als hij idle is. zag laatst wat specs van de i5 gen4. en daar gebruikte de hele PC 18 watt als hij idle was (werd wel SSD gebruikt).

De TDP is het vermogen dat continu kan worden afggevoerd (pieken kunnen daar boven liggen) maar zegt niets over hoeveel de CPU vernuikt als hij idle is.

in het slechtste geval heb je een CPU die onder last en in rust hetzelfde gebruikt en continu op die 45 watt zit.
Ik kan je vertellen dat een A10-5800 (Trinity, 100W TDP) vs. A10-6700 (Richland, 65W TDP) in een krappe HTPC behuizing een wereld van verschil is qua herrie.

Voor mij maakt TDP wel uit.

Je kunt je afvragen waarom een A10, maar ik wil ook nog wat kunnen gamen op de bank voor de TV.
Kan me herinneren uit de review van Tweakers dat de nieuwe A10 idle zuiniger was dan de intel i7-3xxx.

Het verschil is wel dat bij AMD het TDP ook daadwerkelijk het maximale verbruik is, sterker nog wanneer deze overschreden wordt klokt hij de cpu en/of gpu terug, en het bij intel maar een geïnterpoleerd gemiddelde is.

"...en zuinige core zien net als in smartphones die het overneemt ..."

Je hebt toch "core parking"?

[Reactie gewijzigd door Brazos op 3 juli 2013 09:55]

Je hebt toch "core parking"?
Ja, maar jobvr bedoelt een fysieke core.
Stel je hebt een FX-8350, maar die zit lekker uit zijn neus te eten en toch enerzie te verstoken. Dan heb je liever een Temash-core er bij in. Deze kan dan ingeschakeld worden zodra de CPU niets te doen heeft, en de rest van de CPU gaat 'uit'. Als er dan wel weer werk aan de winkel is kan de rest van de CPU weer aangezet worden voor het echte rekenwerk.
Selective Core Shutdown.
Ja het zou ideaal zijn als je gewoon 7 cores kon uitschakelen in idle zodat je verbruik 1/8 is en dat combineren met speed throtteling om de core clock omlaag te brengen als je niets doet.
Dit is technisch mogelijk zonder de kosten per cpu veel hoger te maken.

Dit zou ook VEEL goedkoper zijn dan aparte cores want dat betekend extra hardware terwijl core shutdown simpelweg een instructieset is zoals SSH en HyperThreading dat ook zijn.
Desnoods zou je een 8-core kunnen maken waarvan 1 core op een apart parallel traject loopt zodat je bij load een 7-core hebt en bij idle een 1-core.
Of zoals bij de FX series 3 modules load en 1 module idle.
"Of zoals bij de FX series 3 modules load en 1 module idle."

Dat werkt niet echt goed. Wanneer Windows 7/8 een core parkeert van een modulaire AMD cpu komt deze er niet meer uit.

Een apart programmaatje of een herstart is dan de enige mogelijkheid om de module weer tot leven te wekken.
tja, is natuurlijk niet zo moeilijk als je em op een veel lagere frequentie laat draaien.. dus echt bijzonder is het allemaal niet..
Tja ik downclock ook mijn A8-6500 naar 1400 mhz. Gebruik het als xbmc mediacenter en heb in principe al die mhz "nu" niet nodig. Daarbij komt dat 90% op de gpu draait. Heb nooit het energieverbruik gemeten, maar neem aan dat, dat nu ook een stuk lager ligt. Geeft in ieder geval minder warmte en herrie af.
Ik vraag me af hoeveel die "T" bij AMD gaat schelen. Het is simpelweg een iets lager geklokte processor, een tweaker toonde in deze review van de Intel G1610T, vergeleken met de G1610 aan dat dat lettertje bij Intel weinig uitmaakt t.o.v. het ondergeklokte gewone zusje van de betreffende processor. Het verschil in TDP is wél 20W.
Heb gisteren net een A8-5600k besteld (100W TDP) voor eens wat te experimenteren met een zelfbouw NAS (FreeNAS waarschijnlijk). Deze CPU is waarschijnlijk wel overkill hiervoor, maar moest FreeNAS mij niet bevallen, dan zou ik hem nog kunnen gebruiken voor een surf/multimedia PC.
Als deze nieuwe CPUs aan eenzelfde (of lagere) prijs in de markt gezet worden, kan dit wel interessant zijn voor dit soort toepassingen...
Draai zelf Openmediavault sinds 2 weken op een Thecus N5550. Zeer tevreden!
Ik heb ook al verschillende kant-en-klare NASsen staan, 2xSynology DS212j momenteel en daar ben ik heel tevreden van. De software die er op draait, vind ik heel goed dus geen behoefte om daar iets anders op te draaien. Maar ja, je bent tweaker of niet he :) dus toch zelf nog beetje knutselen dan maar...
JE kan de Synology firmware ook op een normale pc installeren. }:O
was voor mij ook de afweging. synology of openmediavault. toch blij dat ik voor Omv gekozen heb. net wat makkelijker compileren op debian based. voor wat driver modules
Dan mag ik hopen dat FreeNAS (FreeBSD toch?) wél behoorlijk overweg kan met deze APU. Mijn Ubuntu systeem hier moest ik "lief" (lees: met een hamer zowat) toespreken voordat ik een werkend systeem had.
FreeNAS is inderdaad gebaseerd op FreeBSD, en na wat googlen blijkt dat dit overweg moet kunnen met deze APU. Ik heb nog nooit iets met BSD aangevangen en wacht nog op levering, dus hopelijk kom ik niet voor al te grote verrassingen te staan...
Ik draai zelf een FreeBSD NAS op een AMD E350(18W TDP) en die CPU is daar snel zat voor. Compilen duurt uiteraard wel wat langer als je dat gaat doen, maar zelfs compilen, 1080p mkv streamen en bestanden kopieren naar de NAS gaat zonder haperingen op het streamen van de mkv.

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Tablets Luchtvaart Samsung Crash Smartphones Microsoft Apple Games Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013