Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 104 reacties

AMD uit kritiek op de benchmarksuite SYSmark 2014, omdat resultaten van processors van Intel aanzienlijk gunstiger uit zouden pakken dan die van AMD-chips. PCMark 8 van Futuremark geeft volgens AMD een betrouwbaardere en objectievere indicatie van de prestaties.

In een 'truth or myth'-video zetten John Hampton van AMD’s clientcomputing-divisie en technicus Tony Salinas de SYSmark 2014-resultaten van twee 'vergelijkbare laptops' uiteen, een met een Intel Core i5 en een met een AMD FX-apu. De laptop met Intel-chip scoort hier 987 punten, terwijl de AMD-laptop slechts 659 punten krijgt. Volgens Hampton is dit geen realistische weergave van het werkelijke verschil.

Om dat aan te tonen draaien ze PCMark 8 Work Accelerated. Bij deze benchmarksuite is de AMD-laptop weliswaar ook langzamer, maar het verschil bedraagt hier zeven procent. De AMD-medwerkers hebben daarnaast een eigen Microsoft Office-test gedraaid, die de Core i5-laptop in 61 seconden en de AMD FX-laptop in 64 seconden doorliep. Volgens Hampton is het belangrijk dat consumenten moeten kunnen vertrouwen op betrouwbare, onbevooroordeelde en transparante benchmarks, waarbij hij een verwijzing maakt naar de sjoemelsoftware die Volkswagen gebruikte om de emissies van uitlaatgassen lager uit te laten vallen.

Hampton wijst daarnaast op een uitspraak van de Amerikaanse Federal Trade Commission, die Intel sommeerde bekend te maken dat tests zoals SYSmark en MobileMark geoptimaliseerd kunnen zijn voor Intel-processors. AMD heeft dan ook al jaren kritiek op de BAPCo-organisatie achter SYSmark en stapte in 2011 uit het consortium. BAPCo meldt PCWorld in een reactie dat de benchmark door duizenden klanten gebruikt wordt en dat de organisatie zich op applicaties richt die consumenten dagelijks gebruiken.

Het steekt AMD met name dat SYSmark vooral de cpu-prestaties evalueert en de grafische capaciteiten buiten beschouwing laat. Vandaar ook dat het bedrijf de PCMark 8-suite in accelerated-modus aanhaalt, die ook de gpu aan het werk zet bij het doorlopen van de tests. AMD benadrukt al jaren met zijn Heterogeneous System Architecture dat werklasten efficiënt verdeeld kunnen worden over zowel de cpu als de gpu van een processor. Een tijdlang had AMD krachtiger geïntegreerde gpu's in zijn chips, maar Intel heeft sindsdien terrein herwonnen met de videochips van zijn Core-processors.

Moderatie-faq Wijzig weergave

Reacties (104)

Maar waarom dit duidelijk maken door middel van een youtube filmpje? Waarom niet via een rechtzaak?

het doet mij denken aan Apple's megahertz myth https://www.youtube.com/watch?v=PKF9GOE2q38 https://www.youtube.com/watch?v=tPBtXUUeFK0 in combinatie met het spreekwoord "een kat in het nauw maakt rare sprongen".

Het lukt AMD niet zo meer om intel bij te blijven. Helemaal niet als het gaat om prestaties per watt.

[Reactie gewijzigd door yousql op 19 januari 2016 10:28]

Dat ligt niet aan AMD maar aan het feit dat geen enkele andere foundry er in is geslaagd en werkend 22nm proces te ontwikkelen.

Bulldozer is niet het juiste ontwerp voor deze tijd, maar op 22nm zou het verschil lang zo groot niet zijn geweest.
Misschien omdat het niet mogelijk is om dit uit te vechten met een rechtzaak? Het zijn 2 onafhankelijke partijen waarbij 1 partij voorkeur heeft voor de andere partij. Het beste is in dit geval tech sites dus gewoon te informeren over die voorkeur, en te adviseren niet meer deze benchmark te gebruiken.

Waarom ze deze voorkeur hebben en daarom AMD nadelig laten uitkomen in hun test is de vraag. Misschien word er wel voor betaald, maar dan moet je hiervoor wel bewijzen hebben die ze misschien wel niet hebben. Geen bewijs = geen zaak.

[Reactie gewijzigd door Crp op 19 januari 2016 11:03]

AMD heeft daar geen geld meer voor...
Heeft een hoog "Wij van WC-eend" gehalte. Vooral omdat ze zelf aangeven dat de test alleen de CPU test, en niet de GPU. Waarom zou de GPU de score moeten beïnvloeden? Dat lijkt mij een apparte test, gezien een groot deel van de gebruikers een apparte GPU heeft.

Het spijt mij vriendelijk AMD, maar een "onderzoek" van een partij die direct betrokken is bij de uitkomst vind ik allerminst betrouwbaar.

Plaats eerst maar een vergelijking van de pure CPU score uit een andere benchmark.
Het merendeel van de Tweakers zal een dedicated GPU hebben, maar het grootste deel van de PC's en vooral laptops hebben maken gebruik van de iGPU. Daarnaast kan je iGPU tegenwoordig met dx12 ook gewoon naast je dedicated GPU gebruikt worden om physic ed te berekenen (je kan dan zelfs AMD en nvidia laten samen werken of intel en AMD).

Natuurlijk enkel de CPU testen is niet per definitie fout maar om een intel APU en een AMD APU te vergelijken (zonder gebruik van een dedicated GPU) zal je voor dagelijks gebruik ook de GPU in de test mee moeten nemen. AMD zegt in het filmpje ook niet direct dat de test fout is. Ze zeggen alleen dat SYSmark geen goede indicator is voor dagelijks gebruik en daarom een verkeerde indruk kan wekken.
Het merendeel van deze niet-tweakers heeft nog nooit gehoord van een benchmark, laat staan van 'SYSmark' of 'PCMark'.

Dit is een storm in een glas water. Je hebt een heel arsenaal aan benchmarks. Elke benchmark legt zijn focus ergens anders op. Dit is waarom goede tech-sites verschillende benchmarks draaien en opnemen in hun review. Zo kan je als tech-gebruiker zelf meer waarde hechten aan die benchmarks die voor jou het meest van toepassing zijn. Voor sommigen zullen dit de CPU intensieve benchmarks zijn, voor anderen de meer GPU intensieve benchmarks.

Net goed dat er verschillende benchmark suites zijn, met elk hun eigen zwaartepunten! Ik juich dit net toe. Beetje flauw van AMD om dan te roepen dat er een benchmark suite is die wat meer op de CPU leunt dan op de GPU.
Het probleem is dat veel IT diensten minder geinformeerd zijn dan je zou denken. Zij kijken juist naar de benchmarks en niet naar waar ze het voor nodig hebben.
Dan kijken ze naar de benchmark en zien dat de AMD computer maar half zo goed scoort in een benchmark, ook al is Intel dan wat duurder gaan ze daar voor. Maar het kan zijn dat het bedrijf bijna geen gebruik maakt van de snellere processor en nu last heeft van de tragere iGPU of gewoon teveel geld heeft uitgegeven om iedereen van een Intel PC te voorzien.
Ze doen het meer omdat ze willen dat er een goed beeld gevormd wordt van het geheel, niet kleine onderdelen die misschien niet ter zake zijn.
Het is niet meer dan logisch dat een software maker optimaliseert voor het meest gangbare/gebruikte platform. Dat maakt dat AMD wellicht extra een underdog positie toegedeeld krijgen, maar deels is dat eigen schuld. AMD heeft een paar keer andere instructiesets aan hun processor toegevoegd, die Intel (nog) niet had. Denk aan de SSE4 verschillen.

Ontwikkelaars - ik spreek uit de eigen praktijk - willen geen aparte Intel en AMD binaries. Je laat de compiler optimaliseren voor hardware dat gangbaar is. En je levert 1 Intel/AMD compatibel product uit. Tenzij je zo zwaar op de CPU leunt dat verdere optimalisatie voor de eindgebruiker voordeel oplevert, kies je bewust voor 'het beste van 2 werelden'. Optimalisaties lopen per definitie achter op de meest recente hardware. Ik denk dat het bij ons bedrijf wel 5+ jaar duurt voordat je de hardware lat hoger legt. D.w.z. pas ruim 5 jaar na het verschijnen van nieuwe (nuttige) CPU instructies kun je gebruik van deze instructies gaan maken (omdat dan pas deze hardware als 'normaal' beschouwd kan worden).

Voor een benchmark ligt dat iets anders, omdat daar CPUs op specifieke taken getest worden, maar omdat 90% of meer van de CPU instructies gelijk is tussen AMD en Intel, kan die laatste 10% verschil in instructies slechts beperkt invloed uitoefenen. Wellicht in een benchmark een heel verschil, maar in dagelijks werk zullen de verschillen kleiner uitvallen.

Kortom: AMD biedt gewoon mindere prestaties (ze halen het niet bij de midden/top reeks van Intel), waar bestrijden van resultaten van benchmarks niet gaat helpen. Dat is PR oppoetsen, waar de gemiddelde gebruiker niets aan heeft. De doelgroep die een benchmark gebruikt als koopadvies is sowieso een hele kleine. De meesten kijken naar wat het kost en weten niet eens of ze een Intel of AMD CPU hebben.
Je compiler verhaal klopt niet. Het is prima mogelijk om meerdere code paths in de zelfde binary te hebben. Je kan dus nieuwe instructies ondersteunen en toch Backward compatibele zijn.

Als ze echter de Intel compiler gebruiken, dan negeert die veel features van niet Intel processors en gebruikt in plaats daarvan een langzamer codepath dat alleen oude instructies ondersteund.
Het kan wel,maar is (veel) meer extra werk. Zowel qua coderen als qua testen.
De Intel compiler zal idd zich concentreren op Intel processoren. Als je de Intel compiler gebruikt, moet je ook de Intel runtime DLLs uitleveren. Dat is iets wat we tot nog toe niet hebben willen doen.
nee, want dat kan een compiler allemaal automatische.

en een compiler hoort zich te houden aan wat de CPU zegt dat het ondersteund en niet maar zelf iets te verzinnen. dat intel zijn compiler niet optimaliseert voor AMD, ok, maar dat ze gewoon express GEEN gebruik maken van features die AMD wel ondersteund, en waar de compiler wel ondersteuning voor heeft, dat is gewoon fout.

sterker nog daar zijn ze voor op de vingers getikt, maar ze doen het nog steeds.
Compileren kan wel automatisch gebeuren, het kost wel altijd tijd. Afhankelijk van de omvang van je code kan dat uren duren. En de resultaten moeten getest worden. Als een extra build niet meer past in bijv. de lengte van een nacht, dan is een extra build niet gewenst. Automatisch != gratis.

Visual Studio komt bij Microsoft vandaan. Gcc van de GNU gemeenschap. Bedie producten komen dus niet van de processor leverancier. Intel maakt ook zelf een compiler, maar ook die werkt niet zoals jij zegt.

In alle gevallen bepaald de ontwikkelaar met welke vlaggen gecompileerd wordt. Een C/C++ compiler zal nooit aan het OS vragen 'wat kan jouw CPU' of 'wat kun je zelf', tenzij de ontwikkelaar zegt 'target de code voor de huidige machine'.

In veel (alle?) gevallen is de hardware van de klant anders dan waar je zelf op werkt. Vandaar dat je niet eens wilt dat de compiler aan het systeem vraag wat deze kan. Dit kan veel te veel (of te weinig) zijn dan wat de klant heeft. Compileren voor nieuwere processoren dan je zelf gebruikt kan wel, maar uiteraard is dan het resultaat niet op het systeem zelf te gebruiken. Dat is niet handig als je ook (unit) tests uitvoert.

Bij je naam staat een icoontje dat je alles van processors weet. Je bent zelfs developer volgens je profiel. Maar wat ik nu hier opschrijf had je gewoon moeten weten...

[Reactie gewijzigd door kdekker op 19 januari 2016 14:58]

Een C/C++ compiler zal nooit aan het OS vragen 'wat kan jouw CPU' of 'wat kun je zelf', tenzij de ontwikkelaar zegt 'target de code voor de huidige machine'.
behalve dat dat precies is wat de intel compiler doet met binaries. in die resulterende binaries zit zelfs een check in die kijkt of de CPU zichzelf identificeer als 'genuine intel' en kijkt alleen dan naar de flags. je kan zelfs op je PC scannen voor die check in files en vervolgens verwijderen. in een aantal gevallen is dat gunstig voor AMD gebruikers.

https://en.wikipedia.org/...%2B%2B_Compiler#Criticism

The Intel compiler and several different Intel function libraries have suboptimal performance on AMD and VIA processors. The reason is that the compiler or library can make multiple versions of a piece of code, each optimized for a certain processor and instruction set, for example SSE2, SSE3, etc. The system includes a function that detects which type of CPU it is running on and chooses the optimal code path for that CPU. This is called a CPU dispatcher. However, the Intel CPU dispatcher does not only check which instruction set is supported by the CPU, it also checks the vendor ID string. If the vendor string is "GenuineIntel" then it uses the optimal code path. If the CPU is not from Intel then, in most cases, it will run the slowest possible version of the code, even if the CPU is fully compatible with a better version.

even zelfs iets beter onderzoek doen voor je gaat roepen dat ik dat 'had moeten weten'.

ze zijn hier zelfs voor op de vingers getik door de rechten. maar het enige dat ze veranderd hebben is dat ze nu in de EULA zeggen dat ze de optimalisatie op niet-intel cpu's niet kunnen garanderen.

edit: link naar de intel compiler patcher
http://www.softpedia.com/...el-Compiler-Patcher.shtml

[Reactie gewijzigd door Countess op 19 januari 2016 19:09]

Wiki is nu direct het einde van de tegenspraak. Heb je ook bronnen bij Intel die deze (gedeeltelijk verwerpelijke) praktijk bevestigen?

De 2e alinea bevestigd precies wat ik al zei. Intel weet dat AMD niet in alle gevallen 100% compatibel is. Vanuit Intel's perspectief kun je dan zeggen a. ga ik voor maximale performance b. maximale betrouwbaarheid. Wat dat betreft heeft AMD gewoon huiswerk te doen als het voor maximale performance vertrouwen moet op een Intel compiler. Dat is toch raar? Of op z'n minst discustabel om hier een rechter bij te halen.

Ik weet niet hoe vaak de Intel compiler gebruikt wordt. Er zijn genoeg andere compilers (gcc = open source, Visual Studio staat los van Intel). AMD moet toch zo keuze genoeg hebben?

Die laatste link is een link naar illegale software. Ik zou zelf huiverig zijn om zo'n tool op je executables los te laten.

Ik loop al heel wat jaren mee in de software en heb al op heel wat platformen beziggehouden met compiler en compiler vlaggen tuning. Op basis van compiler optimalisatie haal je doorgaans max 10%. Bij synthetische scenario's kun je meer halen. Dat is precies wat een benchmark wil bereiken (En daarom kunstmatig is). In veel gevallen zal de werkelijke winst die de gebruiker ziet niet of nauwelijks merkbaar zijn. Als je bronnen hebt die het tegendeel beweren houd ik me aanbevolen.
Misschien bevoordeelt PCMark wel AMD processors ;)

Maar het is goed dat dit getoond wordt want Intel (en Nvidia ook met bijvoorbeeld Hairworks) misbruiken hun machtspositie wel vaker. Al is het raar dat dit van AMD zelf komt en een of andere tech site dit niet eerder getest heeft.
Mja, misschien is het probleem wel dat tech sites hier niet echt een probleem in zien. Fatsoenlijke techsites die benchmarks draaien, draaien er verschillende en zeggen dan "hé, kijk, intel doet het veel beter op die benchmark maar daar is het verschil toch wel al wat kleiner". En de eindconclusie is altijd "kijk naar de benchmarks van wat je zelf gaat doen/gebruikt/nodig hebt, en maak dan je conclusie of je meer wil betalen voor product X of Y".
Maar dat gaat toch ook niet op als je weet dat een benchmark biased is?
Dat zou niet opgaan als alle benchmarks biased zijn, maar volgens mij gaat het wel op omdat de meeste techsites uiteindelijk verschillende benchmarks draaien: vaak real world benchmarks, synthetische benchmarks...

Stel dat een techsite zou rapporteren dat intel het fantastisch doet in de synthetische maar de vloer aan geveegd wordt in de real world, dan zou iedereen zich toch vragen stellen. En uiteindelijk concluderen dat de synthetische benchmarks waardeloos zijn.

Maar dat blijkt allemaal wel mee te vallen, voor zover ik het hier van op mijn stoel kan inschatten...
AMD heeft hier wel een punt. Uiteindlijk zijn we op een punt gekomen in zowel technologie als software dat we makkelijk de gehele rekencapaciteit van een systeem kunnen benutten. Iets waarop AMD ook op wilt inspelen met zijn HSA. Het is niet verkeerd dat ze dit onder de aandacht willen brengen. (Desondanks dat het een beetje een "WC Eend"-gevoel geeft.)
Tja op zich zou het niet de eerste keer zijn dat AMD dit roept (en gelijk krijgt...) wel zorgwekkend dat dit een mogelijkheid is...
Tsja, zo'n verhalen doen de ronden over iedere benchmark. Van Geek Bench 3 is het ook geweten dat het iOS een voorsprong geeft, etc. Aan de andere kant, als SYSMark de CPU-prestaties test en daarop focust, waarom zijn de grafische capaciteiten dan van belang? Als je variabele blijft toevoegen blijven we doorgaan.
Omdat in windows al jaren (zeker sinds windows 7) er gebruik gemaakt wordt van de GPU.

Voor de desktop, voor de internetbrowser, voor de mediaplayer, voor flash.

Het weglaten is gewoon onrealistisch.


Btw waarom niet een benchmarktool die niet proprietary is, maar gewoon opensource.

Je download gewoon alleen de sourcecode die je moet compilen met een standaard compiler, misschien zelfs code maken die door 4 of 6 verschillende veelgebruikte compilers compiled kan worden. (en dit als onderdeel van de test te maken.)

Daarna modules toe te voegen die gedownload kunnen worden bij het programma zoals bv een module voor SAP, 1 voor MS office, 1 voor libreoffice, 1 per internet browser.

Dan met scripting van het testprogramma stappen recorden in de module om dan af te spelen tijdens de test.
Zoals bv 10 pagina`s in elke browser te laden, daarna browser af te sluiten en opnieuw dezelfde 10 pagina`s te laden. (2 of 3 keer voor test waarde stabiliteit)
Maar dus dan zelf te kunnen kiezen welke browsers en welke pagina`s er geladen worden, om daarvan de snelheid te bepalen.

En ook bv een hele installatie van een linuxdistributie of windows 10 uit te voeren in een vm om die snelheid te bepalen.

Iets dus als http://portableapps.com doet maar dan met runscripting/recording en natuurlijk ook timing.

Gewoon dus een platform waar elke user/bedrijf een compilatie kan maken die voor hem relevant is, en waar ook met geen mogelijkheid mee vals gespeeld kan worden, aangezien iedereen de test thuis kan nadoen met dezelfde hardware.
En de modules zelf genereerbaar zijn mbv de software zelf.

[Reactie gewijzigd door enchion op 19 januari 2016 17:21]

Als blijkt dan SYSMark gewoon objectief is en alleen echt de CPU beoordeelt ga ik in de toekomst gewoon de SYSMark scores vergelijken. Ik heb niet voor niets een dedicated GPU, dus voor mij zou het weggelaten mogen worden. Er zijn dus zeker cases waar je puur de CPU zou willen vergelijken en geen boost van een goede IGPU erbij.
Ik heb niet voor niets een dedicated GPU, dus voor mij zou het weggelaten mogen worden. Er zijn dus zeker cases waar je puur de CPU zou willen vergelijken en geen boost van een goede IGPU erbij.
nee voor normaal desktop gebruik zijn die er niet. Je dedicated kaart vreet vele malen meer stroom met deze taken dan de IGP in de chip. Ook schakelt dit allemaal netje automatisch over en weer en met directX 12 wordt het nog een stuk mooier en wordt het BIG.little principe wel nuttig ingezet.
Tuurlijk zijn die er wel? Ik zei dat er zeker cases zijn waar ik dit zou willen vergelijken. Normaal desktop gebruik is er daar GEEN van. Gaming wel. Dus ik blijf erbij: Er zijn dus zeker cases waar je puur de CPU zou willen vergelijken en geen boost van een goede IGPU erbij
Nee want met DirectX 12, wordt bij Gaming ook gewoon je IGP ingezet om berekeningen uit te voeren. De IGP is niet zomaar een GPU gevalletje wat niet gebruikt wordt als je een dedicated Graphics chip hebt.
Goed, ander voorbeeld: Rendering. Er zijn renders die niet op de GPU werken maar puur op de CPU. Dus, weer een usecase.

Ook zitten mijn monitors op de dedicated GPU, dus zelfs al draait alles op de IGPU, mijn dedicated moet toch gewoon aan staan om het beeld weer te geven, dus die blijft dan gewoon energie gebruiken.
Rendering. Er zijn renders die niet op de GPU werken maar puur op de CPU. Dus, weer een usecase.
Nope, want dan nog heb je een IGP oid nodig om je scherm te kunnen gebruiken. Sure de CPU doet al het werk, maar dan nog ga je geen benchmarks gebruiken om te kijken wat beter werkt. Dan kijk je naar welke software je gebruikt en welke CPU deze softwareboer aanbeveelt. en dan ga je binnen die serie kijken naar prijs/prestatie verhouding. Renderjobs werken vaak nou eenmaal beter op een Intel CPU.
mijn dedicated moet toch gewoon aan staan om het beeld weer te geven, dus die blijft dan gewoon energie gebruiken.
Nope. dit is puur passthrough en kost nauwelijks energie. Al helemaal in vergelijking met de massive hoeveelheden die een dGPU gebruikt.
Dan boeit het dus niet hoe goed je IGPU is en wil je puur de CPU vergelijken. Dan kies je mogelijk de verkeerde omdat de IGPU van 1 gewoon zoveel beter is waardoor hij een veel hogere score heeft. En passthrough heb ik nog niet gezien op een desktop. Alsof het zoveel uitmaakt of een GPU idle draait of passthrough.

Maar je blijft er maar op door gaan en ik snap niet waarom. Ik zei alleen dat er gevallen zijn dat het WEL handig is om puur de cpu te vergelijken en geen combinatie CPU/IGPU. Bij veel gevallen wil je gewoon de combinatie hebben ja, bv met een simpel pctje voor wat facebook en dergelijk. Maar ik blijf bij mijn standpunt dat ik puur de CPU wil vergelijken. IGPU staat bij mij uit in de bios. Ik heb dan ook Xeons en i5/7 vergeleken. Dan is het niet handig als de IGPU word meegeteld in de score.
Dan kies je mogelijk de verkeerde omdat de IGPU van 1 gewoon zoveel beter is waardoor hij een veel hogere score heeft.
Nah daar ben ik niet zo heel bang voor hoor. Dan zit je namelijk in de verkeerde series te kijken en ben je de verkeerde vergelijking aan het maken. Kennelijk heb je namelijk al een specifieke Use case voor ogen en dus een beperkt aanbod in CPU's met een bepaald budget. En juist in dat segment worden CPU's niet met IGP geleverd of zijn de verschillen minimaal.
Ik heb dan ook Xeons en i5/7 vergeleken.
Deze vergelijking gaat daarom al gelijk fout. Deze 3 series hebben namelijk allemaal zo hun sterke kanten en kunnen überhaupt niet goed onderling vergeleken worden. De i5 en i7 gaan op zich nog net (hoewel het hyperthreading gedeelte ook maar in bepaalde mate interessant is), maar een i5 en Xeon is een totaal scheve vergelijking., die je om verschillende redenen niet kan maken. zelfde als met i7 en xeon. Het grote verschil in L3-cache is bijvoorbeeld de reden waarom Xeons vele malen krachtiger zijn bij workstation applicaties. Ook heeft de Xeon meer registers en kan hij daardoor beter overweg met grote hoeveelheden numerieke data.

De IGP is wel het laatste waar je je druk om moet maken als je die drie gaat vergelijken.
Alsof het zoveel uitmaakt of een GPU idle draait of passthrough.
Ja dat maakt veel uit. Want in het eerste geval is er namelijk wel degelijk activiteit en in het tweede geval is de GPU chip zelf inactief (verbruik is dan dus nul op wat regelelektronica na die hem op stand-by houd).
Jup, ik maak me dus ook niet druk over die IGPU, want die heb ik niet nodig. Daarom wil ik gewoon de CPU vergelijken, is dat echt zo onbegrijpelijk? Een Xeon werkt ook gewoon in een game PC, net zoals een I5 gewoon werkt in een workstation. Ik heb wel degelijk xeons en I5/7 vergeleken voor mijn PC. De xeons vooral omdat deze geen IGPU hadden. Heb ik niet nodig, dus is nuttelooos als het erop zit.

Ook ken ik geen manier om de dedicated videokaart puur als passthrough te gebruiken en windows op de IGPU te laten werken, maar ik heb dan ook nooit gezocht naar programma's om dat voor elkaar te krijgen. En een moderne GPU gebruikt in idle iets van 10-20 watt max (vb: http://www.tomshardware.c...-970-maxwell,3941-12.html). Ik zie dus niet hoe je dat nog zoveel lager zou krijgen dat het zin heeft om dan de IGPU aan te zetten.

En een dedicated GPU in passthrough gebruikt echt niet nul. Gaat dat videosignaal dan over de PCI bus oid? De dedicated GPU staat dan nog steeds het beeld te renderen (Desktop he, niet laptop, dat werkt totaal anders). Of je moet me wijzen naar iets waarmee dit wel kan, want ik ken het niet.
Gaat dat videosignaal dan over de PCI bus oid
Exact dat, maar ik zie net dat de ondersteuning daarvoor met windows echt een ramp is op desktop gebied. Dus laat maar zitten. Snap niet dat men dit nu nog steeds niet werkend heeft.
Omdat het totaal geen prio heeft? Leuk hoor met instellingen lopen kloten en hopen dat hij direct je gpu pakt en niet je igpu. Het verschil is daar te klein voor. Stel het verbruik gaat op idle 25w naar beneden. Na een 40 uur(een volle werk week) heb je 20-22euro cent bespaard.

Ik kan betere manieren vinden om geld te besparen. En kon niet met geluid aan zetten. Genoeg 970 draait de fans niet toT 65 graden. En levensduur is ook nooit aangetoond.
Volgens mij bij jij degene die iedere keer doorgaat om te proberen je punt te maken en komt supernathan94 alleen maar met argumenten om aan te geven waarom hij het niet met je eens is. Als jij gewoon zegt dat je wel een vergelijking puur tussen CPU's wilt zien, zonder redenen en voorbeeld cases, zoals je aan het einde uiteindelijk doet, dan heeft hij geen punt. Als de voorbeeld cases niet kloppen, dan kan hij die gewoon onderuit halen, zoals hij ook gedaan heeft. Uiteindelijk kan je de hele discussie een volgende keer dus gewoon voorkomen door je punt iets zorgvuldiger te formuleren.

Ik ben het met je eens dat je bij een vergelijking van processors naast het gehele pakket ook het pure cpu gedeelte moet kunnen vergelijken. Dit kan gewoon 1 van de onderdelen van een benchmark zijn. Ik wil echter zeker ook het geheel kunnen vergelijken en dan nog in synthetische tests en in realworld tests.
Volgens mij bij jij degene die iedere keer doorgaat om te proberen je punt te maken en komt supernathan94 alleen maar met argumenten om aan te geven waarom hij het niet met je eens is.
Vind je dat? Want gaming lijkt mij al een goed voorbeeld? Ik heb een dedicated GPU, als bij de CPU score de IGPU word meegerekend krijg ik gewoon een vertekend beeld. Die IGPU doet dan namelijk gewoon niets. Stel je hebt een slechte CPU met zeer goede IGPU en een goede CPU zonder IGPU. Beide zouden met een gecombineerde test hetzelfde kunnen score, terwijl de CPU met IGPU dan toch slechter is (in mijn geval, niet in alle). Dat zie ik niet als doorgaan zonder argumenten? Daarintegen, passthrough vanaf de IGPU via de dedicated GPU op een desktop ken ik niet, laptops hebben daarintegen soms optimus om dat voor elkaar te krijgen. Daar is het verbruik is behoorlijk belangrijk.

Een ander argument wat hij had was DX12. Nou is er nog enorm weinig bekend over hoe effectief het is om je IGPU mee te schakelen met een dedicated GPU. Daar is nu nog niets zinnigs over te melden, aangezien er nog maar erg weinig spellen/applicaties met DX12 werken. Misschien werkt het uitstekend en krijg je een enorme boost, misschien remt het alleen maar af.

Mij ging het erom dat hij mij probeerde te overtuigen dat er helemaal geen cases zijn waar het handig kan zijn. Ik zei namelijk:

"Er zijn dus zeker cases waar je puur de CPU zou willen vergelijken en geen boost van een goede IGPU erbij."

Lang niet altijd dus, maar er zijn er wel degelijk. Ik heb geen argumenten gezien die mijn overtuigen dat er geen cases zijn waar je alleen de CPU wilt vergelijken. De argumenten die hij aanhaalt lijken mij vooral belangrijk voor laptops bv.

Nou focus ik ook nooit op 1 benchmark, maar het is zeker handig om een snel overzicht te krijgen. Aangezien ik vooral op gaming focus kijk ik voor benchmarks met de spellen die ik speel/ga spelen.
Dan moet je igpu dat wel ondersteunen. Tevens hebben de meeste mensen kun igpu uitstaan als er een echte gpu gevonden is.
Dat is dom. Dat verlaagt in alle gevallen levensduur van je componenten, verhoogd je verbruik aanzienlijk en zorgt voor een fikse geluidstoename door de hogere temperaturen.

Ik weet niet hoe het onder windows zit, maar ik zit dus echt altijd op mn IGP te werken (intel Iris Pro) en pas als ik echt iets intensiefs ga doen komt de R9 M370 om de hoek kijken.
Temp en geluid maak ik mij echt niet druk om hoor. Custom waterkoeling waarbij mij fans op 500 rpm draaien. En tijdens intensief gebruik nog wel eens naar de 700 willen gaan.

En iemand dom noemen omdat hij er anders over denkt? 8)7

Jij praat over een notebook gpu. Regel het maar zo netjes als jij het zegt met je igpu en bv een r9 390. Dan kunnen we veder praten.
En iemand dom noemen omdat hij er anders over denkt? 8)7
ik noem je niet dom omdat je er anders over denkt. Ik noem "de meeste mensen" (die het hele idee van een IGP de nek omdraaien door het switchen uit te zetten) dom. Hoewel ik echt betwijfel dat "de meeste mensen" dit doen. Het zullen er een handjevol zijn.
Jij praat over een notebook gpu. Regel het maar zo netjes als jij het zegt met je igpu en bv een r9 390. Dan kunnen we veder praten
Ja en? Wat is volgens jouw het verschil daartussen dan? Op het moment dat ik een R9 390 zou hebben zou ik die al helemaal niet gebruiken om m'n desktop mee te laten zien. Standaard 2D werk koop ik geen dure graka voor.

Waterkoeling op 500 rpm mag dan erg stil zijn, maar het is wel degelijk hoorbaar. mijn fan draait nu helemaal niet en is dus ook niet hoorbaar.
het werkt niet out of the box(als het überhaupt al werkt op een desktop?
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970

Waar zie jij optimus support staan? leuk hoor al die laptop switching dingen. maar dat werkt 9/10 keer niet.
Jij hebt het over een laptop. In desktops is het een ander geval. Daarnaast Nvidia gpu's vereisen niet heel veel in idle modus. De levensduur van de componenten gaat echt niet noemenswaardig achteruit.
Levensduur? ik heb nog nooit een pc gezien die hierdoor eerder "kapot" is gegaan beetje storm in een glas water als je het mij vraagt.

zelfs consumenten spul zou gewoon 24/7 moeten kunnen draaien.

[Reactie gewijzigd door firest0rm op 20 januari 2016 00:18]

sinds directX 12.xx kan je verschillende gpu's combineren, zelfs als deze uit verschillende generaties komen en van verschillende fabrikanten zijn. (ze moeten wel allemaal support hebben voor directx 12).

Dus al is het maar een paar procent, het blijft een paar procent.

Als een igpu de physx/havok berekeningen uit kan voeren en de dgpu kan laten focussen op andere taken vind ik het redelijk belangrijk om ook de gpu score mee te laten tellen in de final score.
maar daar gaat het niet om in dit geval ..

het gaat erom dat volgens sysmark de intel 50% sneller is, wanneer ze realworld applicaties gaan testen met scripts dan is het verschil nog maar 7%, wat in lijn ligt met het verschil in PCMark (niet 3D Mark hé)

sysmark ik gewoon geoptimaliseerd voor intel cpu's en maakt bij het benchen zwaar gebruik van intel extensies (dingen zoals sse4+ die enkel in intel cpu's zitten) waardoor de scores scheeftrekken
Je formuleert mooi.
50% sneller voor Intel
Maar anders om 30% trager voor AMD.

Ook de berichtgeving door AMD wordt zo gebruikt dat het verschil het grootste getal is.

Korte uitleg;

900/600×100 = 150 % [50 procent boven de prestaties van AMD dus]

Anders

600/900×100= 67% (33% lager dan de prestaties van de Intel)

Verschil is dan nog erg groot.
Nu rest de vraag of het aan de software ligt of de CPU/APU
Nee hoor, AMD geeft zelf ook aan een verschil van 30% te hebben, terwijl de andere benchmark maar een verschil van 7% aangeeft.

Komt erop neer dat SYSmark niet realistisch is waardoor de kwaliteit als benchmark achteruit gaat, de consument betaald immers te veel. Geld besparen wilt iedereen..
zelfs die 30% is nog steeds 4x zo'n groot verschil dan de 7~7.5% die andere synthetische benchmarks (pcmark) en real world benchmarks (scripts die toepassingen starten, taken uitvoeren, weer afsluiten en dit timen)

Je kan dus gewoon zeggen dat als je al de onderlinge verschillen tussen amd/intel per benchmark naast elkaar legt, er eentje uitspringt, en dat is sysmark; die grafiek is 4x de hoogte van alle andere grafieken waarin het verschil tussen amd/intel is opgenomen
Het is dan ook bizar dat er maar 1 enkele uitsteekt, en vooral dat hij zo ver uitsteekt...
het zou al bizar zijn moest die bv 60% meer verschil opleveren dan de rest (bv 11% verschil tussen amd/intel ipv 7%), maar deze is, maar het verschil met de rest is gewoon factor 4 (van 7 naar 30-> 30/7=4,xx)
klopt maar zo wordt het dus niet gebruikt, volgens mij is het punt dat ze willen maken dat het niet direct als schaal wijzer gebruikt mag worden tegenover consumenten. Het gaat in dit geval dan ook over laptops waarbij meestal geen dedicated gpu aanwezig is, en zelfs als die aanwezig is wordt die vaak pas ingeschakeld bij 3d applicaties.

Voor de gemiddelde laptop consument kan het dus misleidend zijn omdat igpu prestaties er voor hun wel toe doen alleen weten ze dat niet.
Het probleem is dus dat Sysmark helemaal niet objectief is. Dus ook niet voor alleen een vergelijking van de CPU prestaties. Er staat niet voor niets in de kleine lettertjes van Sysmark dat hun benchmark geoptimaliseerd is voor Intel CPU's.....
Daarmee benadeeld Sysmark dus alle andere CPU bakkers en niet alleen AMD.
Zelf vind ik die synth benches waardeloos. Het staat totaal niet in verhouding hoe ieder hun PC of gadged gebruikt.
Dan als de benchers compileren met intel plugin compuler waar AMD CPU behandeld worden als prehistorische CPU. Tja dat is dan heel erg krom.

Met larabee zat nV in de clinch met intel. De CPU gpGPU war.
INtel nam havok over killed HavokFX nV nam ageia PhysX over.
Dus ja GPU kunnen wel degelijk concureren met CPU.
Maar het is nog niet popie of common om je zware compute delen die goed parraleliseerbaar op gpu te laten draaien.
Dus blijft belangrijk om CPU geisoleerd te testen.
Maar ook die andere beschikbare units.
De software kan extra onbenutte PU detecteren en gebruiken.
Ook kan software de compute migreren naar de krachtigste PU in het systeem.
Zoal mijn PC ouwe P2_X4-965 met een R9-380. Nogal in onbalanse.
Maar die extra igp zijn mooi meegenomen. Wordt nog niet veel mee gedaan maar dat kan nog komen.

Het is dat aardig wat van software dat wel goed gebruiken kan, maar dit nog niet doet.
Dus wat meer C++AMP DX_compute OpenCL en cuda.

Die APU en ook iNtel cpu met iGP zijn als CPU met mini xeonPhi maar dan op gpu shader cores based.

Het voordeel van igp is shared memory. Houd in dat voor die heavy compute task geen cpu gpu sync of copy nodig is.
Het is dan ook onmogelijk om een echt onafhankelijk benchmark te maken. Voor de zware berekeningen kan je b.v.: Intel Math Kernel Library of de AMD Math Core Library gebruiken.
Voor de compiler kan je Microsoft-Visual studio compiler gebruiken of de Intel compiler
Bij alle keuzes geef je of de één of de ander weer een voordeel.

Eigenlijk is het net als bij Auto's een benchmark zegt niet alles. Kijk gewoon naar scores van de games die jij zelf wilt gaan spelen of de software die jij wilt gaan gebruiken.
Tja, en dan is het ook nog relevant wat de games en programmas zelf gebruiken. Als je spel met de Intel Compiler gebrouwen wordt, zal ie (duh) een flink voordeel geven voor Intel. Gewoon omdat ie een Genuine Intel-vlaggetje heeft (zie hier. Die strijd woedt al eeuwen, en blijft nog wel even bestaan ook.

Onafhankelijk testen kan wel (bouw het met de GCC-compiler, en schrijf je tests zelf), maar tja... is dat nog een goede weerspiegeling van de werkelijkheid?
Zelfs games zijn niet heilig.

Zowel AMD als Nvidia optimaliseren hun drivers voor games, beetje omgekeerde wereld. Dan krijg je net die paar extra frames of ziet het er net wat gelikter uit.
Daarom zegt hij ook

Kijk gewoon naar scores van de games die jij zelf wilt gaan spelen of de software die jij wilt gaan gebruiken.

Dus kijk naar de games die jij wil spelen. Niet die van de buurman.
Tsja, zo'n verhalen doen de ronden over iedere benchmark. Van Geek Bench 3 is het ook geweten dat het iOS een voorsprong geeft, etc. Aan de andere kant, als SYSMark de CPU-prestaties test en daarop focust, waarom zijn de grafische capaciteiten dan van belang? Als je variabele blijft toevoegen blijven we doorgaan.
De grafische capaciteiten zijn van belang omdat dit momenteel een integrale functie van de CPU is. Er zijn bijna geen consumenten CPU's meer zinder ingebouwde GPU.

Ik ben sowieso niet zo'n fan van benchmarks omdat deze helemaal niet op een reëel gebruik lijken.

Er draait alleen de benchmark terwijl de meeste gebruikers bijna altijd minimaal een browser en mogelijk altijd een mail programma actief hebben en mogelijk nog andere programma's.
[...]
Er zijn bijna geen consumenten CPU's meer zinder ingebouwde GPU.
Hoe kom je daar nu bij? Eerder andersom. Even een snelle blik in de pricewatch:

Zonder: 1319 stuks
Met: 258 stuks

Sowieso heeft vrijwel geen enkele high-end cpu een interne GPU omdat daar toch wel een dedicated GPU bij word gezet.
Op het 2011-3 platform is er zelfs slechts 1 enkele CPU met iGPU ( Lenovo Intel Xeon E5-2640 v3 ) tegen 282 die dat niet hebben...
[...]


Hoe kom je daar nu bij? Eerder andersom. Even een snelle blik in de pricewatch:

Zonder: 1319 stuks
Met: 258 stuks

Sowieso heeft vrijwel geen enkele high-end cpu een interne GPU omdat daar toch wel een dedicated GPU bij word gezet.
Op het 2011-3 platform is er zelfs slechts 1 enkele CPU met iGPU ( Lenovo Intel Xeon E5-2640 v3 ) tegen 282 die dat niet hebben...
Voor de duidelijkheid ik heb het over consumenten CPU's niet server CPU's, heb ik duidelijk in mijn reactie geschreven.
In pricewatch staan ook CPU's die niet meer te koop zijn.
Intel levert op dit moment geen enkele Core i3 en i5 zonder GPU en als ik me niet vergis de laatste generatie Core i7 ook niet meer zonder GPU.
AMD levert alleen nog maar de FX zonder GPU, deze wordt niet meer verder ontwikkeld. De rest van de consumenten CPU's hebben allemaal een GPU.

Kostom zo goed als alleen CPU's met GPU.

Een Xeon is een server, geen consumenten CPU.
Ah duidelijk. My bad, in mijn optiek vallen xeon/server cpu's ook gewoon onder consumenten cpu's vandaar...( hoewel geen mainstream, maar kan ze tenslotte als consument kopen )

Maar als je die afstreept heb je gelijk..
Aan de andere kant, als SYSMark de CPU-prestaties test en daarop focust, waarom zijn de grafische capaciteiten dan van belang?
Omdat wat we van oudsher een GPU noemen tegenwoordig in staat is taken van de CPU over te nemen. Het gaat dan ook niet om de grafische capaciteiten van de GPU maar om de general purpose capaciteiten van de combinatie CPU core + GPU core.
Zo zie je maar sjoemelsoftware is echt geen nieuw woord, het bestaat al jaaaaaaren.
Mobiele telefoons overclocken stiekem als ze zien dat je een benchmark draait ;-)

http://www.anandtech.com/...ing-in-android-benchmarks
Eerlijk gezegd heb ik geen idee waar je het over hebt. Pick-order? ISO set 10.000 en 10? Een GUI in je processor?!?
Bijzondere strategie van AMD om dit zo de wereld in te helpen. Ik geloof best dat Intel bij bepaalde dingen een voorsprong krijgt. (Nvidia vs AMD met de videokaarten is ongeveer hetzelfde, waarbij hairworks ervoor zorgt dat AMD minder presteert dan Nvidia)

Wel vraag ik mij af of AMD dit wel had moeten doen. Misschien had men een wat uitgebreider onderzoek moeten doen, waar ook meerdere factoren uitgeschakeld worden en waar er meer CPU equivalenten tegen elkaar de strijd opnemen. 1 test wijst niet uit dat dit bij allen hetzelfde is.
Het gaat toch over het hele plaatje? Als AMD er voor gekozen heeft om meer workload door de GPU af te laten handelen is dat hun recht. Als hier het complete systeem baat bij heeft moet dat ook tot uiting komen in een systeem benchmark.
Ik zie regelmatig stijlfouten in berichten, zoals hier:
De laptop met Intel-chip scoort hier 987 punten, terwijl de AMD-laptop slechts 659 punten krijgt. [Bij de PCMark 8 bedraagt] het verschil hier zeven procent.
Uiteraard kan je het percentage van de eerste zelf schatten (met bijna 1000 is dat niet al te moeilijk), er een rekenmachine bijpakken of op een kladje uitrekenen. Maar het leest niet lekker en de boodschap/clou komt zo ook niet over.
Als redacteur moet je ook letten op eenduidigheid in je bericht. Eenvoudig percentage erbij vermelden (en misschien bij de 2e test ook de punten als extra) is zo moeilijk niet, toch?
Opvallend dat niemand (óók de auteur van het verhaal niet) even verwijst naar Intels praktijken waarbij het heel gebruikelijk is gebleken om dit soort zaken uit te halen. Intel is uiteindelijk veroordeeld tot schade vergoeding, maar niets zegt dat ze niet nog steeds dergelijke praktijken uithalen (alleen dat er wellicht geen direct bewijs is). Uit een verhaal van 5 jaar geleden:

Here's something you probably don't know, but really should - especially if you're a programmer, and especially especially if you're using Intel's compiler. It's a fact that's not widely known, but Intel's compiler deliberately and knowingly cripples performance for non-Intel (AMD/VIA) processors..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True