Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD: de eerste 7nm-Navi-gpu wordt goedkoper dan de Radeon VII

De eerste op 7nm gebakken Navi-gpu die uitkomt, zal minder kosten dan de Radeon VII-videokaart die het bedrijf begin dit jaar uitbracht. Dat zei AMD-ceo Lisa Su tijdens een mondelinge toelichting op de cijfers van het afgelopen eerste kwartaal.

De topvrouw van AMD van gaf geen nadere details over deze 7nm-Navi-gpu, maar als deze wat prijs betreft onder de Radeon VII wordt gepositioneerd, zal het vermoedelijk nog niet meteen een topmodel in de Navi-gpu-reeks zijn. Su zei dat de eerste 7nm-Navi-gpu's naar verwachting in het derde kwartaal verschijnen. Datzelfde geldt voor de Rome Epyc-serverprocessors. Volgens Lisa Su is bij de ontwikkeling van de tweede generatie Epyc-processors 'uitstekende vooruitgang geboekt' tijdens het eerste kwartaal. Deze chips moeten gedurende het tweede kwartaal verscheept worden, zodat ze in het derde kwartaal beschikbaar komen.

Uit de kwartaalcijfers blijkt dat AMD's kwartaalomzet uitkwam op 1,27 miljard dollar, wat neerkomt op een daling van 23 procent. Het bedrijf schrijft deze daling vooral toe aan het Computing and Graphics-segment. Uiteindelijk hield de fabrikant een nettowinst van 16 miljoen dollar over, terwijl dat winstcijfer een jaar eerder nog op 81 miljoen dollar uitkwam en in het vorige kwartaal op 38 miljoen dollar.

De kwartaalomzet van het Computing and Graphics-segment, waaronder Ryzen-cpu's en Radeon-gpu's vallen, kwam uit op 831 miljoen dollar, een daling van 26 procent ten opzichte van hetzelfde kwartaal een jaar eerder en van 16 procent ten opzichte van het laatste kwartaal van 2018. AMD wijt de daling van de omzet in dit segment aan minder verkopen op grafisch gebied, die weliswaar deels werden gecompenseerd door leveringen van Ryzen-processors en datacenter-gpu's.

Het Enterprise, Embedded and Semi-Custom-bedrijfsonderdeel, waaronder de Epyc-serverprocessors vallen, haalde een omzet van 441 miljoen dollar, een daling van 17 procent ten opzichte van dezelfde periode een jaar eerder. Waar AMD in dit segment in het vorige kwartaal nog een verlies van 6 miljoen dollar noteerde, was dat nu een winst van 68 miljoen dollar. In het eerste kwartaal van 2018 kwam dit uit op een winst van 14 miljoen dollar. Deze flinke stijging van de winst komt volgens AMD door licentieopbrengsten op basis van de op China gerichte joint venture Thatic.

Door Joris Jansen

Nieuwsredacteur

01-05-2019 • 09:47

131 Linkedin Google+

Reacties (131)

Wijzig sortering
Een kwartaalwinst van 16 miljoen op een omzet van ruim een miljard van een bedrijf met ruim 10.000 medewerkers is ergens wel heel erg magertjes... Gaat het zo slecht met AMD?

Edit: Een winstgevendheid van zo'n 7% in het jaarverslag wordt in NL als gezond gezien. Bij AMD is dat afgelopen kwartaal dus 1.25%..

[Reactie gewijzigd door Theo op 1 mei 2019 10:04]

Ze zijn hun lang lopende schulden enorm aan het aflossen. Ik kan me inbeelden dat het aflossen van slechte kredieten meer opbrengt op lange termijn dan het boeken van winst.
Tenzij Tweakers hier de verkeerde cijfers aanhaalt zit het aflossen van schulden niet in die winstcijfers. Mooi als ze nu schulden kunnen aflossen, maar met een winst van een paar miljoen lijkt me dat niet op grote schaal te gebeuren.

[Reactie gewijzigd door Darkstriker op 1 mei 2019 11:47]

Tweakers haalt alleen globaal de belangrijkste punten aan, of eigenlijk globaal overklakken van andermans nieuws tijdje geleden alweer.

AMD heeft deze keer inderdaad weer een flink deel schulden afgelost. Van 1.7 miljard nu naar 1.4 Miljard dollar. Daarbij hun kasgeld opgekrikt van 1.0 naar 1.2 miljard dollar.
Waarom specialisten positief gestemd zijn over AMD is de toekomst perspectief. Die ziet namelijk niet slecht uit.
Daar had ik het niet over. Punt is, dat het al dan niet aflossen van schulden geheel geen invloed heeft op de winst die tweakers hier aanhaalt. Dat zij hun financiering hebben verandert verandert NIKS aan de operationele winst en de netto winst. @dragonlords1 suggereert dat de winst zo laag uitvalt omdat zij schulden hebben afgelost, maar die twee hebben NIKS met elkaar te maken!
Nee, over omzet en Netto winst, en schulden aflossen doe je wel met omzet, maar daarmee maak je geen winst

Dat de kwartaalomzet (bij sommige afdelingen) daarentegen flink daalde, dat heeft dan weer niks te maken met het aflossen van schulden :>

[Reactie gewijzigd door zion op 2 mei 2019 07:03]

Ik ga er normaal gesproken niet op in, maar omdat je zo stellig bent dan:

https://www.dezaak.nl/263...-omzet-winst-cashflow.htm
bruto-omzet: het totale bedrag aan verkopen....
Winst is het bedrag dat je aan het eind van het jaar onder aan de streep overhoudt. De meest basale definitie van winst is ‘netto-omzet minus de (operationele) kosten'. Dit wordt ook wel de brutowinst genoemd. Als je de operationele kosten niet in de hand hebt, kan de netto-omzet groeien, terwijl de brutowinst omlaag gaat.

Omdat je te maken hebt met zaken als afschrijvingen, waardevermindering (incourante voorraad), rentebetalingen en (fiscale) investeringsregelingen, wijkt de winst voor belastingen af van de brutowinst.
Volgens mij was dit dus exact wat ik schreef:
Omzet - (operationele) kosten (dus inclusief afschrijvingen, ook wel genoemd schulden) = Winst.

Tenminste, zo kreeg ik het vroeger voorgeschoteld tijdens mijn MBO Handelskennis & Economie, en zo lijkt het nog steeds te gaan volgens "dezaak.nl", maar ik kan het fout hebben natuurlijk. :>

[Reactie gewijzigd door zion op 2 mei 2019 17:44]

Sinds wanneer heeft aflossen van schuld invloed op je winst?
Dat heeft invloed op je werkkapitaal en diverse ratios maar niet op je winst.
Of steken zoveel geld in R&D dat ze net in de plus blijven staan, en allemaal nieuwe coole hardware kunnen maken. Goede long term planning.
Dank, dit is nu precies de grap die de meeste niet begrijpen... en waar je 'jonge' bedrijven op kunt identificeren. Dus dank voor de voorzet, want jij begrijpt het wel :D

Een 7% is een gezonde winst??? Ben je gek? De Belastingdienst is echt blij met dit soort benaderingen, want daar gaat even een lekkere aanslag overheen!

Nee, winst is iets wat je wil minimaliseren en niet onnodig wil realiseren. Ja, je moet winst hebben voor een gezonde groei, maar reserveringen en investeringen kosten je minder belasting en leveren je heel veel meer op. Al die investeringen en reserveringen zijn nu precies waarom AMD verlies maakte maar niet onder ging. Geld wat op papier werd uitgegeven, maar in de praktijk het bedrijf niet verlaat.

Als je elk jaar de Belastingdienst op bezoek wil, maak een paar duizend euro winst. Komen ze ieder jaar gratis je boekhouding controleren!

Wil je ze 10 jaar niet zien, gewoon elk jaar een paar ton winstbelasting afdragen, dan vinden ze het wel best. Lekker over de 10% winst gaan joh! Goed verhaal! Ze zien je al afdragen.

[Reactie gewijzigd door Freaky_Angelus op 1 mei 2019 10:13]

Dat is natuurlijk niet helemaal waar wat je daar zegt. Je wil je winst helemaal niet minimaliseren. Dat wil je alleen op papier, en liefst wil je de fiscale winst nog verder drukken, want dat scheelt belasting. In werkelijkheid wil je bakken met positieve cashflow (moet wel winst zijn) realiseren.

"Geld wat op papier werd uitgegeven, maar in de praktijk het bedrijf niet verlaat". Dat klopt natuurlijk ook niet. Er is een verschil tussen uitgaven en kosten, maar in the end zijn kosten gewoon uitgaven en vice versa (timing verschil tussen die twee), anders wordt het boekhoudfraude. Investeringen geef je meteen voor de volle 100% uit in geld, maar zijn nog geen kosten, omdat je die investeringen in een x-jaar afschrijft. Soms maak je al kosten, maar moet je het geld nog uitgeven (voorzieningen). Eens dat verlies op papier niet wil zeggen dat je geen geld hebt verdient, maar kosten in de jaarrekening zijn ooit/zullen ooit in geld het bedrijf verlaten.

Over de looptijd van het hele leven van een bedrijf is het resultaat (winst of verlies) gelijk aan de cashflow van dat bedrijf.

[Reactie gewijzigd door Hulleman op 1 mei 2019 10:24]

Nou, als we gaan discussiëren gaan we op nuancering/mierenneuken-niveau zitten i.m.o.en denk niet dat dat nodig is... Kort gewoon met je eens, maar dat komt omdat ik niet de planning had hier fin.mng. te gaan uitleggen en het verschil tussen netto/brutto of... EBITDA tot EBT uit te leggen (doe weinig in NL-taal).

EBT wil je op laag hebben, EBITDA wil je hoog hebben... Je wil je NET cashflow hoog hebben, maar vooral dankzij afschrijvingen/voorzieningen/reserveringen die een laag EBT leveren voor de belastingdienst.

Wat betreft de kosten op papier. Jarenlang de R&D ondersteunen met investeringen, reserveringen en voorzieningen (afhankelijk van etc.) blijft natuurlijk geld op papier van de winst afhalen in de hoop ook ooit weer winst te maken om je bedrijfsresultaat positief te houden. Ja je moet het wel uitgeven, maar dat kan je wel spreiden/uitstellen tot het punt dat het goed gaat.*

Aangezien dit Tweakers en niet Finance.Inc is, was mijn versimpeling meer ter uitleg waarom 'verlies' de afgelopen jaren niet per se een negative NET cashflow betekent. Daarnaast, wat er niet is kan je ook niet uitgeven. Ben het dus helemaal eens met dat je bedrijfsresultaat positief moet zijn over de levensloop. Ironisch iets wat in mijn fin.analyses voor werk altijd voor vreemde blikken zorgt... het bedrijf draait toch positief? Ja, maar je NET is niet positief, dus zo kom je nooit uit je leningen/schulden. Dus dit project moet anders....

Anywho, ik blijf bij de stelling:
"Laag procentueel EBT betekent goed bezig om niet de belasting al te blij te maken."

-edit-
*, ja..., daar zitten termijnen aan vast...

[Reactie gewijzigd door Freaky_Angelus op 1 mei 2019 11:37]

Lijkt me geen mierenneuken als je de stelling "Geld wat op papier werd uitgegeven, maar in de praktijk het bedrijf niet verlaat" doet zonder verder uitleg. Kan wel geen finance website zijn, het is wel tweakers waar we toch een beetje knap niveau moeten houden en gewoon kritische lezers zitten.

Met deze uitleg ben je overigens geslaagd :) cash blijft toch king he
Ha, ik ben al jaren geleden gestopt de frontpage nog proberen dingen bij te brengen. In mijn eigen werkgebied werd ik hier uitgelegd dat wat we doen niet klopt, het werkte toch echt anders, want iemand op een zolder en een camera had op youtube een verhaal (negeert meetonnauwkeurigheid etc.).

Verder vind ik stiekem dat de context van R&D en investeringen wel genoeg hints gaven :P vandaar nuancering opmerking, maar je hebt wel echt terecht een punt dat iemand die op basis van dit zou denken dat je het dan ook niet hoeft uit te geven een probleem zou opbouwen in zijn boekhouding.

Laat ik dan 1 expliciete melding doen:
Wie dit ook leest, bij een eigen bedrijf/boekhouding zoek je 2 boekhouders om (elkaar) te controleren op fouten!

De belastingdienst kent geen ongelijk (denken ze) en die discussie wil je niet aangaan (ervaring binnen familie/kennissen van gelijk hebben, maar de Bel.d. gaat stug eigenwijs door).
Ik had je hint niet meteen opgemerkt, ook al ben ik financieel onderlegd... zegt mss meer iets over mij :) En eens met je expliciete melding, van interne controle gaat mijn accountantshart sneller kloppen. Vul ik em nog even aan: niet alleen in je boekhouding zorgen voor interne controle (uiteraard ook de cruciale functiescheiding) maar voor minimaal al je primaire processen, zowel in als buiten de geautomatiseerde omgeving. Dat is toch echt vaak een ondergeschoven kindje in het gemiddelde bedrijf.

Gelukkig heb ik ook goede ervaringen met de Belastingdienst opgedaan in het verleden. Zolang je je mening goed kan onderbouwen is er zelfs bij hen veel mogelijk, maar je bent ook afhankelijk van de inspecteur/controleteam. Zodra de interne beheersing op orde is, gaat de Belastingdienst ook minder graven bij boekenonderzoeken.
Ja, heb zelf ook hele goede ervaringen.

De kwestie in heel kort:
Inspecteur was lomp en schofferend (o.a. naar vrouw van X), werd door persoon X aangesproken dat in diens eigen huis enige beleefdheid wel verwacht werd, is sindsdien met een persoonlijke vendetta tegen persoon X bezig. Eerste rechter heeft persoon X ook volledig vrijgesproken en gelijk gegeven, inspecteur heeft een hoger beroep over een niet gestuurd/ontvangen document wat ook al als incorrect is bewezen in de stukken, maar uitspraak wordt nu al 5 jaar vertraagd. Niemand durft de man gewoon te ontslaan/non-actief te zetten, excuses te bieden en een schikking te treffen met X voor de ellende. Geen idee wat deze inspecteur precies heeft dat niemand hem tot de orde durft te roepen bij de Belastingdienst. In ieder geval een les dat je beter niet kan testen of iemand werk en persoonlijke emoties kan scheiden... bij de Belastingdienst ;)

Ennuh, meestal ligt het aan mij hoor, als iets niet duidelijk is. Soms probeer ik te simpel iets uit te leggen en soms zit ik met de aanname dat iemand weet wat ik bedoel....
Dat is natuurlijk niet helemaal waar wat je daar zegt. Je wil je winst helemaal niet minimaliseren. Dat wil je alleen op papier, en liefst wil je de fiscale winst nog verder drukken, want dat scheelt belasting. In werkelijkheid wil je bakken met positieve cashflow (moet wel winst zijn) realiseren.
Je wil, als bedrijf, dat je bezittingen (dwz: het resultaat van vroegere investeringen) een zo hoog mogelijke positieve cash flow genereren. Dat klopt. Maar het is daarna in principe helemaal niet in het belang van het bedrijf als dat ook allemaal winst wordt, en er dus belasting over betaald moet worden. Het bedrijf heeft er veel meer belang bij om dat geld om te zetten in nog meer investeringen, die later nóg veel meer geld opbrengen. Als dat kan natuurlijk. In een verzadigde markt bijvoorbeeld gaat dat niet lukken, en kun je de winst beter wel uitkeren.
"Geld wat op papier werd uitgegeven, maar in de praktijk het bedrijf niet verlaat". Dat klopt natuurlijk ook niet.
Nee. Het geld is écht uitgegeven. Maar het klopt wel dat het geld het bedrijf niet verlaat. En dat is de essentie van het argument.
Er is een verschil tussen uitgaven en kosten, maar in the end zijn kosten gewoon uitgaven en vice versa (timing verschil tussen die twee)
Het belangrijke verschil is in deze context tussen noodzakelijke kosten om de huidige (concurrentie)positie / marktaandeel te handhaven, en investeringen in een verbetering van de concurrentiepositie en/of marktaandeel. Als het kan, is het voor een bedrijf vaak veel aantrekkelijker om te investeren in verbetering van concurrentiepositie/marktaandeel dan om geld aan de aandeelhouders te geven. En dat is voor de aandeelhouders ook in het algemeen veel beter. Behalve natuurlijk voor de (zeer) korte-termijn aandeelhouders.
Netto (dus niet bruto) winst is zeker wel iets wat bedrijven graag willen realiseren. Want deze wordt doorgaans verdeeld als dividend over de uitstaande aandelen. En de aandeelhouders bezitten het bedrijf uiteindelijk. Hogere nettowinst is hogere dividend is hogere aandeelprijzen is blije aandeelhouders.

Aandeelhouders willen vaak korte termijn winst.

[Reactie gewijzigd door procyon op 1 mei 2019 10:32]

Moment, hogere dividend uitkeringen is iets wat de aandeelhouders willen, niet 'het bedrijf' per se. Afhankelijk van wie je nu als 'het bedrijf' definieert liggen de wensen geheel anders.

De bakker op de hoek met 1 eigenaar wil stabiliteit, minder zorgen en zal daarmee meer gebaat zijn met reserveringen en investeringen om volgend jaar een slecht jaar op te kunnen vangen. Vaak bij grotere bedrijven wordt dit perspectief door een O.R. opgevangen (want het belang van medewerkers is niet dat de baas rijk wordt, maar dat er volgend jaar nog steeds een baan is).

De bakker met 10 vestigingen met 1 eigenaar wil meer dividend/winstuitkering op zijn bedrijf. Die stabiliteit en zorgen zijn al wel in orde. Desnoods worden een paar vestigingen gesloten.

Aandeelhouders kunnen hele verschillende perspectieven hebben, doch de 'snel rijk' gedachte is bij iedereen wel aanwezig (in enige vorm). Het verschil zit hem gewoon in perspectief. Lange termijn groei en stabiliteit vs. korte termijn uitbetalingen.
Aandeelhouders hebben doorgaans een korte termijn view. Ze kiezen daarbij eerder voor dividend DIT jaar over de belofte van een hogere dividend uitkering volgend jaar. Het is aan het management om te mediaren tussen de lange termijn belangen en de aandeelhouders. Dis is een drawback van je bedrijf op de beurs zetten. Voordeel is extra kapitaal.

Familiebedrijven als Ikea hebben geen last externe aandeelhouders maar hebben daarmee ook geen miljarden kapitaal injectie.
Ja, dat zeg ik dus in de eerste zin van mijn reactie... is iets wat de aandeelhouders willen, niet 'het bedrijf' per se.
Opnieuw gelezen en zie nu je punt. Sorry ;)
lol, ook werk aan het ontwijken?

Geen excuus nodig, vond het overigens zelfs grappig... "dat zeg ik toch??" :D
deze vlieger gaat helaas ook niet helemaal op voor de grote bedrijven die zeer minimaal belasting betalen maar alleen voor werkgelegenheid zorgen (wat indirect ook extra belasting is natuurlijk)
Het verhaal van de bakker die zijn brood recept onderbrengt in een bedrijf in een belastingparadijs en vervolgens licentiekosten betaald aan het bedrijf om zo weinig mogelijk winst belasting hoeven te balen, maar vervolgens wel het geld vanuit het belastingparadijs kan benaderen :9
Dat hoeft geen belastingparadijs te zijn, alleen een land waar je geen belasting hoeft te betalen over intellectueel eigendom, patenten of octrooien, afhankelijk van waar jou recept onder valt.

Dat het meestal gebeurt in een belastingsparadijs is omdat het vervolgens minder kost om het geld te bezitten.
Daar gaan we weer hoor, hoelang wordt dit niet al geroepen

Ken nog wel de momenten dat iedereen riep dat AMD soon failliet zou zijn, en dat ze overgekocht gaan worden door Samsung of who knows.

Ze doen het juist beter dan ze sinds een hele lange tijd hebben gedaan
Ze kunnen/mogen helemaal niet failliet want dan zou Intel waarschijnlijk voor anti trust in de rechtszaal moeten verschijnen.

Het zou me niets verbazen als we Su straks bij Intel de boel zien regelen. AMD en Intel zijn samen de gehele x86 markt = Silicon Valley. Als straks mensen van AMD weer naar Intel gaan, gaat Intel weer harder als AMD, oneindige cyclus.

Het zou pas echt interessant worden als de Chinezen een degelijke x86 processor gaan aanbieden.
Ach ze maken tenminste überhaupt weer winst maar een gezonde marge kan je het inderdaad nauwelijks noemen.
Niet al te lang geleden hadden ze alleen maar verlies, dus waarschijnlijk komt die lage winst vooral door R&D en de extra kosten die horen bij écht nieuwe producten. Overigens zijn er heel veel miljardenbedrijven met weinig winst of zelfs verlies, en door ingewikkelde economische zaken die ik nooit zal kunnen snappen gaan die ook maar zelden ten onder, dus AMD behoort zo'n beetje tot de toppers!
Staar je niet blind op dit getal. De netto winst is gewoon een keuze (met een winst getal per aandeel in het achterhoofd). Als voorbeeld, als ze hun R&D budget naar 0 terugbrengen hebben ze ineens een extreem hoog net income dat kwartaal.. Is dat dan goed? Uiteraard moet je kijken naar de details om te kunnen bepalen of het goed of slecht gaat met een bedrijf.

Als je de cijfers bekijkt zie je dat AMD in R&D 30 Mio extra heeft uitgegeven vergeleken met dezelfde periode vorig jaar en 36 Mio meer aan marketing. Samen al goed voor 66 Mio.

Genormaliseerd zitten ze dus eigenlijk op dezelfde winstgevendheid als Q1 2018 terwijl de omzet met 23% daalde.. Dit is serieus knap en toont aan dat de marge op hun producten hoger aan het worden is.

Die omzetdaling is denk ik volledig toe te schrijven aan de crypto-coins waardedalingen waardoor GPU's nu minder luceratief zijn dan zelfde periode vorig jaar daar NVIDEA exact hetzelfde laat zien in hun kwartaalcijfers (-24% q'q)
https://investor.nvidia.c...cial-reports/default.aspx

[Reactie gewijzigd door procyon op 1 mei 2019 10:28]

De marge is inderdaad aan het stijgen en Crypto zal inderdaad een grote invloed hebben op de omzetdaling.
Volgens mij is AMD hartstikke gezond. Ze hebben slechts 1.3 G$ schulden en ~1.2 G$ aan besteedbaar vermogen. Als ze zouden willen kunnen ze volgend kwartaal schuldenvrij zijn. Dat is echter niet zo voordelig, het besteedbaar vermogen kunnen ze gebruiken voor mindere tijden, terugkoop van aandelen, overnames of noem maar een ander voorbeeld.

Wat anderen ook al aangaven is dat de nettowinst niet per se de beste graadmeter is voor een bedrijf. Het meest ideale is om grote bedragen te begroten voor onderzoek en ontwikkeling zodat je nog net wat nettowinst overhoud.
Het zit te concurreren in de sectoren waar Intel/nVidia dominante marktleiders waren en weinig concurrentie hebben. Het voordeel is dat als het goed gaat, dat er veel weg valt te snoepen bij die twee grote jongens. Het nadeel is dat ze zitten in een sector waar veel kennis nodig is, om een goed product op de markt te zetten. En dat kost veel R&D en dus tijd en geld. Marges zijn niet gezond, maar je moet denk ik naar de stip op de horizon kijken bij AMD.

Als Intel moeite blijft hebben met 10nm chips, dan kan AMD op termijn betere/snellere chips maken. Dat betekent op termijn meer omzet. Bij een hogere omzet en gelijke R&D kosten, hou je dus meer winst over. En als Intel zelfs in de problemen komt en AMD krijgt een dominantere positie, kan AMD ook de prijzen langzaam gaan ophogen.

Kort gezegd: AMD is aan het wachten tot ze een heilige graal hebben (beetje zoals ASML met de EUV machines) of dat de concurrentie een misstap maakt. In beide gevallen kunnen ze profiteren.
In de console sector hebben ze bijna geeb concurrentie, de 130 miljoen APU's verkocht aan Sony en MS zullen toch wel iets opgeleverd hebben?
Vooral omzet waarschijnlijk, voor zover mij bekend zijn de marges daar niet zo groot.
Totaal offtopic maar:
http://ir.amd.com/static-...53-498f-b77d-e3f3ca25f0e9

Heb even snel in wat jaarcijfers gekeken van AMD. Pagina 14, Enterprise, Embedded and Semi-Custom komt uit op 2,3 miljard dollar omzet met een winst van 163 miljoen dollar. Goed voor ruwweg 1/3 omzet en 1/3 van de winst. Het vervelende van deze cijfers is dat ze niet verder uitgesplitst worden. En onder dat kopje zitten:
- Server processoren
- SoC's
- Embedded processoren
- Game console chips
- Hun IP portfolio
Daar zit hun winstmarge op ruwweg 7 a 8% wat al een stuk beter is. Maar je weet dus niet waar de marges vandaan komen. Ik vermoed zelf dat doordat Sony en Microsoft beide grote aantallen kunnen afzetten van hun consoles, dat de marges daarmee ook klein zijn en dat zij in het kader van grote volumes kortingen bedingen. Grote aanname: Ik denk dat ze wel winst maken, maar het zal lang geen 8% zijn.
Ik heb de jaarverslagen niet ingezien maar het hangt er natuurlijk vanaf wat er met de omzet gedaan is. Als er de afgelopen jaren flinke investeringen zijn gedaan dan hebben ze nu flinke afschrijvingen en dan is een lage winst niet zo'n probleem. Amazon maakte meer dan een decennium lang geen winst en zelfs soms verlies. Maar dat kwam omdat ze elke binnenkomende dollar herinvesteerde. Het grotere probleem voor AMD is de omzet daling.
Ze zaten met een serieuze surplus aan grafische kaar door de mininghype waardoor ze daar dus verlies draaiden. De 2e helft van 2019 gaat het serieus omhoog gaan door hun 7nm producten waarde marges alweer hoger zijn. Dit is dus niet magertjes, integendeel dit is de voorbode van iets heel moois.
Hoop vooral dat de stroomconsumptie sterk naar beneden gaat... Daar lijkt Nvidia nu de overhand te hebben en is mijn keuze voor nu groen. Maar bij een AMD proc graag een AMD gpu dus wie weet...
Hoe relevant is stroomverbruik nu echt bij een gaming PC? Ik weet niet wat jij doet met je PC, maar mijn PC haalt misschien maximaal 20 uur per week aan high-load gaming. Stel dat de AMD GPU 50 watt meer stroom verbruikt, dan scheelt dat mij 1kWh per week, oftewel zo'n 1 euro per maand.

Met een levensduur van 2 jaar is dat dus zo'n 24 euro over de gehele levensduur.

MAAR het is ook 1kWh aan warmte in je woning, dus scheelt weer stookkosten :+

[Reactie gewijzigd door Gamebuster op 1 mei 2019 10:35]

Hoe meer je gamed hoe belangrijker verbruik word.
50 watt scheelt toch met 20 uur per week toch al 35 euro per 3 jaar. (De meeste mensen doen echt veel langer dan 2 jaar met een gpu zeker met huidige prijzen) Dat maakt je gpu dus 35 euro duurder. Dit moet je gewoon mee rekenen. Game je maar 2 uurtjes in het weekend dan is het echt maar een paar euro.
Game je veel meer zoals mij dan tikt het rap aan en kom je op best wel enorme bedragen.
Ik game in de zomer maar een paar uurtjes per dag maar in de winter heel veel.

Mensen die thuis wonen negeren het natuurlijk erg makkelijk want zij betalen de rekening niet.
50 watt scheelt toch met 20 uur per week toch al 35 euro per 3 jaar.
Game je veel meer zoals mij dan tikt het rap aan en kom je op best wel enorme bedragen.
Meen je dat nou of game jij nog meer als 20 uur per week? want 35 euro in 3 jaar is natuurlijk niks en zou ik me nooit van me leven druk over kunnen maken

Mensen die zich daar druk om maken hebben echt te weinig geld te makken, of praten gewoon maar wat
Het gaat er niet om hoeveel 35 euro is het gaat erom dat als je 2 kaarten van 500 euro heb en de 1 gebruikt 35 euro meer is effectief de ene kaart dus 35 euro duurder.

Welke kaart zou jij kopen die van 500 euro of die van 535 als ze gelijk presteren?

En ja zoals gezegd ik game nog meer dus voor mij scheelt het meer.
Verder heeft het niks te maken met hoeveel geld je te makken heb maar gewoon met slimme financiële keuzes maken.
10x 35 euro besparen door slim rekenen en meten in je huishouden en je heb een nieuwe processor of vind je dat ook niet boeiend. want dan heb je namelijk gewoon TE VEEL te besteden.
Ik game in de zomer maar een paar uurtjes per dag maar in de winter heel veel.
In de winter verwarm je wel je woonruimte met die 50 watt extra, dus dat scheelt weer stoken. :+
De kamer waarin ik game word standaard al niet verwarmd dus dat levert me niks op.
Heb zelf trouwens een 1070 die maar 150 watt verstookt en nog een 3770k op 5 ghz die maar 75 watt max verstookt.

Mn 10 jaar oude 1 tb hdd kan echter wel goed mijn koffie warm houden.
Denk dat de lagers versleten zijn. Hij maakt een herrie en word warm.
De kamer waarin ik game word standaard al niet verwarmd dus dat levert me niks op.
Exact mijn punt, omdat je een warme PC erin hebt staan! :+
Of ik trek gewoon een trui aan want warmer als 17 graden is het er in de winter niet. de meeste warmte komt gewoon van de buren die lekker 22 a 23 graden stoken waardoor mijn muren 18 a 19 graden zijn.
Verder is de warmte die de pc uitstoot nooit genoeg om een kamer van 5x 3,7m en 3,5 hoog ook maar 1 graadje omhoog te brengen.
En dan reken in de gang niet mee die ook niet verwarmd word maar de deur wel open staat en die nog hoger is door een schuin dak.

Als je even wat straal kachel verwarming calculators opzoekt kan je zien dat ik al snel 2000+ watt nodig zou hebben om deze kamer tot 18 graden te verwarmen.
Kortom die 150 watt totaal verbruik van de videokaart (dit word niet allemaal warmte) en de 265 wat totaal systeem verbruik met monitor en speakers zet echt geen zoden aan de dijk qua verwarming. Zeker niet omdat dit maar met kleine beetje gepaard gaat ipv in 1 keer een hele bak waardoor het beter zou verwarmen.
Daarom koop je immers radiatoren gebaseerd op de ruimte. Een te kleine radiator (mijn pc dus) zou slecht tot niet verwarmen.
Kortom die 150 watt totaal verbruik van de videokaart (dit word niet allemaal warmte)
Waar blijft de rest dan? ;)
Verlichting van de monitor, verlichting van delen in de pc, geluid bewegende delen.
En ja volgends wetenschappelijke wetten word alles warmte maar niet op een manier waar je met het verwarmen van je huis wat aan heb.
Verlichting van de monitor,
Wat heeft dat te maken met het verbruik van de videokaart?
maar niet op een manier waar je met het verwarmen van je huis wat aan heb.
Hoe bedoel je?
Dacht dat je de rest van totaal vermogen bedoelde.
Die 265 watt is totaal systeem met alles erop en er aan.

En ik bedoel dat een deel van de warmte zo langzaam en verspreid vrij komt dat er voor het verwarmen van je huis niks aan heb doordat de ventilatie van je huis sneller afkoelt dan dat het opwarmt.
Hoe verstookt jou ivy bridge cpu op 5ghz maar 75 watt? Hij is inderdaad voor 77 als tdp gerate, maar als je overclocked verbruik je toch echt gewoon meer stroom? Als ik non overclocked info van de 7700k (toch een veel nieuwere zuinigere chip) bekijk trekt die volgens anendtech 86.88 watt... Zonder overclock, en zeker niet in de buurt van 5ghz. Op base clock zou je 3770k rond de 77 watt moeten verbruiken, waarom kan jij dan 5ghz draaien op maar 75 watt max?
Ja dat heb ik dus heel vaak gehoord maar de watt meter geeft echt niks meer aan.
Zelf vraag ik me af of dit komt doordat ik de igpu uitgeschakeld heb.

Totale pc stress test verbruik is 265 watt waarvan 150 van de gtx 1070, 2 hardeschijven ,2 ssd ,5 fans 14 watt voor de monitor en led verlichting in tb en muis zal nog een paar watt zijn.
Dan heb je nog voeding, moederbord en ram en de creative geluidskaart al heb ik geen idee of en wat die idle gebruikt.
De rest is dus cpu.
Wil het liefst een zo passief mogelijk gekoelde videokaart in mijn budget game systeempje. Hoop dat er zo'n variant uit de navi stal zal komen.
Waarom wil je een passief gekoelde kaart? Zodat je in plaats van fan noise naar coil whine kan luisteren? (Goede) videokaarten zijn tegenwoordig zo stil dat je ze niet hoort in een geisoleerde kast. Neem een Cooler Master Silencio kast, prik er een MSI Trio videokaart in, en je hoort 'm echt niet. Tenminste, de fan van je videokaart niet.

[Reactie gewijzigd door Gamebuster op 1 mei 2019 10:38]

Relatief kleine behuizing met weinig airflow. Hou het liever een beetje koel daarbinnen.
Succes! Ik ben heel benieuwd hoe je dat voor elkaar gaat krijgen. Kleine kast + passieve koeling + weinig airflow + "budget"? Lijkt me een onmogelijke combinatie. Heb je een onderdelen lijst die je van plan bent?

Misschien een pricewatch: AMD Ryzen 5 2400G Boxed passief koelen? En dan geen dedicated GPU

[Reactie gewijzigd door Gamebuster op 1 mei 2019 10:41]

Goede tip: Maar dedicated gpu moet er komen.
Die 2400G heeft dus een Vega 11 GPU erin zitten, waar je best "oke" op kan gamen.

- Je kan 'm waarschijnlijk passief koelen
- Budget gaming
- Doordat je geen dGPU hebt kan je 'm compact houden

Kast: pricewatch: Streacom FC8 Alpha Fanless Zilver (zonder optisch slot)

Meer fotos: https://www.goldfries.com...-fanless-casing-review/2/

[Reactie gewijzigd door Gamebuster op 1 mei 2019 10:46]

Dank voor die tip, ga me eens in de 2400g verdiepen. Misschien is dat inderdaad wel de proc voor wat ik wil.
Tip, einde van de maand komt waarschijnlijk de 3600G, die heeft 8 cores 16 threads en ik denk ook nog wel betere graphics, die zit rond de 200 euro
Weinig airflow = je kan niet passief koelen.

Tenzij je naar low power (en dus low performance) GPUs kijkt oet je kiezen: open kast met airflow met een passief gekoelde GPU, of een gesloten kast met ene actief gekoelde GPU.
Ik zou gaan voor een Corsair H serie onderhoudsvrije waterkoeling.
Hoeft niet per se van Corsair te zijn, maar ik heb daar persoonlijke goede ervaringen mee.
Er is een punt waar het te gek wordt he. Ik heb zon R9 290 (die ik dus wil vervangen voor een Navi). Dat ding wordt zo ontiegelijk warm dat je de gpu blauw stookt. En dan had ik de MSI twin frozr (Ging overigens stuk omdat ik die gpu verbrand had). Nu zit er een Arctic acellero op (nieuwe dan he). zorgt ervoor dat het effectief een 4,5 slots kaart is geworden.

Als een Navi wat zuiniger is dan zal deze ook minder warm worden. Dus dan koop je de aftermarket versie met overkill koelblok. (Zon Asus ROG ding met 3 fans bijvoorbeeld). En je draait als een zonnetje op 40% fanspeed zonder dat je gpu blauw is na een jaar of 2. Dat samen met een Ryzen 3000 waar ook zon idioot lomp koelblok op gaat. (iets in de trant van zon Bequiet dark rock pro4). En je hebt een best stille pc.
Die 50watt moet vervolgens wel gekoeld worden, wat meer geluid gaat produceren.

Daarnaast. Veel gamers zullen meer dan 20 uur per week halen en kopen niet iedere 2 jaar een nieuwe videokaart. En de extra warmte is leuk in de winter, maar niet in de zomer.
Wel relevant is hoe luid de kaart is, en dat ligt gewoon in lijn met het stroomverbruik. Ja, je hebt betere en slechtere koelers, maar als je naar de betere merken met dus degelijke koelers kijkt, is de geluidsproductie van een kaart zowat volledig bepaald door het stroomverbruik.
Met de prijs van gas en de belasting daarop wordt het ook zo langzaam aan interessanter om op elektra te stoken. Dus van die 12 euro per jaar die je extra uit hebt gegeven haal je het grootste deel terug aan bezuiniging op gas. lol
mijn gasprijs is van 67,6 cent naar 72.4 cent gegaan.
Electra is van 18.4 cent naar nu minimaal 22.3 cent gegaan.
Electra is meer omhoog gegaan en daarnaast is met gas verwarmen efficiënter.

En dat beetje uitstoot van de pc gaat net zo snel weer via het ventilatierooster naar buiten.

[Reactie gewijzigd door computerjunky op 2 mei 2019 12:36]

Met de 5xx serie heb je gelijk maar de Radeon 7 bied al ongeveer dezelfde prestaties als de 2080 en verbruikt daarbij ook hetzelfde. In games wel te verstaan, in mining hashrates maakt de Radeon7 gehakt van zelfs de 2x duurdere 2080TI.

Verbruik : https://www.youtube.com/watch?v=5eMl4j_lkTg&t=323s
mining hashrates : https://www.youtube.com/watch?v=vtgs2y3_aX0
Juist dat laat zien dat AMD daar nog wel wat te winnen heeft. Een 7nm kaart verbruikt hetzelfde als een 12nm kaart (wat eigenlijk nog erg lijkt het op 16nm proces) bij +-dezelfde prestaties, heel goed is dat niet direct te noemen. In principe zou een 7nm kaart veel efficiënter moeten zijn dan een 12nm kaart.

Dat is ook waarom veel mensen hopen dat Navi die efficiëntie slag wel gaat maken t.o.v. het aanbod van Nvidia waar de Radeon 7 dat niet deed. R7 is wel efficienter dan de eerdere Vega kaarten, maar die waren al zo inefficiënt dat dit eigenlijk geen prestatie mag heten.

[Reactie gewijzigd door Dennism op 1 mei 2019 10:48]

Ook bij Vega 20 koost AMD er voor om voor hoge clocks te gaan ipv efficientie. Ja hij is wel efficienter geworden tov een stock geclockte vega kaar. Maar ze wilde maar weer al te graag die 2080 bij houden. En dat snap ik opzich wel.

Als je Vega 10 op lage voltages laat draaien kan je nog steeds rond de 1400-1500 MHz clocken maar is hij veel zuiniger dan stock. Scheelt zo 60 watt zonder dat de prestaties er op achteruit gaan. Ik heb dit bij meer dan 8 kaarten getest. Maar er is dan geen OC headroom meer. Maar dan nog AMD had in mijn ogen minder aggressief moeten zijn met de voltages. Dan maar ietsjes lagere prestaties maar dat komt de geluidproductie en het verbruik tengoede.

Bij Navi gaan ze de zwakke punten van GCN waarschijnlijk flink aanpakken. Zowel troughput van de frond en back end's als de efficientie kunnen en moeten beter. Er is gewoon niet genoeg geld geweest om daar veel tijd aan te besteden. En Raja schijnt toen de taak gekregen te hebben om dat op te gaan lossen. Vega was toen al door de initiele ontwerp fase heen toen hij daar kwam. Op dat design heeft hij niet veel invloed kunnen hebben (een GPU ontwerpen kost 3-4 jaar). Op Navi heeft hij wel invloed kunnen hebben. Echter geld voor al die design's dat er toen de tijd relatief weinig geld beschikbaar was binnen AMD. De architecturen die nu ontwikkeld worden en na Navi gaan komen krijgen denk ik ook een wat hoger R&D budget.
Eens. Die efficientieslag is inderdaad 100% toe te schrijven aan het 7nm productieproces wat hogere klocksnelheden toelaat binnen hetzelfde power budget. Er is geen (of marginaal kleine) winst geboekt in de architectuur omdat het nog steeds GCN is.
Zelfde gaat op voor Navi.
En dat zou toch jammer zijn, want dat al betekenen dat zodra Nvidia ook naar 7nm gaat AMD zeer goed mogelijk weer "terug bij af" is om het zo maar . Dat zal ze mogelijk toch wel wat klanten gaan kosten aangezien je toch wel, in ieder geval veel meer dan vroeger, je een vraag ziet naar efficiëntere (gaming) kaarten.
Sterker nog Gddr6 verbruik meer stroom als HBM1 en 2 geheugen dus dat vehoogd het gebruik nog eens.

Dus zelf al winnen ze een beetje met een 7nm procede ze verliezen wat door de overstap naar Gddr6.

Enige bijkomende voordeel is dat het geheugen VEEL minder kost als HBM en de prijs dus flink omlaag kan.
Hij heeft de nvidia kaart overclocked dus de power draws zijn niet stock en dus niet relevant.

Ga je andere sites bekijken dan zie je dan ook dat de radeon 7 toch echt minimaal 20% meer verbruikt.

reviews: AMD Radeon VII-videokaart - Vechten tegen de rtx-bierkaai

https://nl.hardware.info/...resultaten-stroomverbruik

Over prestaties ga ik het maar niet hebben want daar is de vega architectuur echt all over the place.
Je weet het misschien niet omdat je zelf geen AMD kaart hebt maar het eerste wat je doet wanneer je je AMD kaart installeerd is even de driver openen (Wattman) en undervolten aanzetten.

Daarna hoef je hier 3 jaar niet meer naar te kijken.

In principe zou je denken dat bij minder volt de turbo lager zal zijn, hoewel dit inderdaad zo is hoeft hij minder te throttelen en heb je over het algemeen dus toch betere performance.

Tweakers heeft dit vergeten te doen en dit wordt ook genoemd in de eerste reactie op de review. (mijn god, dit is de essentie van "tweaken" anyway we dwalen af.

Computerbase heeft dit wel gedaan en dit is het resultaat:

https://www.computerbase....ung_der_leistungsaufnahme

Samenvattend
De Radeon 7 is zuiniger dan de RTX2080 FE en bied daarbij in 4K ook een hogere performance per watt dan RTX2080 FE.

Nu overtuigd?
Nee dat is dus onzin. 99% van de mensen steekt een kaart in de pc installeert de driver en gaat gamen. (na eerst wat benchmarks).

Mensen zijn over het algemeen niet bezig met dat soort onzin.

En je vergeet nog een zeer belangrijk punt. De reden waarom amd gpu's zon hoog voltage hebben.
Niet iedere kaart azl immers werken met een undervolt. Silicon lottery anyone?

Mijn intel 2770k draait met 82 graden op 5ghz met 1,425v op een lucht koelertje daar waar andere mensen met dezelfde cpu nog geen 4,6 ghz halen met watercooling op 1,48v.
Niet iedere chip is hetzelfde en de ene chip heeft meer voltage nodig voor dezelfde taak bij dezelfde mhzen als de andere en dat is waarom amd deze voltages op dat nivo heeft staan.
Het is simpelweg een voltage waarop gegarandeerd iedere kaart werkt zoals te verwachten is.
Je loopt dus het risico met undervolten op beide prestatieverlies en instabiliteit puur omdat je undervolt en mogelijk geen geluk heb in de silicon lottery.

Daarnaast kan je de 2080 ook gewoon undervolten en 15+% van het verbruik af halen dus nog een reden dat dit niet meegenomen dient te worden omdat het niet amd exclusief is. Je moet net als bij amd wel een goede gpu en geluk hebben dus.
https://www.youtube.com/watch?v=oGRlYbH_0mE

Dus undervolt je beide dan komt amd er nog altijd slecht vanaf qua verbruik en is hui duidelijk niet zuiniger.

Dus nee niet overtuigt.

@hieronder NEE dus zo denkt de normaal consument helemaal niet. kijk even op het forum bij de aankoop adviezen. de meeste mensen hebben totaal geen idee en het boeit ze ook niet ze kopen gewoon wat.
Je kan een tweaker niet vergelijken mer de andere 99% van de consumenten en dat doen jullie nu wel.

[Reactie gewijzigd door computerjunky op 1 mei 2019 15:41]

Je koopt een kaart van €700 alsof het een kaart van €120 ;) . Als je bewust een kaart van plus €700, de Radeon VII koopt, en ook nog van AMD dan ben je dubbel extra van bewust waar je mee bezig bent. Dat betekent dat je bij voorbaat al weet dat ja Radeon WattMan gaat gebruiken.

Dit geld voor alle Radeon's vanaf RX400 series. Bijvoorbeeld een RX470 haal je van 150W naar 90W door Radeon WattMan zonder prestatie verlies. Bij RX480 gaat juist meestal prestaties omhoog door Wattman en wattage omlaag te halen vanwege thermal throttle.
Je weet het misschien niet omdat je zelf geen AMD kaart hebt maar het eerste wat je doet wanneer je je AMD kaart installeerd is even de driver openen (Wattman) en undervolten aanzetten.
Dit is inderdaad bekend onder Tweakers, echter het naar mijn mening ook zeer slecht dat dit nodig is. Dit hoort out of the box op orde te zijn, niet pas na "getweak". Het gros van de consumenten zal zoiets namelijk niet weten en dus ook nooit aanzetten.

Dat dit getest wordt is een review zoals bij computerbase is goed en zeer behulpzaam, echter moet dan wel de conclusie getrokken worden dat het product out of the box gewoonweg matig presteert qua efficiënte en dat je het met extra handelingen kan verbeteren. Dit is iets dat AMD gewoon simpelweg beter moet gaan doen. De out of the box performance is simpelweg zeer belangrijk omdat de gemiddelde consument, en zelfs een flink aantal Tweakers, dit soort zaken gewoonweg niet zal aanpassen na aanschaf. En dat zou ook niet moeten als het out of the box een goed product geweest zou zijn.

Ik vind je samenvatting dan ook wat voorbarig.
De Radeon 7 is zuiniger dan de RTX2080 FE en bied daarbij in 4K ook een hogere performance per watt dan RTX2080 FE.
Zou je beter kunnen verwoorden als "de Radeon 7 is zuiniger dan de RTX2080FE op stock settings na het aanpassen van enkele settings, out of the box presteert de kaart zeer matig qua efficiëntie"

Wie zegt mij bijvoorbeeld niet dat als je bij een RTX2080FE de settings gaat Tweaken dat je weer een stuk efficienter uit komt dan bij de Radeon 7.
Je hebt een valide punt Dennism.
Ik bezit een Radeon7 en weet na veel pielen dat dat vinkje "undervolt" zeer terughoudend is. Als ik het handmatig tweak met MSI Afterburner kan het bijna 2 keer zo laag. Die score in deze computerbase test is dus zeker niet optimaal. Echter het vinkje undervolt werkt op elke kaart en wil je lager met Afterburner dan hangt het af van de kwaliteit van je chip.

Dus ik denk dat AMD hier gewoon op safe speelt en NVIDEA middels drivers al vanuit de box netjes op de optimale Vcore zit die je met AMD pas bereikt door "undervolt" aan te tikken. Maar dat weet ik niet zeker.

Ik ga eens zoeken naar wat mining videos voor de GTX 2018 wat er mogelijk is want die gasten zijn altijd bezig het laatste wattje te besparen.
Wel grappig dat je 17 minuten na mijn post waarin ik dat uitleg het eens ben met Dennism die in feite hetzelfde zegt als dat ik zeg.
Ondertussen word ik aan alle kanten weer gemind word daar waar jouw posts waar ik op reageer gemind worden.

Het lijkt wel alsof we hier op tweakers niks meer over apple, amd, intel, nvidia kunnen zeggen voordat de mening modders om de hoek komen zetten met vlugge vingertjes.

En als toevoeging op je suggestie om het vinkje standaard aan te zetten. dit zou de zeer slecht zijn want er zijn dus kaarten die de undervolt niet aan kunnen.
Wil dit gaan werken moeten ze per GPU gaan testen wat zijn werkbare voltages zijn en dat kost gewoon veel tijd en dus geld om te doen met miljoenen kaarten.

Nvidia daarentegen heeft een core die zichzelf overclocked en dus meer 'toegang' heeft tot de vcore waardoor deze dus zelf al lager afgesteld kan worden en de kaart zelf de vcore omhoog kan schroeven als dit nodig is en de temperatuur dit toelaat. Al is deze clock alsnog 'te hoog' voor veel kaarten en zijn die alsnog te undervolten. Het is een tussenweg oplossing die nvidia heeft waardoor ze al minder verbruiken stock maar nog verder terug te dringen zijn daar waar bij amd ze gewoon voor de minimum vcore voor de 'slechtste' chip uit de batch gekozen hebben ondanks dat niet iedere chip dat nodig heeft.

Maargoed ik ga wat anders doen en reageer maar niet meer op tipics zoals deze want de gekleurde brilletjes zijn exteem hier op tweakers.
En als toevoeging op je suggestie om het vinkje standaard aan te zetten. dit zou de zeer slecht zijn want er zijn dus kaarten die de undervolt niet aan kunnen.
Nee. Er zijn geen kaarten die freezen door deze optie aan te klikken, waarom denk je dat?
Als je mijn post gelezen had dan wist je nu dat deze undervolt functie behoudend is ingestoken zodat het op elke kaart werkt. Handmatig via bijvoorbeeld MSI Afterburner kan je echt veel lager gaan voordat instabiliteit problemen optreden.
Wacht even.... De Radeon7 verbruikt 280W waar de 2080Ti op 274W zit. In mijn rekenmachine zit dat net boven de 2%. Dat zit ruim binnen de foutmarge van de meting. Dat is bij lange na geen 20%.
Ik denk dat hij de RTX 2080 zal bedoelen, dat is namelijk in de regel de directe concurrent van de Radeon 7 en niet de 2080Ti
Dat zijn high-end kaarten die je noemt. Ikzelf kijk naar het middensegment en hoop dat AMD daar wat soortgelijks qua powerconsumptie gaat neerzetten.
De nieuwe generatie is 7nm net zoals de Radeon7. Vandaar dat ik specifiek deze kaart vergelijk met zijn Nvidea tegenhanger.

De radeon7 heeft hogere clock snelheden dan de Vega64 maar verbruikt veel minder.

Hetzelfde effect kan je verwachten voor de komende mid tiers van AMD (deze Navi bijvoorbeeld) omdat deze ook op 7nm is gebakken.
Nu denk ik iedere keer had ik maar geen G-Sync monitor gekocht, en voor een FreeSync gegaan, maar ik wist ook niet dat Nvidia FreeSync monitors ruim 2 jaar later ook ineens zou ondersteunen.

Anders zou ik waarschijnlijk wel voor de 7nm gebakken Navi-gpu gegaan zijn van AMD, als vervanging van me Geforce GTX 1080.
AMD kaarten undervolten brengt ze meestal een stuk dichter bij de Nvidia tegenhangers
Not sure wat jij onder "gelijk" verbruik stelt, maar volgens Tweakers consumeert de VII ongeveer hetzelfde als een 2080Ti en 50W meer dan een 2080.

Qua efficiëntie is er dus nog wel wat winnen.
Tweakers heeft deze kaart gereviewd met dag 1 drivers.
Hier een iets meer up to date review (26 april)
Verbruik : https://www.youtube.com/watch?v=5eMl4j_lkTg&t=323s
Nogmaals deze resultaten zijn NIKS waard omdat deze een overclock bevatten.
Zodra je gaat overclocken gaat de prestatie per wat kompleet naar zijn grootje en dus moet je dat ook gewoon negeren.
Stock is de Nvidia RTX 2080 gewoon een stuk zuiniger dan de Radeon 7.
Ze zijn beide 8/12% overgeclocked dus het is wel degelijk appels en appels vergelijken.
Maar als je een eerlijk vergelijk wil.
Check. Radeon 7 heeft een beter prijs performance verhouding dan de RTX 2080 FE.
https://www.computerbase....ung_der_leistungsaufnahme
Nee want niet iedere kaart heeft dezelfde prestatie curve bij overclocken... soms kost een 5% overclock 35% meer energieverbruik en soms maar 8% (vooebeeld).

Je kan 2 overclocks van 2 architecturen daarom ook titaal niet met elkaar vergelijken.

Kijk maar naar de power mod overclock van de vega 56 kaarten. Het stroomverbruik voor een beetje overclock meer is ronduit belachelijk.
De kaart gebruikte 50% meer watts voor maar 20% meer prestaties daar waar de 2070 maar 12% meer stroom gebruikte voor 9% meer prestatie.
2 verschillende architecturen 2 totaal verschillende power curves bij overclock.
En bij undervolten is deze curve net zo onvoorspelbaar en verschillend per architectuur..

En die link gaat mank om dat voor zo ver ik kan zien er niet gepoogt is de nvidia kaarten te undervolten wat gewoon mogelijk is zoals ik in de reply op je andere post heb gezegd.
Undervolt je die ook dan krijg je dus andere values.
Als je echt appels en appels wil vergelijken moet je ze wel allebei hetzelfde behandelen.
Hou er wel rekening mee dat dit na het aanpassen van settings is. Out of the box is de efficiëntie gewoonweg matig te noemen, zeker voor een 7nm product. Dit is ook duidelijk te zien in dezelfde test.

Wij Tweakers doen zo'n aanpassing vaak wel, maar de gemiddelde consument blijft daar vaak verre van. Voor mij zelf weegt de prestatie out of the box dan ook veel zwaarder dan de prestatie na tweaks., zeker als je niet beide kaarten van dezelfde tweaks voorziet en dan pas gaat testen. Nu is het ook nog eens appels met peren vergelijken voor een deel. Namelijk een out of the box RTX2080 tegen een getweakte Radeon 7.

[Reactie gewijzigd door Dennism op 1 mei 2019 15:19]

De gemiddelde consument koopt geen Radeon7. En ook geen RTX2080 of hoger.
Dit is echt de enthousiast line en wordt alleen gekocht door professionals, miners en gamers. Die weten de AMD driver wel te vinden.

Maar je punt is duidelijk, AMD moet deze functie standaard aanzetten in de komende updates.
Dat ben ik niet met je eens, kijk ik alleen al in mijn omgeving zitten daar redelijk wat gamers met ditto highend hardware, echter ik ben de enige die daad werkelijk geïnteresseerd ben in de achterliggende hardware. En dus ook naar dit soort zaken kijkt. Ik denk dat je redelijk overschat wie er high end hardware kopen en wat hun affiniteit is met hardware.

Miners ben ik wel met je eens, die weten dit wel te vinden. Echter is dat ook hun belang, het niet gebruiken van dit soort instellingen zal hun bottomline raken.

Professional overschat je denk ik ook vrij erg. Zakelijk heb ik dagelijks te maken met en boel professionals met vaak zeer zware workstations, maar ik denk dat minder dan 10-20% op de hoogte is van dit soort zaken. Het gros heeft gewoon een zwaar workstation nodig voor de dagelijkse werkzaamheden (denk aan 3D/CAD tekenaars, ontwerpers, engineers e.d.) maar hebben totaal geen verstand van de hardware erachter.

Mijn punt is trouwens niet dat AMD dit standaard moet aanzetten, mijn punt is dat deze optie helemaal niet in de drivers zou moeten zitten, maar dat ze de chips standaard fatsoenlijk tunen zodat er geen undervolts nodig zijn. Standaard aanzetten zou trouwens wel goed zijn voor de al verkochte kaarten, maar imho hoort dit gewoon op hardware / bios niveau geregeld te zijn.
De meeste (alle) gamers die ik ken hebben wat vooronderzoek gedaan om te kijken welke GPU ze willen kopen. In de head to heads die review channels op youtube bijvoorbeeld maken worden uitgebreid de voors en tegens genoemd in topics als de aankoopprijs, de performance, geluid en energieverbruik.

Niemand gaat point blank naar de paradigit en zegt "doe maar een kaartje".

En als dat al zo is, dan hebben ze echt totaal geen interesse in het feit dat hun kaart -out of the box- misschien 40 watt meer verbruikt dan strikt noodzakelijk.
Oh ze doen ook wel wat onderzoek, maar veel globaler dan ik als Tweaker. Ze zijn alleen niet bezig met driver settings, maar ook bijv. overklokken wordt amper tot niet gedaan door hen zelf. Het gebeurt niet, of ze hallen bijvoorbeeld mij erbij.

Maar veruit de meesten willen gewoon een systeem dat ze aanzetten, het spel starten en gaan :)
Tja, dan noem je natuurlijk het undervolt resultaten.

Dan moet AMD dat maar als standaard instellen. Waarom ze zichzelf in de voet blijven schieten met te hoge voltages, ik weet het ook niet. Maar het is oneerlijk om de ene kaart wel te undervolten, en de andere niet.
Eens en ik denk dat het komt omdat sommige chips dat voltage gewoon nodig hebben om hun werk te doen.
Geef je dus standaard een lager voltage dan heb je kans dat je meer RMA's te verwerken krijgt omdat de chip niet werkt op het lagere standaard voltage en dat is natuurlijk ook een slechte keuzen.
Bij nvidia lijkt de gpu zelf in staat de vcore omhoog te gooien als de kaart er om vraagt en de temps dat toelaten.
Nvidia kaarten overclocken zichzelf dan ook behoorlijk (van 1535mhz stock naar 1985mhz in mijn geval zonder dat ik hem aangeraakt heb) en zullen dus wel de tools onboard hebben om het voltage aan te passen. Zo heb ik andere 1070 kaarten van dezelfde farikant en model gezien die lagere vcore hebben als mijn kaart onder full load zonder dat de gebruiker er iets aan gedaan heeft.

In bet begin overclockte mijn kaart zich tot 2060 a 2070 mhz maar was daarop niet super stabiel en over tijd zag dje dat de kaart zich settelde op de nu 1985 mhz wat hij zeer consistent haalt.
ik weet niet 100% exact hoe nvidia dit doet maar de kaarten lijken dus zelfs te settelen op de max standaard overclock behaald door de onboard boost.
Ik vraag mij bij deze reacties altijd af hoeveel watt verschil er is, en ofdat je het echt wel gaat merken.

Je moet wel heel veel uur gamen. Nvidia kaarten zijn meestal duurder, zou je in 2 a 3 jaar meer dan dat verschil verstoken qua energie?
Dat hangt idd af van hoeveel je gamed en hoeveel het prijs verschil is.
En je moet natuurlijk ook de prestatie meenemen.
Een gpu die 15% sneller is gaat misschien een extra jaartje mee en koop je altijd high end zoals een 2080 dan is een jaar extra rendement uit een gpu van 700 euro best een hoop geld waard.
Koop je altijd een budget kaartje van 220 euro dan is een jaartje extra rendement al een stuk minder waard.
Bijvoorbeeld 4 jaar ipv 3 jaar op een 700 euro kostende kaart is al 175 euro waard. Is hij daarbij ook nog eens zuiniger is dit verschil nog groter.

Er zijn velen situaties en factoren en geen 1 is er gelijk.

Zo bereken ik:
-game tijd.
Dit is vrij constant per jaar al game ik meer in de winter als in de zomer.
-kwh prijs
dit is geen vast gegevens zo betaalde ik 3 jaar geleden 18.4 cent en ga ik einde van het jaar ongeveer 23 cent betalen met de huidige trend.
-gpu prijs.
-Verwachte levensduur.
Bij een duurdere gpu verwacht ik toch dat ik er langer mee doe dan met een goedkopere.

En rond de tijd dat nieuwe consoles uit kwamen (dus de xbox one en ps4) calculeerde ik zelfs 18 maanden na de release een lagere levensduur in.
Dit omdat ik verwachtte dat games sneller zwaarder zouden worden en de gpu dus minder lang mee kon komen en dat was het geval. Deze les had ik al geleerd bij de Xbox 360 en ps3 waar hetzelfde gebeurde.

Ik besef dat lang niet iedereen zin heeft om deze berekeningen te maken. Het vergt veel inzicht in je eigen gedrag en situatie en enigszins wat de markt gaat doen en je ben deels afhankelijk van resultaten van derden.
Maar wat mij betreft moet je dan ook niet gaan roepen dat stroomverbruik niet relevant is want afhankelijk van je situatie kan het dus wel dergelijk relevant zijn.
Waarom zou je immers gratis geld weg geven als het niet nodig is.
Van al dat bespaarde geld koop ik liever iets waar ik plezier aan heb of bouw een buffer op voor later.

Long story short : it depends on a lot.
Dat is helemaal waar. Ik moet eerlijk zeggen dat in mijn situatie het niet echt uitmaakt. Ik heb een rx 580 en de oude kaart was een gtx 560 ti. Ik koop eigenlijk pas een nieuwe kaart als het echt nodig is. Ik speel dan ook niet alle nieuwe AA titels, vooral wat games die zich bewezen hebben qua playability. Het hoeft van mij ook niet het mooiste van het mooiste te zijn "playing videogames for the graphics is like watching porn for the story".

Maar jah, het is niet echt een number crunching task, maar dat doe ik al op mijn werk, dus thuis wil ik het gewoon aanslingeren en er iets mee doen.
Tja dan ben jij lekker goedkoop haha.

Ik ben zelf nogal duur. Ik kan echt genieten van graphics zoals in farcry 5 of assasins creed games waar je de mist van de berg ziet rollen in dr ochtend.

Ik ben dan bij veel games weer niet te porren voor een uitgebreid.
Zo luister ik wel naar audio en soms naar video maar alle vaak nutteloze documenten in een game lees ik simpelweg nooit.

Iedereen gamed weer anders en ook dat speelt weer mee in je hardware keuzes.
Ik speel games voor het verhaal. Ik neem dan ook niet echt de tijd om ergens rustig te chillen en naar de omgeving te kijken.

Alleen bij de eerste en derde bioshock krijg ik nog steeds kippenvel als je naar de steden gaat ;)
Vega 56 kost zo ongeveer 330 euro en Vega 64 kost iets meer dan 400 euro. Natuurlijk gaat de eerste (midrange) Navi kaart minder dan 700 euro kosten.
En ze hebben toch ook nog de Deal van Sony Playstation en Microsoft Xbox die weer met hun nieuwe generatie Consoles komen volgend jaar dat zal toch ook wat opleveren lijkt mij.
Ik denk dat die cijfers nog niet zijn verwerkt in de resultaten van afgelopen jaar. Daarnaast Verkopen ze dan meer apu's voor de ps5, maar de levering voor de ps4 zal gaan dalen.
"Kost minder dan Radeon VII" is een ruim begrip en geeft daarom zeer weinig informatie weg: de Radeon VII kost €709,- of meer, dus alles tussen gratis weggeven en 700 euro is een lagere prijs dan Radeon VII.

Kan dus ook een high-end kaart worden die alleen interessant is voor mensen met een grote beurs in plaats van voor mensen zoals ik.
Tja het worden dus gewoon net zo onbetaalbare kaarten als de nvidia kaarten.

Daarnaast zijn er heel veel leaks online verschenen die er toch op wijzen dat het weer een op vega gebaseerde kaart is.
Dus een kaart met dezelfde problemen als de vega kaarten en de radeon 7.
Naadje prestaties in het begin en pas nuttig na een bak patches en updates.
Kortom mogelijk weer een amd product met een slechte day 1 experience wat toch wel de reden is om bij intel+nvidia te blijven momenteel.

Ik vraag me echt af of amd gewoon ruk release day drivers heeft of dat de schuld bij game makers ligt.
Het feit dat amd met driver updates flinke prestatie winst kan halen doet me vermoeden dat het een driver probleem is.
En aangezien ze niet voor iedere game performance fixen en het soms zo lang duurt dat ik de game al uitgespeeld heb kan ik er niet warm voor lopen.

Maarja we gaan het einde van de maand misschien zien.

[Reactie gewijzigd door computerjunky op 1 mei 2019 11:27]

Dus een kaart met dezelfde problemen als de vega kaarten en de radeon 7.
Naadje prestaties in het begin en pas nuttig na een bak patches en updates.
Op 7nm zullen alle AMD kaarten dezelfde performance per watt leveren als hun Nvidea tegenhangers. Waarschijnlijk zullen ze ook iets goedkoper zijn dan hun exacte performance tegenhangers en meer videogeheugen hebben. Dus wacht nog maar even met het vormen van je mening over deze nieuwe producten tot je de reviews hebt gelezen/gezien ;)
Bedoel je dat de AMD kaarten op 7nm dezelfde Perf / Watt gaan leveren als de Nvidia tegenhangers op 12nm? Echt indrukwekkend is dat helaas niet.

Als ze dezelfde perf / watt gaan leveren als Nvidia's 7nm producten, meer geheugen zullen hebben en ook nog eens goedkoper zullen zijn dan ja, zijn het uitstekende producten. Maar als ze net aan op 7nm gelijk kunnen presteren als de concurrentie op 12nm dan vind ik het weinig speciaal en eigenlijk niet meer dan logisch dat ze wat goedkoper gaan zijn.
Klopt Dennis. De hoop en eigenlijk ook verwachting was dan ook dat Navi op een nieuwe architectuur was gebaseerd. Helaas is dat niet gelukt.
Als je kijkt naar de architectuur series gebruikt door het groene team zie je dat er tussen Maxwell en Pascal 2 jaar tijd zat (April 2016, vs Feb 2014) en 2 jaar later (Sep 2018) Turing het licht zag..

De Polaris'ish architectuur gaat nu al weer meer dan 3 jaar mee en loopt nu achter.

Dus wat we nu hebben is dat team groen achterloopt op het productieproces maar voor qua architectuur ontwikkeling en team rood precies andersom, ze lopen voor op het procede maar bouwen nog steeds hardware op het verouderde GCN architectuur.

In 2020 zal het team groen over gaan tot die shrinks en het rode team op een nieuwe architectuur.
En dan hebben we weer deze lange discussies op Tweakers. :)
Als AMD nou nog meer investeerd in driver & game optimalisaties, dan zou dat naar mijn idee meer toegevoegde waarde geven aangezien de hardware op papier beter uitziet dan Nvidia.
Ik denk dat ze daar toch goed mee bezig zijn hoor.
Ik vind dat vrij tegen vallen, nog zeer regelmatig zie je dat AMD dag 1 "achter de feiten aanloopt" en soms weken tot maanden doet over het optimaliseren voor een game, waar Nvidia veel vaker "Day 1" drivers klaar heeft staan.

En dit is wat je vaker ziet bij AMD. De hardware is (zeer) goed in orde, maar ze lijken duidelijk het budget te missen software ontwikkelaars en game dev's te ondersteunen. Dit zou veel en veel beter moeten kunnen.
Nvidia veel vaker "Day 1" drivers klaar heeft staan
Daar geeft Nvidia ook aardig wat subsidie voor weg om nauw betrokken te zijn bij de ontwikkeling van de game en dus klaar wanneer de game uit is. Dat voordeel heeft AMD dus vaak niet.

Doom 2016 hetzelfde verhaal, maar uiteindelijk maakte AMD het meer dan goed met Vulkan. Je kaart wordt dus na verloop steeds sneller :)
Dat is juist waar ik op doel, AMD zou ook veel nauwer samen moeten werken met game / software dev's

Doom 2016 is inderdaad leuk, maar je kaart wordt niet steeds sneller. De hardware is immers nog steeds hetzelfde. Die performance zat dus ook dag 1 al in de hardware. Je kan het echter pas een tijd later benutten. Wat beter is dan wanneer dit nooit zou kunnen, ik zie echter liever dat je op dag 1 die performance al grotendeels uit Je hardware had kunnen halen. Nu betaal je vandaag, voor iets wat pas tijden later presteert.

Maar ook zakelijk zie ik dit nog regelmatig. Software leveranciers die AMD niet of minder supporten omdat AMD op hun beurt niet genoeg support levert.

Ook gaf de directeur van MSI laatst aan dat een van de redenen waarom zij nog geen AMD gebaseerde laptops hebben is dat AMD in het verleden slechte support heeft geleverd en ze hier nog geen verbetering in zien
Helemaal mee eens. De AMD out of the box ervaring is gewoon slechter.
Zo hebben videokaarted driver updated nodig. Heeft de epyc windows patches nodig. De ryzens hadden beter geheugen nodig als de aanbevolen standaard.
Had de treadripper software nodig om cores uit te schakelen voor gaming...

En de lijst word met ieder product groter zonder zicht op verbetering. Hoe moeilijk is het om 2 mensen aan te nemen en 50 verschillende stukken software te testen en te vergelijken met intel en Nvidia setups en een mix daarvan.
Je kan de schuld wel op AMD schuiven, maar het is bijvoorbeeld de Windows scheduler die roet in het eten gooit. Microsoft heeft zijn zaakjes niet op orde. Het is zelfs de community die Microsoft heeft geholpen met het oplossen van de problemen. De problemen op Linux waren veel kleiner.

AMD is juist de grenzen aan het verleggen met compleet nieuwe designs. Dan lijk je wel eens tegen problemen aan te lopen. Intel is de laatste jaren lang niet zo innovatief op CPU gebied. Dan loop je ook tegen minder problemen aan. Maar om dat nou als iets positiefs te zien voor Intel...
Dat scheduler issue is inderdaad vervelend, echter vraag ik me af of je dat volledig aan MS kan wijten of ook aan AMD. Het is namelijk inderdaad een bug in Windows, echter loop je bij Intel systemen niet tegen die bug aan, maar enkel bij AMD systemen met 3 of meer die's.

Dus ja, AMD is daar inderdaad grenzen aan het verleggen met nieuwe designs, echter zou het ook verstandig zijn om voordat je zulke producten op de markt zet te zorgen dat je een (team van) engineer(s) bij o.a. Microsoft hebt zitten om ervoor te zorgen dat je er zeker van bent dat er geen bugs op treden door het hebben van meerdere numa nodes. Meerdere numa nodig is namelijk wel vaker de oorzaak geweest van (performance) problemen en daar had je als AMD zijnde best aan kunnen denken en pro-actief op kunnen acteren voor je een product op de markt zet die ook meerdere numa nodes heeft (4 zelfs).
Nee AMD had dat gewoon moeten testen en vervolgens hadden ze bij Microsoft aan de bel moeten trekken voor een fix.
Daarna kunnen ze of kiezen voor en uitstel van release of een release met waarschuwing dat bepaalde features niet werken.

Je released simpelweg geen product die je niet volledig test of die niet goed werkt doo wat dan ook zonder dit duidelijk te maken.
Als ik dit gekocht had had ik gewoon een RMA aangevraagd en hadden ze hem kunnen houden. Het is gewoon onacceptabel of dit nou amd of intel is.

Grenzen verleggen is prima maar daarmee halfbakken support leveren is NOT DONE.
Als iets niet werkt om wat voor reden dan ook dan moet je dat melden en niet releasen ipv de problemen bij je klanten neerleggen en doen alsof je neus bloed. Het zijn tenslotte derden die het epyc probleem op hebben moeten sporen/lossen. AMD had blijkbaar de kennis niet om dit te doen. as for the rest testen testen en nog eens testen en betere drivers maken.
Als je zulke prestatiewinsten in drivers kan realiseren dan weet je waar in je architectuur het probleem zit en moet je toch eens naar een permanente fix kijken ipv per game patches.

[Reactie gewijzigd door computerjunky op 1 mei 2019 14:43]

Die game optimalisatie is er al en gaat ook wel verder, maar niet zozeer aan de PC kant. PS5 en XboxOne2 krijgen ook weer een AMD-interieur . Ben vooral benieuwd naar die performance.
Ze verkopen een dure datacenter kaart als $ 700.- USD High End videokaart omdat de hele markt daar lijkt te werken met Nvidia. Die 16GB HBM is echt duur en wordt waarschijnlijk voor kostprijs verkocht door AMD. Dus de lage winst is te begrijpen. Met extern geheugen zijn die videokaarten vooralsnog gewoon goedkoper te maken mijn inziens.
Minder, dat mag ik toch wel hopen. De aankomende Navi kaarten zijn toch gericht op midrange met een prijs om en nabij de 250,- ? Met die uitspraak lijkt het er juist op dat het dus wel een highend kaart wordt die de strijd aan gaat met de RTX2080. De reden dat de VII toch duurder is waarschijnlijk vanwege het gebruikte 16GB HBM geheugen vs het minder prijzige GDDR6?
AMD moet ook wat doen aan de prijzen. Ryzen kan goedkoper en de gpu's ook.

Op dit item kan niet meer gereageerd worden.


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Games

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True